رپورتاژ

آیا هوش مصنوعی خطرناک است؟ 6 خطر هوش مصنوعی که همه باید درباره آن بدانند

برخی افراد برجسته مانند فیزیکدان افسانه ای استیون هاوکینگ و تسلا و رهبر و مبتکر SpaceX ایلان ماسک پیشنهاد می کنند که هوش مصنوعی به طور بالقوه می تواند بسیار خطرناک باشد. ایلان ماسک در مقطعی هوش مصنوعی را با خطرات دیکتاتور کره شمالی مقایسه می کرد. بیل گیتس، یکی از بنیانگذاران مایکروسافت نیز معتقد است که دلیلی برای محتاط بودن وجود دارد، اما اگر به درستی مدیریت شود، می‌تواند بر موارد بد برتری داشته باشد. از آنجایی که پیشرفت‌های اخیر ماشین‌های فوق‌هوشمند را خیلی زودتر از آنچه در ابتدا تصور می‌شد ممکن کرده است، اکنون زمان آن است که مشخص شود هوش مصنوعی چه خطراتی دارد.

هوش مصنوعی کاربردی و تعمیم یافته چیست؟

در اصل، هوش مصنوعی ساخت ماشین‌هایی است که می‌توانند هوشمندانه فکر و عمل کنند و شامل ابزارهایی مانند الگوریتم‌های جستجوی گوگل یا ماشین‌هایی است که اتومبیل‌های خودران را ممکن می‌سازند. در حالی که بیشتر برنامه‌های کاربردی فعلی برای تأثیرگذاری مثبت بر نوع بشر استفاده می‌شوند، هر ابزار قدرتمندی را می‌توان برای مقاصد مضر در زمانی که به دست افراد نادرست بیفتد استفاده کرد. امروزه، ما به هوش مصنوعی کاربردی دست یافته‌ایم که وظایف محدودی مانند تشخیص چهره، پردازش زبان طبیعی یا جستجوهای اینترنتی را انجام می‌دهد. در نهایت، کارشناسان در این زمینه برای رسیدن به هوش مصنوعی تعمیم‌یافته‌تر کار می‌کنند، جایی که سیستم‌ها می‌توانند هر کاری را که انسان‌های هوشمند می‌توانند انجام دهند، انجام دهند و به احتمال زیاد ما را در هر یک از آنها شکست دهند.

ایلان ماسک در اظهار نظری نوشت: «سرعت پیشرفت در هوش مصنوعی (من به هوش مصنوعی باریک اشاره نمی‌کنم) فوق‌العاده سریع است. مگر اینکه مستقیماً با گروه‌هایی مانند Deepmind قرار بگیرید، نمی‌دانید با چه سرعتی در حال رشد است. خطر وقوع یک اتفاق جدی خطرناک در بازه زمانی پنج ساله است. حداکثر 10 سال.»

در واقع برنامه های کاربردی هوش مصنوعی زیادی وجود دارد که زندگی روزمره ما را راحت تر و کارآمدتر می کند. این برنامه‌های هوش مصنوعی هستند که نقش مهمی در تضمین ایمنی ایفا می‌کنند که ماسک، هاوکینگ و دیگران در هنگام اعلام تردید خود در مورد این فناوری نگران آن بودند. به عنوان مثال، اگر هوش مصنوعی مسئول اطمینان از عملکرد شبکه برق ما باشد و بدترین ترس ما تحقق یابد، و سیستم از بین برود یا توسط دشمن هک شود، می‌تواند منجر به آسیب‌های عظیم شود.

هوش مصنوعی چگونه می تواند خطرناک باشد؟

در حالی که ما هنوز به ماشین‌های فوق هوشمند دست پیدا نکرده‌ایم، مسائل حقوقی، سیاسی، اجتماعی، مالی و مقرراتی آنقدر پیچیده و گسترده هستند که اکنون لازم است نگاهی به آن‌ها بیندازیم تا آماده باشیم تا زمانی که با خیال راحت در میان آنها کار کنیم. زمان می رسد خارج از آماده شدن برای آینده با ماشین های فوق هوشمند در حال حاضر، هوش مصنوعی می تواند خطراتی را در شکل فعلی خود ایجاد کند. بیایید نگاهی به برخی از خطرات کلیدی مرتبط با هوش مصنوعی بیندازیم. همچنین می خواهید در زمینه هوش مصنوعی بیشتر بدانید می توانید مقالات معتبری که در تکناتو نوشته شده است را بخوانید و با این تکنولوژی جدید که فراگیر شده است بیشتر آشنا شوید.

1- سلاح های خودمختار

سلاح های خودمختار

هوش مصنوعی که برای انجام کارهای خطرناک برنامه ریزی شده است، مانند سلاح های خودمختار که برای کشتن برنامه ریزی شده اند، یکی از راه هایی است که هوش مصنوعی می تواند خطرات ایجاد کند. حتی ممکن است انتظار داشته باشیم که مسابقه تسلیحات هسته ای با یک مسابقه تسلیحاتی خودمختار جهانی جایگزین شود. ولادیمیر پوتین رئیس جمهور روسیه گفت: هوش مصنوعی آینده نه تنها برای روسیه، بلکه برای تمام بشریت است. با فرصت‌های عظیم همراه است، اما همچنین تهدیدهایی که پیش‌بینی آن‌ها دشوار است. هر که در این عرصه پیشوا شود، فرمانروای جهان خواهد شد.»

گذشته از نگرانی از این که سلاح های خودمختار ممکن است ‘ذهن خود را به دست آورند’، نگرانی قریب الوقوع تر خطراتی است که سلاح های خودمختار ممکن است برای فرد یا دولتی داشته باشد که برای جان انسان ارزشی قائل نیست. پس از استقرار، احتمالاً از بین بردن یا مبارزه با آنها دشوار خواهد بود.

2- دستکاری اجتماعی

رسانه های اجتماعی از طریق الگوریتم های مستقل خود در بازاریابی هدف بسیار موثر هستند. آنها می دانند ما کی هستیم، چه چیزی را دوست داریم و در حدس زدن آنچه فکر می کنیم فوق العاده خوب هستند. تحقیقات هنوز برای تعیین تقصیر کمبریج آنالیتیکا و سایر شرکت‌های مرتبط با شرکتی که از داده‌های 50 میلیون کاربر فیس‌بوک برای تأثیرگذاری بر نتیجه انتخابات ریاست‌جمهوری 2016 آمریکا و همه‌پرسی برگزیت بریتانیا استفاده کردند، ادامه دارد، اما اگر اتهامات مطرح شود. درست است، این قدرت هوش مصنوعی را برای دستکاری اجتماعی نشان می دهد. با گسترش تبلیغات به افرادی که از طریق الگوریتم‌ها و داده‌های شخصی شناسایی شده‌اند، هوش مصنوعی می‌تواند آن‌ها را هدف قرار دهد و هر اطلاعاتی را که دوست دارند، در هر قالبی که قانع‌کننده‌تر از آن می‌بینند – واقعیت یا تخیلی، منتشر کند.

3- تجاوز به حریم خصوصی و درجه بندی اجتماعی

تجاوز به حریم خصوصی و درجه بندی اجتماعی

اکنون امکان ردیابی و تجزیه و تحلیل هر حرکت یک فرد به صورت آنلاین و همچنین زمانی که آنها در حال انجام تجارت روزانه خود هستند وجود دارد. دوربین‌ها تقریباً همه جا هستند و الگوریتم‌های تشخیص چهره شما را می‌شناسند. در واقع، این نوع اطلاعاتی است که سیستم اعتبار اجتماعی چین را تقویت می‌کند که انتظار می‌رود به هر یک از 1.4 میلیارد شهروند آن بر اساس نحوه رفتارشان امتیازی شخصی بدهد – مواردی مانند اینکه آیا آنها در حال حرکت هستند یا سیگار می‌کشند. مناطق غیرسیگاری و اینکه چقدر زمان صرف بازی های ویدیویی می کنند. وقتی برادر بزرگ شما را زیر نظر دارد و سپس بر اساس آن اطلاعات تصمیم می گیرد، نه تنها تجاوز به حریم خصوصی است، بلکه می تواند به سرعت به ستم اجتماعی تبدیل شود.

4- عدم هماهنگی بین اهداف ما و ماشین

بخشی از آنچه که انسان ها در ماشین های مجهز به هوش مصنوعی ارزش قائل هستند، کارایی و اثربخشی آنهاست. اما، اگر اهدافی را که برای ماشین‌های هوش مصنوعی تعیین کرده‌ایم روشن نباشیم، اگر ماشینی به همان اهدافی که ما داریم مجهز نباشد، می‌تواند خطرناک باشد. به عنوان مثال، دستور «در اسرع وقت مرا به فرودگاه برسانید» ممکن است عواقب بدی داشته باشد. بدون مشخص کردن اینکه قوانین جاده باید رعایت شود زیرا ما برای جان انسان ارزش قائل هستیم، یک ماشین می‌تواند به طور موثر هدف خود را که شما را در سریع‌ترین زمان ممکن به فرودگاه برساند و به معنای واقعی کلمه آنچه را که خواسته‌اید انجام دهد، اما ردی از تصادفات را پشت سر بگذارد.

5- تبعیض

از آنجایی که ماشین‌ها می‌توانند اطلاعات زیادی درباره شما جمع‌آوری، ردیابی و تجزیه و تحلیل کنند، این امکان وجود دارد که آن ماشین‌ها از آن اطلاعات علیه شما استفاده کنند. تصور اینکه یک شرکت بیمه با توجه به تعداد دفعاتی که در دوربین گوشی خود در حال صحبت کردن با تلفن خود شکار شده اید، به شما بگوید که بیمه پذیر نیستید، سخت نیست. یک کارفرما ممکن است از یک پیشنهاد شغلی بر اساس ‘امتیاز اعتبار اجتماعی’ شما خودداری کند.

از هر فناوری قدرتمندی می توان سوء استفاده کرد. امروزه، هوش مصنوعی برای بسیاری از دلایل خوب از جمله برای کمک به تشخیص پزشکی بهتر، یافتن راه‌های جدید برای درمان سرطان و ایمن‌تر کردن خودروهایمان استفاده می‌شود. متأسفانه، با گسترش قابلیت‌های هوش مصنوعی، شاهد استفاده از آن برای مقاصد خطرناک یا مخرب نیز خواهیم بود. از آنجایی که فناوری هوش مصنوعی به سرعت در حال پیشرفت است، برای ما حیاتی است که در مورد بهترین راه‌های توسعه مثبت هوش مصنوعی و در عین حال به حداقل رساندن پتانسیل مخرب آن بحث کنیم.

4.5/5 - (2 امتیاز)

تحریریه تکفای

گردآوری جدیدترین اخبار مربوط به تکنولوژی و فناوری؛ نقد و بررسی گوشی ها، ساعت های هوشمند، بازی ها و برنامه های کاربردی

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا

بلوک تبلیغ حذف شد

با غیرفعال کردن مسدودکننده تبلیغات از ما حمایت کنید