آیا هوش مصنوعی خطرناک است؟ 6 خطر هوش مصنوعی که همه باید درباره آن بدانند
برخی افراد برجسته مانند فیزیکدان افسانه ای استیون هاوکینگ و تسلا و رهبر و مبتکر SpaceX ایلان ماسک پیشنهاد می کنند که هوش مصنوعی به طور بالقوه می تواند بسیار خطرناک باشد. ایلان ماسک در مقطعی هوش مصنوعی را با خطرات دیکتاتور کره شمالی مقایسه می کرد. بیل گیتس، یکی از بنیانگذاران مایکروسافت نیز معتقد است که دلیلی برای محتاط بودن وجود دارد، اما اگر به درستی مدیریت شود، میتواند بر موارد بد برتری داشته باشد. از آنجایی که پیشرفتهای اخیر ماشینهای فوقهوشمند را خیلی زودتر از آنچه در ابتدا تصور میشد ممکن کرده است، اکنون زمان آن است که مشخص شود هوش مصنوعی چه خطراتی دارد.
هوش مصنوعی کاربردی و تعمیم یافته چیست؟
در اصل، هوش مصنوعی ساخت ماشینهایی است که میتوانند هوشمندانه فکر و عمل کنند و شامل ابزارهایی مانند الگوریتمهای جستجوی گوگل یا ماشینهایی است که اتومبیلهای خودران را ممکن میسازند. در حالی که بیشتر برنامههای کاربردی فعلی برای تأثیرگذاری مثبت بر نوع بشر استفاده میشوند، هر ابزار قدرتمندی را میتوان برای مقاصد مضر در زمانی که به دست افراد نادرست بیفتد استفاده کرد. امروزه، ما به هوش مصنوعی کاربردی دست یافتهایم که وظایف محدودی مانند تشخیص چهره، پردازش زبان طبیعی یا جستجوهای اینترنتی را انجام میدهد. در نهایت، کارشناسان در این زمینه برای رسیدن به هوش مصنوعی تعمیمیافتهتر کار میکنند، جایی که سیستمها میتوانند هر کاری را که انسانهای هوشمند میتوانند انجام دهند، انجام دهند و به احتمال زیاد ما را در هر یک از آنها شکست دهند.
ایلان ماسک در اظهار نظری نوشت: «سرعت پیشرفت در هوش مصنوعی (من به هوش مصنوعی باریک اشاره نمیکنم) فوقالعاده سریع است. مگر اینکه مستقیماً با گروههایی مانند Deepmind قرار بگیرید، نمیدانید با چه سرعتی در حال رشد است. خطر وقوع یک اتفاق جدی خطرناک در بازه زمانی پنج ساله است. حداکثر 10 سال.»
در واقع برنامه های کاربردی هوش مصنوعی زیادی وجود دارد که زندگی روزمره ما را راحت تر و کارآمدتر می کند. این برنامههای هوش مصنوعی هستند که نقش مهمی در تضمین ایمنی ایفا میکنند که ماسک، هاوکینگ و دیگران در هنگام اعلام تردید خود در مورد این فناوری نگران آن بودند. به عنوان مثال، اگر هوش مصنوعی مسئول اطمینان از عملکرد شبکه برق ما باشد و بدترین ترس ما تحقق یابد، و سیستم از بین برود یا توسط دشمن هک شود، میتواند منجر به آسیبهای عظیم شود.
هوش مصنوعی چگونه می تواند خطرناک باشد؟
در حالی که ما هنوز به ماشینهای فوق هوشمند دست پیدا نکردهایم، مسائل حقوقی، سیاسی، اجتماعی، مالی و مقرراتی آنقدر پیچیده و گسترده هستند که اکنون لازم است نگاهی به آنها بیندازیم تا آماده باشیم تا زمانی که با خیال راحت در میان آنها کار کنیم. زمان می رسد خارج از آماده شدن برای آینده با ماشین های فوق هوشمند در حال حاضر، هوش مصنوعی می تواند خطراتی را در شکل فعلی خود ایجاد کند. بیایید نگاهی به برخی از خطرات کلیدی مرتبط با هوش مصنوعی بیندازیم. همچنین می خواهید در زمینه هوش مصنوعی بیشتر بدانید می توانید مقالات معتبری که در تکناتو نوشته شده است را بخوانید و با این تکنولوژی جدید که فراگیر شده است بیشتر آشنا شوید.
1- سلاح های خودمختار
هوش مصنوعی که برای انجام کارهای خطرناک برنامه ریزی شده است، مانند سلاح های خودمختار که برای کشتن برنامه ریزی شده اند، یکی از راه هایی است که هوش مصنوعی می تواند خطرات ایجاد کند. حتی ممکن است انتظار داشته باشیم که مسابقه تسلیحات هسته ای با یک مسابقه تسلیحاتی خودمختار جهانی جایگزین شود. ولادیمیر پوتین رئیس جمهور روسیه گفت: هوش مصنوعی آینده نه تنها برای روسیه، بلکه برای تمام بشریت است. با فرصتهای عظیم همراه است، اما همچنین تهدیدهایی که پیشبینی آنها دشوار است. هر که در این عرصه پیشوا شود، فرمانروای جهان خواهد شد.»
گذشته از نگرانی از این که سلاح های خودمختار ممکن است ‘ذهن خود را به دست آورند’، نگرانی قریب الوقوع تر خطراتی است که سلاح های خودمختار ممکن است برای فرد یا دولتی داشته باشد که برای جان انسان ارزشی قائل نیست. پس از استقرار، احتمالاً از بین بردن یا مبارزه با آنها دشوار خواهد بود.
2- دستکاری اجتماعی
رسانه های اجتماعی از طریق الگوریتم های مستقل خود در بازاریابی هدف بسیار موثر هستند. آنها می دانند ما کی هستیم، چه چیزی را دوست داریم و در حدس زدن آنچه فکر می کنیم فوق العاده خوب هستند. تحقیقات هنوز برای تعیین تقصیر کمبریج آنالیتیکا و سایر شرکتهای مرتبط با شرکتی که از دادههای 50 میلیون کاربر فیسبوک برای تأثیرگذاری بر نتیجه انتخابات ریاستجمهوری 2016 آمریکا و همهپرسی برگزیت بریتانیا استفاده کردند، ادامه دارد، اما اگر اتهامات مطرح شود. درست است، این قدرت هوش مصنوعی را برای دستکاری اجتماعی نشان می دهد. با گسترش تبلیغات به افرادی که از طریق الگوریتمها و دادههای شخصی شناسایی شدهاند، هوش مصنوعی میتواند آنها را هدف قرار دهد و هر اطلاعاتی را که دوست دارند، در هر قالبی که قانعکنندهتر از آن میبینند – واقعیت یا تخیلی، منتشر کند.
3- تجاوز به حریم خصوصی و درجه بندی اجتماعی
اکنون امکان ردیابی و تجزیه و تحلیل هر حرکت یک فرد به صورت آنلاین و همچنین زمانی که آنها در حال انجام تجارت روزانه خود هستند وجود دارد. دوربینها تقریباً همه جا هستند و الگوریتمهای تشخیص چهره شما را میشناسند. در واقع، این نوع اطلاعاتی است که سیستم اعتبار اجتماعی چین را تقویت میکند که انتظار میرود به هر یک از 1.4 میلیارد شهروند آن بر اساس نحوه رفتارشان امتیازی شخصی بدهد – مواردی مانند اینکه آیا آنها در حال حرکت هستند یا سیگار میکشند. مناطق غیرسیگاری و اینکه چقدر زمان صرف بازی های ویدیویی می کنند. وقتی برادر بزرگ شما را زیر نظر دارد و سپس بر اساس آن اطلاعات تصمیم می گیرد، نه تنها تجاوز به حریم خصوصی است، بلکه می تواند به سرعت به ستم اجتماعی تبدیل شود.
4- عدم هماهنگی بین اهداف ما و ماشین
بخشی از آنچه که انسان ها در ماشین های مجهز به هوش مصنوعی ارزش قائل هستند، کارایی و اثربخشی آنهاست. اما، اگر اهدافی را که برای ماشینهای هوش مصنوعی تعیین کردهایم روشن نباشیم، اگر ماشینی به همان اهدافی که ما داریم مجهز نباشد، میتواند خطرناک باشد. به عنوان مثال، دستور «در اسرع وقت مرا به فرودگاه برسانید» ممکن است عواقب بدی داشته باشد. بدون مشخص کردن اینکه قوانین جاده باید رعایت شود زیرا ما برای جان انسان ارزش قائل هستیم، یک ماشین میتواند به طور موثر هدف خود را که شما را در سریعترین زمان ممکن به فرودگاه برساند و به معنای واقعی کلمه آنچه را که خواستهاید انجام دهد، اما ردی از تصادفات را پشت سر بگذارد.
5- تبعیض
از آنجایی که ماشینها میتوانند اطلاعات زیادی درباره شما جمعآوری، ردیابی و تجزیه و تحلیل کنند، این امکان وجود دارد که آن ماشینها از آن اطلاعات علیه شما استفاده کنند. تصور اینکه یک شرکت بیمه با توجه به تعداد دفعاتی که در دوربین گوشی خود در حال صحبت کردن با تلفن خود شکار شده اید، به شما بگوید که بیمه پذیر نیستید، سخت نیست. یک کارفرما ممکن است از یک پیشنهاد شغلی بر اساس ‘امتیاز اعتبار اجتماعی’ شما خودداری کند.
از هر فناوری قدرتمندی می توان سوء استفاده کرد. امروزه، هوش مصنوعی برای بسیاری از دلایل خوب از جمله برای کمک به تشخیص پزشکی بهتر، یافتن راههای جدید برای درمان سرطان و ایمنتر کردن خودروهایمان استفاده میشود. متأسفانه، با گسترش قابلیتهای هوش مصنوعی، شاهد استفاده از آن برای مقاصد خطرناک یا مخرب نیز خواهیم بود. از آنجایی که فناوری هوش مصنوعی به سرعت در حال پیشرفت است، برای ما حیاتی است که در مورد بهترین راههای توسعه مثبت هوش مصنوعی و در عین حال به حداقل رساندن پتانسیل مخرب آن بحث کنیم.