آیا آینده را میتوان مهار كرد؟
هوش مصنوعی به سرعت در حال تغییر جهان است، اما همراه با تمام پیشرفتهایی كه به ارمغان آورده، چالشهای جدیدی نیز پدید آمده كه نمیتوان آنها را نادیده گرفت. از حریم خصوصی تا امنیت، از اشتغال تا تبعیض، به نظر میرسد زندگی روزمره ما دیگر هرگز مانند گذشته نخواهد بود. اما این چالشها دقیقا چه هستند؟
وقتی دیگر حریم خصوصی معنایی ندارد:
هوش مصنوعی به داده نیاز دارد و چه دادهای مهمتر ازاطلاعات شخصی ما؟ ما معمولا بدون اینكه متوجه باشیم، اجازه میدهیم دادههایمان جمعآوری شوند، اما این همیشه بیخطرنیست.شاید شما هم گاهی حس كردهاید كه دستیار صوتی گوشی شمامثل Siriیا Google Assistant به مكالماتتان گوش میدهد. مثلا یكبار در مورد خرید كفش صحبت كردهاید و چند دقیقه بعد تبلیغ همان برند در اینستاگرام نمایش داده شده! در واقع، هوش مصنوعی به كمك میكروفون و دادههایی كه ذخیره میكند، تبلیغات را هدفمند میسازد. اما این سوال پیش میآید: آیا او همیشه در حال شنود است؟ (1)
همچنین، اگر در شهرهایی مثل لندن یا پكن زندگی كنید، احتمالا متوجه میشوید كه دوربینهای نظارتی همهجا هستند. این سیستمها، كه با كمك هوش مصنوعی كار میكنند، قادرند چهره افراد را تشخیص دهند و حتی فعالیتهای آنها را ردیابی كنند. حالا تصور كنید دولت از این فناوری برای كنترل رفتار مردم استفاده كند، مثلا اگر در یك تظاهرات شركت كنید، فردا ممكن است از كارتان اخراج شوید.
وقتی هوش مصنوعی ناعادلانه رفتار میكند:
ما فكر میكنیم كه ماشینها بیطرف هستند، اما در واقعیت، آنها فقط آنچه را كه به آنها داده شده پردازش میكنند. اگر دادهها مغرضانه باشند، تصمیمهای هوش مصنوعی هم مغرضانه خواهند بود.
در سال ۲۰۱۴، شركت آمازون پروژهای را آغاز كرد تا با استفاده از هوش مصنوعی، فرآیند بررسی و امتیازدهی به رزومههای متقاضیان شغلی را خودكار كند. این سیستم به رزومهها از یك تا پنج ستاره امتیاز میداد. با این حال، در سال ۲۰۱۵، آمازون متوجه شد كه این سیستم بهطور سیستماتیك به رزومههای زنان برای مشاغل فنی مانند برنامهنویسی امتیاز كمتری میدهد. دلیل این مساله آن بود كه مدلهای رایانهای آمازون بر اساس رزومههای ارسالشده در 10سال گذشته آموزش دیده بودند كه بیشتر توسط مردان ارایه شده بودند. این موضوع باعث شد سیستم بهطور ناعادلانهای متقاضیان مرد را ترجیح دهد. با وجود تلاشهای آمازون برای اصلاح این سیستم، تضمینی برای حذف كامل تبعیض وجود نداشت؛ بنابراین، این پروژه در نهایت متوقف شد. (2)
بهعلاوه، تحقیقات نشان داده كه برخی از سیستمهای تشخیص چهره، در شناسایی افراد سیاهپوست خطاهای بیشتری دارند. این اتفاق میتواند نتایج خطرناكی داشته باشد، مثلا در فرودگاهها، پلیس به اشتباه فردی بیگناه را به جای یك مجرم تحت تعقیب دستگیر كند.
وقتی نمیدانید چرا رد شدهاید:
بعضی از الگوریتمهای هوش مصنوعی مانند یك جعبه سیاه عمل میكنند. شما نمیدانید كه چگونه تصمیم میگیرند، اما زندگی شما را تحت تأثیر قرار میدهند. تصور كنید كه برای دریافت وام به بانك مراجعه میكنید. هوش مصنوعی اطلاعات مالی شما را بررسی میكند و درخواست شما را رد میكند، اما شما هیچ ایدهای ندارید كه چرا!آیا به خاطر یك پرداخت دیرهنگام است؟ به خاطر محل زندگیتان؟ بدون شفافیت، امكان اعتراض وجود ندارد. برخی دانشگاهها از هوش مصنوعی برای بررسی درخواستهای دانشجویی استفاده میكنند. اما اگر سیستم تصمیم بگیرد كه شما واجد شرایط نیستید، هیچ راهی برای فهمیدن علت آن ندارید. شاید سیستم به اشتباه تشخیص داده كه نمرات شما كمتر از حد انتظار است.
وقتی ماشینها بیش از حد مستقل میشوند:
ما در حال ساخت سیستمهایی هستیم كه بدون دخالت انسان تصمیم میگیرند، اما آیا كنترل آنها همیشه در دست ما خواهد بود؟ در سال ۲۰۱۸، یك خودروی خودران اوبر در حال حركت بود كه یك عابر پیاده را تشخیص نداد و با او برخورد كرد. چه كسی مقصر بود؟ مهندسانی كه نرمافزار را طراحی كرده بودند؟ رانندهای كه پشت فرمان بود اما به ماشین اعتماد داشت؟ یا شاید خود ماشین؟ (3)
كشورهای مختلف در حال توسعه رباتهای نظامی هستند كه میتوانند بدون نیاز به فرمان انسانی، اهداف خود را انتخاب و نابود كنند. اما اگر این ماشینها اشتباه كنند و افراد غیرنظامی را هدف بگیرند، چه كسی پاسخگو خواهد بود؟
وقتی شغل شما به خطر میافتد:
اتوماسیون باعث حذف بسیاری از شغلها شده است. برخی افراد میتوانند خود را با تغییرات وفق دهند، اما بسیاری دیگر ممكن است از كار بیكار شوند. در برخی فروشگاهها، دیگر نیازی به صندوقدار نیست؛ شما میتوانید محصولات رابردارید و بدون ایستادن در صف، از فروشگاه خارج شوید، چون سیستمهای مجهز به هوش مصنوعی خودشان خرید شما را تشخیص میدهند. بسیاری از شركتها دیگر نیازی به پشتیبانهای انسانی ندارند، زیرا چتباتهای هوشمند میتوانند به سرعت و بدون وقفه به مشتریان پاسخ دهند. اما این بدان معناست كه هزاران شغل در این صنعت از بین رفته است.
وقتی نمیتوانید به چیزی كه میبینید اعتماد كنید:
فناوریهای جدید باعث شدهاند كه مرز بین واقعیت و جعل بهشدت كمرنگ شود. دیپفیكها و محتوای جعلی، تهدیدی جدی برای دنیای دیجیتال هستند و میتوانند اطلاعات غلط را در مقیاس وسیع گسترش دهند.
در سال ۲۰۱8، یك ویدیوی دیپفیك از باراك اوباما منتشر شد كه به نظر میرسید او در حال بیان نظراتی است كه در واقع هرگز نگفته بود. این ویدیو برای نشان دادن قدرت فناوری دیپفیك ساخته شده بود، اما نشان داد كه چگونه هوش مصنوعی میتواند حقیقت را تغییر دهد و افكار عمومی را تحت تأثیر قرار دهد. (4)
در سال ۲۰۱۹، مدیر یك شركت بریتانیایی قربانی حمله سایبری شد كه در آن مجرمان از یك الگوریتم تقلید صدا استفاده كردند تا صدای مدیرعامل شركت مادر او را شبیهسازی كنند. آنها با استفاده از این فناوری، از او خواستند كه مبلغ زیادی را به یك حساب بانكی منتقل كند. او بدون شك به این «دستور » اعتماد كرد و پول را انتقال داد، اما بعدا مشخص شد كه این یك كلاهبرداری پیچیده بوده است. (5)
و اگر روزی هوش مصنوعی احساسات داشته باشد؟
اگر روزی هوش مصنوعی به سطحی از آگاهی برسد، آیا باید حقوقی برای آن قائل شویم؟ آیا خاموش كردن یك سیستم آگاه، شبیه به پایان دادن به زندگی یك موجود زنده خواهد بود؟ این پرسشهای فلسفی و اخلاقی ممكن است در آیندهای نه چندان دور، بسیار جدی شوند.
در ژوئن ۲۰۲۲، بلیك لموین، مهندس گوگل، ادعا كرد كه مدل زبانی LaMDA این شركت به آگاهی و شعور دست یافته است. این ادعا پس از آن مطرح شد كه لموین در تعاملات خود با LaMDA، پاسخهایی دریافت كرد كه به نظر میرسید نشاندهنده درك و احساسات انسانی است. لموین این موضوع را با مدیران گوگل در میان گذاشت، اما شركت این ادعاها را رد كرد و اعلام كرد كه شواهد كافی برای اثبات آگاهی LaMDA وجود ندارد. در پی این ماجرا، لموین به مرخصی اداری با حقوق فرستاده شد و در نهایت در ژوئیه ۲۰۲۲ از شركت اخراج شد.
این رویداد بحثهای گستردهای در جامعه علمی درباره آگاهی مصنوعی و معیارهای سنجش آن برانگیخت. بسیاری از متخصصان حوزه هوش مصنوعی، ادعاهای لموین را رد كرده و معتقدند كه مدلهای زبانی مانند LaMDA، صرفا بر اساس الگوهای آماری عمل میكنند و فاقد درك و آگاهی واقعی هستند. (6)
همچنین، رباتهای انساننما مانند Sophia كه توسط شركت Hanson Robotics توسعه یافتهاند، قادرند حالات چهره انسان را تقلید كنند و مكالمات پیچیده داشته باشند. برخی حتی معتقدند كه در آینده ممكن است این رباتها احساساتی شبیه به انسان تجربه كنند. اگر روزی یك ربات مدعی شود كه رنج میبرد، آیا ما وظیفه اخلاقی داریم كه به او كمك كنیم؟ (7)
آیا آینده هوش مصنوعی را میتوان كنترل كرد؟
چالشهای اخلاقی هوش مصنوعی هر روز پیچیدهتر میشوند. این فناوری، علیرغم همه مزایای خود، میتواند به مشكلات جدی مانند نقض حریم خصوصی، تبعیض، عدم شفافیت، از بین رفتن كنترل انسانی، بیكاری گسترده، حملات امنیتی، جعل اطلاعات، و حتی احتمال خودآگاهی هوش مصنوعی منجر شود. برای مقابله با این چالشها، باید قوانین و مقررات سختگیرانهتری در زمینه توسعه و استفاده از هوش مصنوعی وضع شود. علاوه بر آن، توسعه هوش مصنوعی باید با نظارت مستمر و اصول اخلاقی همراه باشد تا اطمینان حاصل شود كه این فناوری در خدمت بشریت باقی میماند. اما آیا ما واقعا قادر خواهیم بود هوش مصنوعی را در چارچوبهای اخلاقی مهار كنیم؟ یا این فناوری به مسیری غیرقابلكنترل پیش خواهد رفت؟ پاسخ این پرسش، آینده بشریت را تعیین خواهد كرد.
منابع:
1- Secure Data Recovery, “Smart Device Privacy Concerns: Are Your Devices Spying on You? “, Secure Data Recovery Blog, 2023
2- Jeffrey Dastin, “Amazon scraps secret AI recruiting tool that showed bias against women, “ Reuters, 2018.
3- Puneet Kohli and Anjali Chadha, “Enabling Pedestrian Safety using Computer Vision Techniques: A Case Study of the 2018 Uber Inc. Self-driving Car Crash, “ arXiv, 2018.
4- Chesney, R. & Citron, D., “Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, “ California Law Review, 2019.
5- Newman, L., “A Voice Deepfake Was Used to Scam a CEO Out of $243,000, “ Wired, 2019.
6- Metz, C., “Google Engineer Claims AI Chatbot Is Sentient, “ The New York Times, 2022.
7- Gunkel, D. J., “The Machine Question: Critical Perspectives on AI, Robots, and Ethics, “ MIT Press, 2012.
نظرات