آیا آینده را می‌توان مهار كرد؟

هوش مصنوعی به سرعت در حال تغییر جهان است، اما همراه با تمام پیشرفت‌هایی كه به ارمغان آورده، چالش‌های جدیدی نیز پدید آمده كه نمی‌توان آن‌ها را نادیده گرفت. از حریم خصوصی تا امنیت، از اشتغال تا تبعیض، به نظر می‌رسد زندگی روزمره ما دیگر هرگز مانند گذشته نخواهد بود. اما این چالش‌ها دقیقا چه هستند؟

وقتی دیگر حریم خصوصی معنایی ندارد:

هوش مصنوعی به داده نیاز دارد و چه داده‌ای مهم‌تر ازاطلاعات شخصی ما؟ ما معمولا بدون اینكه متوجه باشیم، اجازه می‌دهیم داده‌هایمان جمع‌آوری شوند، اما این همیشه بی‌خطرنیست.شاید شما هم گاهی حس كرده‌اید كه دستیار صوتی گوشی شمامثل Siriیا Google Assistant به مكالماتتان گوش می‌دهد. مثلا یك‌بار در مورد خرید كفش صحبت كرده‌اید و چند دقیقه بعد تبلیغ همان برند در اینستاگرام نمایش داده شده! در واقع، هوش مصنوعی به كمك میكروفون و داده‌هایی كه ذخیره می‌كند، تبلیغات را هدفمند می‌سازد. اما این سوال پیش می‌آید: آیا او همیشه در حال شنود است؟ (1)

همچنین، اگر در شهرهایی مثل لندن یا پكن زندگی كنید، احتمالا متوجه می‌شوید كه دوربین‌های نظارتی همه‌جا هستند. این سیستم‌ها، كه با كمك هوش مصنوعی كار می‌كنند، قادرند چهره افراد را تشخیص دهند و حتی فعالیت‌های آنها را ردیابی كنند. حالا تصور كنید دولت از این فناوری برای كنترل رفتار مردم استفاده كند، مثلا اگر در یك تظاهرات شركت كنید، فردا ممكن است از كارتان اخراج شوید.

وقتی هوش مصنوعی ناعادلانه رفتار می‌كند:

ما فكر می‌كنیم كه ماشین‌ها بی‌طرف هستند، اما در واقعیت، آنها فقط آن‌چه را كه به آنها داده شده پردازش می‌كنند. اگر داده‌ها مغرضانه باشند، تصمیم‌های هوش مصنوعی هم مغرضانه خواهند بود.

در سال ۲۰۱۴، شركت آمازون پروژه‌ای را آغاز كرد تا با استفاده از هوش مصنوعی، فرآیند بررسی و امتیازدهی به رزومه‌های متقاضیان شغلی را خودكار كند. این سیستم به رزومه‌ها از یك تا پنج ستاره امتیاز می‌داد. با این حال، در سال ۲۰۱۵، آمازون متوجه شد كه این سیستم به‌طور سیستماتیك به رزومه‌های زنان برای مشاغل فنی مانند برنامه‌نویسی امتیاز كمتری می‌دهد. دلیل این مساله آن بود كه مدل‌های رایانه‌ای آمازون بر اساس رزومه‌های ارسال‌شده در 10‌سال گذشته آموزش دیده بودند كه بیشتر توسط مردان ارایه شده بودند. این موضوع باعث شد سیستم به‌طور ناعادلانه‌ای متقاضیان مرد را ترجیح دهد. با وجود تلاش‌های آمازون برای اصلاح این سیستم، تضمینی برای حذف كامل تبعیض وجود نداشت؛ بنابراین، این پروژه در نهایت متوقف شد. (2)

به‌علاوه، تحقیقات نشان داده كه برخی از سیستم‌های تشخیص چهره، در شناسایی افراد سیاه‌پوست خطاهای بیشتری دارند. این اتفاق می‌تواند نتایج خطرناكی داشته باشد، مثلا در فرودگاه‌ها، پلیس به اشتباه فردی بی‌گناه را به جای یك مجرم تحت تعقیب دستگیر كند.

وقتی نمی‌دانید چرا رد شده‌اید:

بعضی از الگوریتم‌های هوش مصنوعی مانند یك جعبه سیاه عمل می‌كنند. شما نمی‌دانید كه چگونه تصمیم می‌گیرند، اما زندگی شما را تحت تأثیر قرار می‌دهند. تصور كنید كه برای دریافت وام به بانك مراجعه می‌كنید. هوش مصنوعی اطلاعات مالی شما را بررسی می‌كند و درخواست شما را رد می‌كند، اما شما هیچ ایده‌ای ندارید كه چرا!آیا به خاطر یك پرداخت دیرهنگام است؟ به خاطر محل زندگی‌تان؟ بدون شفافیت، امكان اعتراض وجود ندارد. برخی دانشگاه‌ها از هوش مصنوعی برای بررسی درخواست‌های دانشجویی استفاده می‌كنند. اما اگر سیستم تصمیم بگیرد كه شما واجد شرایط نیستید، هیچ راهی برای فهمیدن علت آن ندارید. شاید سیستم به اشتباه تشخیص داده كه نمرات شما كم‌تر از حد انتظار است.

وقتی ماشین‌ها بیش از حد مستقل می‌شوند:

ما در حال ساخت سیستم‌هایی هستیم كه بدون دخالت انسان تصمیم می‌گیرند، اما آیا كنترل آنها همیشه در دست ما خواهد بود؟ در سال ۲۰۱۸، یك خودروی خودران اوبر در حال حركت بود كه یك عابر پیاده را تشخیص نداد و با او برخورد كرد. چه كسی مقصر بود؟ مهندسانی كه نرم‌افزار را طراحی كرده بودند؟ راننده‌ای كه پشت فرمان بود اما به ماشین اعتماد داشت؟ یا شاید خود ماشین؟ (3)

كشورهای مختلف در حال توسعه ربات‌های نظامی هستند كه می‌توانند بدون نیاز به فرمان انسانی، اهداف خود را انتخاب و نابود كنند. اما اگر این ماشین‌ها اشتباه كنند و افراد غیرنظامی را هدف بگیرند، چه كسی پاسخگو خواهد بود؟

وقتی شغل شما به خطر می‌افتد:

اتوماسیون باعث حذف بسیاری از شغل‌ها شده است. برخی افراد می‌توانند خود را با تغییرات وفق دهند، اما بسیاری دیگر ممكن است از كار بیكار شوند. در برخی فروشگاه‌ها، دیگر نیازی به صندوقدار نیست؛ شما می‌توانید محصولات را‌بردارید و بدون ایستادن در صف، از فروشگاه خارج شوید، چون سیستم‌های مجهز به هوش مصنوعی خودشان خرید شما را تشخیص می‌دهند. بسیاری از شركت‌ها دیگر نیازی به پشتیبان‌های انسانی ندارند، زیرا چت‌بات‌های هوشمند می‌توانند به سرعت و بدون وقفه به مشتریان پاسخ دهند. اما این بدان معناست كه هزاران شغل در این صنعت از بین رفته است.

وقتی نمی‌توانید به چیزی كه می‌بینید اعتماد كنید:

فناوری‌های جدید باعث شده‌اند كه مرز بین واقعیت و جعل به‌شدت كمرنگ شود. دیپ‌فیك‌ها و محتوای جعلی، تهدیدی جدی برای دنیای دیجیتال هستند و می‌توانند اطلاعات غلط را در مقیاس وسیع گسترش دهند.

در سال ۲۰۱8، یك ویدیوی دیپ‌فیك از باراك اوباما منتشر شد كه به نظر می‌رسید او در حال بیان نظراتی است كه در واقع هرگز نگفته بود. این ویدیو برای نشان دادن قدرت فناوری دیپ‌فیك ساخته شده بود، اما نشان داد كه چگونه هوش مصنوعی می‌تواند حقیقت را تغییر دهد و افكار عمومی را تحت تأثیر قرار دهد. (4)

در سال ۲۰۱۹، مدیر یك شركت بریتانیایی قربانی حمله سایبری شد كه در آن مجرمان از یك الگوریتم تقلید صدا استفاده كردند تا صدای مدیرعامل شركت مادر او را شبیه‌سازی كنند. آنها با استفاده از این فناوری، از او خواستند كه مبلغ زیادی را به یك حساب بانكی منتقل كند. او بدون شك به این «دستور » اعتماد كرد و پول را انتقال داد، اما بعدا مشخص شد كه این یك كلاهبرداری پیچیده بوده است. (5)

و اگر روزی هوش مصنوعی احساسات داشته باشد؟

اگر روزی هوش مصنوعی به سطحی از آگاهی برسد، آیا باید حقوقی برای آن قائل شویم؟ آیا خاموش كردن یك سیستم آگاه، شبیه به پایان دادن به زندگی یك موجود زنده خواهد بود؟ این پرسش‌های فلسفی و اخلاقی ممكن است در آینده‌ای نه چندان دور، بسیار جدی شوند.

در ژوئن ۲۰۲۲، بلیك لموین، مهندس گوگل، ادعا كرد كه مدل زبانی LaMDA این شركت به آگاهی و شعور دست یافته است. این ادعا پس از آن مطرح شد كه لموین در تعاملات خود با LaMDA، پاسخ‌هایی دریافت كرد كه به نظر می‌رسید نشان‌دهنده درك و احساسات انسانی است. لموین این موضوع را با مدیران گوگل در میان گذاشت، اما شركت این ادعاها را رد كرد و اعلام كرد كه شواهد كافی برای اثبات آگاهی LaMDA وجود ندارد. در پی این ماجرا، لموین به مرخصی اداری با حقوق فرستاده شد و در نهایت در ژوئیه ۲۰۲۲ از شركت اخراج شد.

این رویداد بحث‌های گسترده‌ای در جامعه علمی درباره آگاهی مصنوعی و معیارهای سنجش آن برانگیخت. بسیاری از متخصصان حوزه هوش مصنوعی، ادعاهای لموین را رد كرده و معتقدند كه مدل‌های زبانی مانند LaMDA، صرفا بر اساس الگوهای آماری عمل می‌كنند و فاقد درك و آگاهی واقعی هستند. (6)

همچنین، ربات‌های انسان‌نما مانند Sophia كه توسط شركت Hanson Robotics توسعه یافته‌اند، قادرند حالات چهره انسان را تقلید كنند و مكالمات پیچیده داشته باشند. برخی حتی معتقدند كه در آینده ممكن است این ربات‌ها احساساتی شبیه به انسان تجربه كنند. اگر روزی یك ربات مدعی شود كه رنج می‌برد، آیا ما وظیفه اخلاقی داریم كه به او كمك كنیم؟ (7)

آیا آینده هوش مصنوعی را می‌توان كنترل كرد؟

چالش‌های اخلاقی هوش مصنوعی هر روز پیچیده‌تر می‌شوند. این فناوری، علی‌رغم همه مزایای خود، می‌تواند به مشكلات جدی مانند نقض حریم خصوصی، تبعیض، عدم شفافیت، از بین رفتن كنترل انسانی، بیكاری گسترده، حملات امنیتی، جعل اطلاعات، و حتی احتمال خودآگاهی هوش مصنوعی منجر شود. برای مقابله با این چالش‌ها، باید قوانین و مقررات سخت‌گیرانه‌تری در زمینه توسعه و استفاده از هوش مصنوعی وضع شود. علاوه بر آن، توسعه هوش مصنوعی باید با نظارت مستمر و اصول اخلاقی همراه باشد تا اطمینان حاصل شود كه این فناوری در خدمت بشریت باقی می‌ماند. اما آیا ما واقعا قادر خواهیم بود هوش مصنوعی را در چارچوب‌های اخلاقی مهار كنیم؟ یا این فناوری به مسیری غیرقابل‌كنترل پیش خواهد رفت؟ پاسخ این پرسش، آینده بشریت را تعیین خواهد كرد.

منابع:

1- Secure Data Recovery, “Smart Device Privacy Concerns: Are Your Devices Spying on You? “, Secure Data Recovery Blog, 2023

2- Jeffrey Dastin, “Amazon scraps secret AI recruiting tool that showed bias against women, “ Reuters, 2018.

3- Puneet Kohli and Anjali Chadha, “Enabling Pedestrian Safety using Computer Vision Techniques: A Case Study of the 2018 Uber Inc. Self-driving Car Crash, “ arXiv, 2018.

4- Chesney, R. & Citron, D., “Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, “ California Law Review, 2019.

5- Newman, L., “A Voice Deepfake Was Used to Scam a CEO Out of $243,000, “ Wired, 2019.

6- Metz, C., “Google Engineer Claims AI Chatbot Is Sentient, “ The New York Times, 2022.

7- Gunkel, D. J., “The Machine Question: Critical Perspectives on AI, Robots, and Ethics, “ MIT Press, 2012.