عصر هوش مصنوعی (AI) نه تنها نزدیك است، البته در حال حاضر گویی خیلی وقت است از راه رسیده است. بدون شك هماكنون هم زندگی ما را متحول كرده و ارزشها، قوانین و هنجارهای اجتماعی ما را بیش از پیش به چالش خواهد كشید. واقعیت این است كه ما به یك قرارداد اجتماعی جدید برای ورود به عصر هوش مصنوعی نیاز داریم. دقت كنید اكنون تازه به سرآغاز مسیری رسیدیم كه خیلی پیشتر آغاز شده بود، به طور مثال تحقیقات روی شبكههای عصبی سایبرنتیك در قرن گذشته و در آغازین سالهای دهه پنجم قرن بیستم (حدودا سال 1940 میلادی) آغاز شد، اما تركیب مجموعههای داده عظیم و پیشرفت علوم موازی و رشد قدرت پردازش كامپیوترها منجر به یك اتفاق هیجانانگیز و عمیق در یادگیری ذهن ماشین شد كه سایر صنایع را به كل متحول كرد.
این روزها هوش مصنوعی در انواع محصولات مصرفی كه ما برای كار و اوقات فراغت استفاده میكنیم حضور پررنگی دارد. به وضوح در مورد پیشرفت چشمگیر هوش مصنوعی تبلیغات وجود دارد و سرمایهداران دست به شانتاژ عمیق خبری در این حوزه میزنند، اما پیشرفتهای بزرگ نیز قابل اغماض نیستند. برخی معتقدند توان اقتصاد مبتنی بر هوش مصنوعی به این معناست كه ما در یك حباب حدس و گمان قرار داریم و انتهای راه مشخص نیست. حتی اگر این موضوع صحت داشته باشد، ما هنوز باید بهطور عمومی در مورد تاثیرات اجتماعی میانمدت این فناوریها بحث كنیم. به هر حال، آشوب حباب دات كام (بحران اقتصادی در خلال سالهای ۱۹۹۵ تا ۲۰۰۰ میلادی) در دهه 1990 مانع از تغییر اساسی اینترنت در جامعه مدرن نشد. در واقع، پیشبینی میشود كه سال 2024 سالی باشد كه ما از صحبت بیشتر در مورد هوش مصنوعی به فراگیر شدن آن در زندگی خود تغییر میكنیم.
خطرات هوش مصنوعی: ترس از منسوخ شدن
مزایای اجتماعی و اقتصادی میتواند بسیار زیاد باشد، اما خطرات ممكن است به همان اندازه قابل توجه باشند. خطرات بالقوه تاثیر هوش مصنوعی بر انتخابات توسط كارشناسان برای سالها پیشبینی شده است و نگرانیها در مورد اختلالات اقتصادی و تغییرات شدید در بازار كار باعث ایجاد اضطراب اضافی در نظم اجتماعی میشود كه در حال حاضر هم حتی نشانههایی از استرس شدید را میان افراد شاغل و نیروهای كار نشان میدهد. در اروپا، تقریبا نیمی از افراد خانوادههای در سن كار در كشورهای OECD (سازمان توسعه و همكاری اقتصادی بینالمللی شامل 38 عضو) از نظر مالی شكننده هستند و شبح تاریك از دست دادن شغل به دلیل رشد پدیده هوش مصنوعی در حال حاضر به عنوان یك عامل نگرانكننده برای كارگران در سراسر جهان ثبت شده است.
یك نظرسنجی گالوپ در سال 2023 در ایالاتمتحده نشان داد كه 22درصد از كارگران از منسوخ شدن شغل آنها توسط فناوریهای جدید مانند هوش مصنوعی میترسند كه نسبت به سال 2021 شاخص این نگرانی 7درصد افزایش یافته است. این پدیده و به عبارتی ترس جدید به اختصار FOBO نامیده میشود، به این پدیده ترس از منسوخ شدن مشاغل میگویند. در اتحادیه اروپا، ترس از پدیده فوبو ممكن است حتی شدیدتر باشد، زیرا یك نظرسنجی یوروبارومتر در سال 2017 نشان داد كه 72درصد از كارگران اروپایی میترسند فناوریهای جدید «شغل مردم را بدزدند.»
مطالعات درخصوص ركود بزرگ و ظهور فاشیسم در دهه 1930 خطراتی را برای جامعه نشان میدهد كه بخش عمدهای از جامعه معیشت خود را از دست میدهند. اضطراب گسترده زمینه مساعدی را برای پوپولیستها و عوامفریبی اقتدارگرا برای به دست آوردن قدرت ایجاد میكند و این چالش بزرگی برای دموكراسی است كه برابری در جامعه و حاكمیت قانون را به خطر میاندازد.
بیشتر مطالعات در زمینه هوش مصنوعی و بازارهای كار نشان میدهد كه تاثیر كلی كمتری بر نرخ اشتغال دارد، اما تعداد قابلتوجهی از كارگران ممكن است به آموزشهای جدید نیاز داشته باشند تا همچنان قابل اشتغال به كار را داشته باشند.
ساعات كار طولانیتر
چه كسی مسوولیت پرداخت این هزینهها را به عهده خواهد گرفت؟ تكلیف افرادی كه نمیتوانند یا در این بازآموزی شركت داده نمیشوند، چیست؟ مطالعهای در سال 2023 توسط گلدمن ساكس نشان داد كه تقریبا دوسوم مشاغل در اتحادیه اروپا و ایالاتمتحده تحتتاثیر هوش مصنوعی قرار میگیرند و این میتواند جایگزین یكچهارم مشاغل فعلی شود. همان مطالعه همچنین به افزایش 7درصدی تولید ناخالص داخلی جهانی و ایجاد مشاغل جدید اشاره میكند كه شاید جایگزین بسیاری از موقعیتهای ازدست رفته در دوران گذار شود.
مطالعات مقایسهای توسط سازمان بینالمللی كار، بانك مركزی اروپا و صندوق بینالمللی پول نیز یافتههای مشابهی را نشان میدهند، اما همین نتایج مطالعه به ندرت به عناوین روشن برای عموم تبدیل میشود. حتی زمانی كه آنها آزادانه و بدون جهتگیری منتشر میشوند، مردم به آنها بیاعتماد هستند، زیرا آنان از سمت همان صداهایی میآیند كه به آنها اطمینان داده بودند كه بخش مالی نیازی به مقررات قوی در پیش از بحران اقتصادی سال 2008 ندارند.
علاوه بر این، بدون مشاهده سیاستهای مشخص برای اطمینان از نتایج مثبت و فراگیر برای انتقال هوش مصنوعی، نمیتوان مردم را به دلیل بدبینی آنها سرزنش كرد. مردم زمانی را به خاطر میآورند كه به آنها گفته شد فناوری زندگی آنها را آسانتر میكند، حجم كاری آنها را كاهش میدهد و افراد با اتكا به این فناوریها زمان بیشتری را برای كارهای شخصی خود آزاد میكنند. درعوض آنچه كه در عمل اتفاق افتاد كاملا برعكس بود، پیدایش فناوریهای جدید باعث شد آنها حتی ساعتهای طولانیتری كار كنند و كارفرمایان را قادر میسازد تا آنها را دقیقتر زیرنظر داشته باشند و حتی آنها را در زمان استراحتشان موظف به كار كنند.
وحشت از آینده
پدیده فوبو باعث میشود امروزه بسیاری از شهروندان به جای اعتماد به نفس، با ترس و وحشت به آینده نگاه كنند، زیرا بسیاری از پیشبینیهای قبلی آنها اشتباه از آب در آمده است. آنها به دنبال پاسخ هستند و اگر دولتها و نهادها پاسخ دقیق مدنظر آنها را ارایه ندهند، پوپولیستها و بازیگران سیاسی متمایل به اقتدارگرایی میدان را در دست خواهند گرفت. عموم مردم با این پرسش مواجه میشوند كه آیا باز هم میتوانم كار كنم؟ آیا برای تغذیه و هزینه اجاره خانه خانوادهام به اندازه كافی درآمد كسب خواهم كرد؟ این برای چه مدت دوام خواهد داشت؟ آیا زندگی من 10 سال دیگر بهتر خواهد شد یا بدتر؟ در مورد زندگی فرزندانم چطور؟ آیا ثروتمندان ثروتمندتر میشوند درحالی كه فقیرها فقیر میمانند؟
عصر هوش مصنوعی جنبههایی از زندگی ما را
به گونهای متحول خواهد كرد كه ارزشها، قوانین و هنجارهای اجتماعی ما را به راستی به چالشهایی جدید میكشد كه پیش از آن هیچ تجربهای از نحوه مواجهه با آن نداریم، اما هنوز مشخص نیست كه آیا عصر جدید در جهت برابری و رفاه بیشتر رقم میخورد یا خیر و قضیه كاملا برخلاف تصور عمومی است. باتوجه به تجربیات تاریخی اخیر در حوزه توسعه فناوری و جامعه، چشمانداز روشنی وجود نخواهد داشت مگر اینكه ما یك تلاش آگاهانه و جمعی انجام دهیم. به همین دلیل است كه ما به یك قرارداد اجتماعی جدید برای ورود به عصر هوش مصنوعی نیاز داریم.
اختراع آینده
دنیس گابور، برنده جایزه نوبل، نویسنده كتاب «اختراع آینده» (1963) یك جمله طلایی در این خصوص دارد: «آینده را نمیتوان پیشبینی كرد، اما آینده را میتوان اختراع كرد.» درحالی كه یك قرارداد اجتماعی ذاتا یك تلاش جمعی برای بحث، ساختن و توافق بر سر هنجارها و ارزشهای اجتماعی است، چند سوال كلیدی را میتوان شناسایی كرد. انسان محصور در حلقه یا انسان در كنترل؟ ممكن است خلبانان خودكار بتوانند هواپیماها را به پرواز درآورند اما انسانها باید همیشه در كابین خلبان باشند. رویكرد انسان تحت كنترل، مسوولیتپذیری انسان را درقبال تصمیمات اتخاذ شده توسط و با هوش مصنوعی كه میتواند بر زندگی، سلامت و دارایی تاثیر بگذارد، تضمین میكند. قوانین اتحادیه اروپا در حال حاضر محافظت در برابر نظارت و تصمیمگیری خودكار را ارایه میدهد، اما با فراگیرتر شدن ابزارهای مبتنی بر هوش مصنوعی، ممكن است نیاز به شفافسازی و حتی گسترش این حمایتها داشته باشیم، به ویژه در مواردی كه تصمیمات بر كرامت انسانی در استخدام، مراقبتهای بهداشتی، آموزش و پرورش و مسائل مالی تاثیر میگذارند. به عنوان مثال، «مدیریت الگوریتمی كارگران» به خودی خود یك پلتفرم مشكلساز در عصر حاضر است، اكنون باید از خود بپرسیم كه آیا از پذیرش مدیریت هوش مصنوعی كارگران در آینده خوشحال خواهیم بود یا این تبدیل به یك نگرانی عمیق خواهد شد؟ و بعد از آن رابطه بین مردم و پدیده هوش مصنوعی چگونه خواهد بود؟ چگونه میتوانیم مردم را از خطر سلطه یك هوش برتر ایمن نگه داریم و اطمینان حاصل كنیم كه پیشرفتهای فناوری جدید با ارزشهای جوامع ما همسو هستند؟ در سادهترین عبارت، این به معنای موافقت، تدوین و اجرای مجموعهای از قوانین است كه نشان میدهد هوش مصنوعی چه كاری را میتواند انجام دهد و چه كاری را نمیتواند انجام دهد و انسانها چگونه میتوانند از آن استفاده كنند یا ممكن است در جاهایی تصمیم بگیرند كه آن را كنار بگذارند. این باید شامل نیاز به رضایت انسان در مورد اینكه چگونه و چه زمانی ممكن است به هوش مصنوعی اجازه داده شود تا در تعاملات یك فرد با دنیای دیجیتال واسطه شود، باشد تا مبادا عاملیت انسانی به خطر بیفتد.
آموزش و هوش مصنوعی
چگونه میتوانیم سیستمهای آموزشی را برای تشویق همكاری انسان و هوش مصنوعی به جای جایگزینی انسان با هوش مصنوعی طراحی كنیم؟ قطعا همهچیز نیازی به استفاده از هوش مصنوعی ندارد و سیستمهای آموزشی باید به آموزش مهارتهای اساسی ادامه دهند. با این وجود، به وضوح آموزش و یادگیری مادامالعمر توسط فناوریهای هوش مصنوعی تغییر مییابند كه اجازه میدهد شخصیسازی بیشتر متناسب با رویكردهای یادگیری تكتك دانشآموزان باشد.
دانشآموزان در هر سنی باید آموزش ببینند و با سیستمهای هوش مصنوعی كار كنند، ازجمله نحوه تعامل انتقادی و اخلاقی با الگوریتمهای یادگیری عمیق و سایر فناوریهای هوش مصنوعی. با توجه به تقاضاهای بسیار زیاد در سیستمهای آموزشی، این امر مستلزم سرمایهگذاری عمومی استراتژیك و تمركز بر آموزش معلمان است.
كارگران و هوش مصنوعی
چگونه میتوانیم یك انتقال عادلانه را برای كارگران تضمین كنیم؟ در بازار كار، نقشهای شغلی باید مانند همیشه با فناوریهای جدید تكامل یابد. این ممكن است به معنای ایجاد موقعیتهای جدیدی باشد كه بر همكاری انسان و هوش مصنوعی تمركز میكند، از جمله اطمینان از اینكه سیستمهای هوش مصنوعی همانطور كه درنظر گرفته شده عمل میكنند و مسوولانه استفاده میشوند.
دولتها و بخش خصوصی باید با اتخاذ شیوههای صحیح و آموختهشده از انتقال به یك دوران جدید با حداكثر صیانت از حقوق افراد و همیاری یكدیگر به به كارگران كمك كنند تا در یك گذار عادلانه سازگار شوند كه بیشترین بخشها را در معرض پیشگیری از مخاطرات قرار دهند، همچنین به موازات آن مهارتهای گسترده موردنیاز برای اطمینان از استفاده مسوولانه از هوش مصنوعی را توسعه دهند.
ارزشهای انسانی و هوش مصنوعی
از چه تواناییها و چه ارزشهای انسانی میخواهیم محافظت كنیم؟ انسانها برای كار، زندگی نمیكنند بلكه برای رفاه زندگی كار میكنند، اما ما انسانها از داشتن احساس هدف و رسیدن به اهدافمان در زندگی معنا میگیریم. اگر هوش مصنوعی یك صنعت را به شدت تغییر دهد و اكثر كارگران برای كارهای دیگر مناسب نباشند، چگونه میتوانند بدون كار یا دستاوردهای مشابه از زندگی خود معنایی بگیرند؟ هوش مصنوعی در حال حاضر هنر و موسیقی خود را میسازد درحالی كه بیشتر انسانها برای انجام فعالیتهای خلاقانه و رضایتبخش كمتر تلاش میكنند.
آیا مهارتهای خاصی وجود دارد كه بشر بخواهد آنها را حفظ كند و تا قرنها فعالیت حرفهای و فرهنگی از بین نرود؟ در بسیاری از زمینههای زندگی بشر، ممكن است برای ما كاملا مشروع باشد كه بخواهیم از رویكردهای «ارگانیك» یا «زیستی» بدون هوش مصنوعی محافظت كنیم، درست همانطور كه برخی از كشورهای اتحادیه اروپا قوانینی در مورد زبانها و تولیدات فرهنگی دارند. حتی اگر بخواهیم به مصرفكنندگان آزادی انتخاب بدهیم، باید درنظر بگیریم كه آیا به قوانینی در مورد برچسبگذاری محتوای تولید شده توسط هوش مصنوعی نیاز داریم تا انتخاب مصرفكننده معنادار باشد.
چگونه میتوانیم انتقال هوش مصنوعی را فراگیر كنیم؟ در حال حاضر آگاهی بیشتری در مورد خطرات سوگیری الگوریتمی و تبعیض الگوریتمی وجود دارد، اما این چالشها با پذیرش گسترده فناوریهای یادگیری ماشین تشدید خواهد شد. افزایش تنوع در سراسر اكوسیستم هوش مصنوعی، از بخشهای تحقیقاتی گرفته تا هیاتهای اجرایی، به حمایت از انتقال هوش مصنوعی فراگیرتر و همچنین تمركز بر تنوع بیشتر در مجموعه دادههای آموزشی كمك میكند.
چگونه از عقب ماندن مردم جلوگیری كنیم؟ این انتقال فناوری ممكن است با امواج قبلی متفاوت باشد، زیرا میتواند بر مشاغل حرفهای بسیار ماهر كه قبلا در برابر اتوماسیون «ایمن» تلقی میشدند نیز تاثیر بگذارد.
با پیشرفت تكنولوژی، همه افراد به طور بالقوه درمعرض خطر احساس منسوخ شدن و «جای ماندن» هستند. بنابراین، ما باید همیشه به یاد داشته باشیم كه انسانها به خودی خود یك هدف هستند و هر پیشرفتی كه مردم را پشت سر بگذارد، پیشرفت نیست. به جای پذیرش این فرض كه انسانها باید با اتوماسیون رقابت كنند، سیستمهای رفاهی و حمایتهای كارگری باید برای حمایت از زمان و فضای خلاقانهای كه مردم به آن نیاز دارند وفق دهند تا هوش فرهنگی و اجتماعی انسانی غنی و متنوعی را تولید كنند كه مدلهای یادگیری عمیق آن را بازسازی كرده و در خروجی هوش مصنوعی تركیب میكنند.
جعبه سیاه هوش مصنوعی
آیا تركیبی از خدمات پایه جهانی (UBS) و درآمد پایه جهانی (UBI) وجود دارد كه رفاه و كرامت انسان را حفظ كند؟ شاید این میتواند تا حدی توسط نوعی مالیات توسط هوش مصنوعی تامین شود. چگونه میتوانیم تضمین كنیم كه «تولیدكنندگان دادهها به عنوان نیروی كار» با پرداخت عوارض و مالیات به طور عادلانه با نیروی كار انسانی رقابت كنند؟ همانطور كه «ای گلن ویل» و «جارن لنیر» از پیشگامان فناوری در سال 2018 این نظریه را مطرح میكنند كه فناوریهایی مانند الگوریتمهای یادگیری عمیق و شبكههای عصبی امروزی برای انجام كارهای سنگین به «داده به عنوان كار» متكی هستند پس صراحتا این نكته قابل تكرار است كه مدلهای یادگیری عمیق بدون دادههای آموزشی تولید شده توسط انسان نمیتوانند كاری را كه انجام میدهند تكمیل كنند. حتی دادههای مصنوعی یا دادههای آموزشی تولید شده توسط مدلهای هوش مصنوعی، درنهایت محصول دادههای اولیه انسانی به عنوان نیروی كار است.
تصمیمگیری در سیستمهای هوش مصنوعی مانند یك «جعبه سیاه» درون هواپیماها و زیردریاییهاست، اما سیاستگذاران این عرصه میتوانند با طراحی مقرراتی كه چانهزنی جمعی را بین سازمانهایی كه نماینده كارگرانی كه دادههای آموزشی را ایجاد میكنند و صاحبان مدلهای هوش مصنوعی كه به صورت تجاری از این دادهها بهرهبرداری میكنند، تسهیل كنند و این روند به ایجاد شفافیت در مدلهای تعاملی كمك كند.
چگونه میتوانیم سیستمهای هوش مصنوعی پایدار را در یك اقتصاد زنجیروار كه به صورت یك چرخه سلسله مراتبی شكل یافته است، جانمایی كنیم؟ الگوریتمهای یادگیری عمیق به منابع محاسباتی قابلتوجهی نیاز دارند كه انرژی زیادی دارند و همچنین روی سختافزاری اجرا میشوند كه به مواد خام استخراج شده از زمین نیاز دارد. این یكی از دلایلی است كه وقتی رویكردهای ارزانتر (ازجمله رویكردهای الگوریتمی ارزانتر) به همان خوبی كار را انجام میدهند، درنظر داشته باشید كه هوش مصنوعی به همه چیز اتكای منطقی اقتصادی یا زیست محیطی ندارد. با این حال، در جایی كه یك مورد مسوول برای هوش مصنوعی وجود دارد، چگونه میتوانیم اطمینان حاصل كنیم كه باعث انتشار كربن و استخراج منابع مخرب زیست محیطی نمیشود؟
در واقع، در صورت استفاده مسوولانه، هوش مصنوعی بهطور بالقوه میتواند به جوامع كمك كند تا انرژی كارآمدتر و پایدارتر شوند.
چه كسی صاحب نوآوریهای ایجاد شده توسط هوش مصنوعی خواهد شد؟ در سال 2021، آفریقای جنوبی اولین كشوری بود كه به یك مدل هوش مصنوعی جدید حق اختراع اعطا كرد، اگرچه سایر دفاتر ثبت اختراع در سراسر جهان در این خصوص بسیار محتاطتر عمل كردند. در دسامبر 2023 سرویس گوگل دیپ مایند یك راهحل كاملا جدید برای یك مساله ریاضی ارایه كرد، اما از ثبت حق اختراع نوآوری هوش مصنوعیاش در آن زمان ایالاتمتحده بازماند، یك نكته دیگر كه ضرورت دارد مغفول نماند این مثال و پاسخ به پرسش مطرح شد در ادامه آن است: همانطور كه سیستمهای هوش مصنوعی شروع به تولید نوآوریهایی مانند داروهای جدید میكنند، چگونه سیستمهای مالكیت معنوی تضمین میكنند كه ابزار نوآوری به نفع همه است و صرفا به طور دایمی توسط ثروتمندترینها تسخیر نمیشود؟ آیا به هوش مصنوعی عمومی نیاز داریم؟
همانطور كه مدلهای هوش مصنوعی پیچیدهتر میشوند، به منابع محاسباتی بیشتری نیاز خواهند داشت كه در حال حاضر به یك مانع اقتصادی برای دسترسی تبدیل شده است.
تاریخچه طولانی موسسات عمومی وجود دارد كه برای ارایه دسترسی رایگان یا مقرون بهصرفه به خدمات اطلاعاتی، از كتابخانههای عمومی تا خدمات پخش عمومی، طراحی شدهاند. به جای یك سیستم دو لایه، با پیشرفتهترین هوش مصنوعی پنهان در پشت دیوارهای پرداخت و دسترسی آزاد (یا محدود) به هوش مصنوعی اولیه، آیا همه شهروندان نباید به هوش مصنوعی عمومی پیشرفته دسترسی داشته باشند.
به نظر میرسد با روند كنونی اتحادیه اروپا باید شهروندانش را در یك بحث عمومی گسترده و پویا درمورد سوالات فوق و هر سوال دیگری كه پیش میآید، مشاركت دهد.
در كنار سیاستهای سنتی نمایندگی، كنفرانس آینده اروپا و پانلهای شهروندان اروپایی نشان میدهد كه چگونه فرآیندهای سیاسی مشورتی ممكن است به شناسایی و حفظ پاسخها در روح دموكراتیك قرارداد اجتماعی كه توسط ژان ژاك روسو تدوین شده، كمك كند.
یك ضربالمثل قدیمی از روزهای اولیه محاسبات وجود دارد؛ مثال زباله وارد شده و زباله خارج شده یا همان (GIGO) به این معنی كه خروجی یك كامپیوتر فقط به اندازه ورودی داده خوب است به این معنی كه خروجیها به كیفیت ورودیها بستگی مستقیم دارند. هوش مصنوعی به سادگی هر چه تمامتر میتواند دایره باطل مثال GIGO را نشان دهد. اگر انسانها را مجبور به رقابت با اتوماسیون كنیم، جامعه را تنزل خواهیم داد كه نه تنها دادههای آموزش هوش مصنوعی آینده بلكه زمینه اجتماعی را كه شركتها و دانشمندانی كه سیستمهای هوش مصنوعی میسازند از آن بیرون میآیند را نیز تخریب میكنند، این قطعا همان آیندهای است كه به فاجعه ختم خواهد شد. اما آیندهای جایگزین وجود دارد كه در آن هوش مصنوعی هوش اجتماعی انسان را در یك دایره فضیلتمند گسترش داده و از آن پشتیبانی میكند كه به درون خود بازخورد میدهد و شكوفایی بشریت را تشویق میكند، البته خوشبختانه همچنان در آغاز راه هستیم و هنوز فرصت كافی داریم تا آینده و سرنوشتمان را خودمان انتخاب كنیم.
این مطلب را با گفتهای از ژان ژاك روسو درخصوص قرارداد اجتماعی خاتمه میدهیم: «در حقیقت، قوانین همیشه برای مالكان مفید هستند و برای كسانی كه چیزی ندارند مضر. از آن نتیجه میشود كه دولت اجتماعی تنها زمانی برای مردمان سودمند است كه همه چیزی داشته باشند و هیچكس بیش از حد نداشته باشد.»
كریس كرمیداس كورتنی مشاور ارشد، دفاع از دموكراسی
جو لیتوبارسكی محقق دكترای تاریخ فناوری و دموكراسی، دانشگاه ماستریخت
نظرات