پژوهشگر و مدرس فلسفه سیاسی و مطالعات فرهنگی و تمدنی
متن سخنرانی دکتر رضا غلامی، رئیس پژوهشگاه مطالعات فرهنگی، اجتماعی و تمدنی در سومین همایش هوش مصنوعی و رسانه؛ مرکز پژوهش های مجلس شورای اسلامی، 25 دی ماه 1402
بسم الله الرحمن الرحیم
سلام عرض می کنم خدمت حضار گرامی، فرهیختگان و دانش پژوهان. از مرکز پژوهش های مجلس شورای اسلامی و دفتر مطالعات و برنامه ریزی رسانه ها به ویژه جناب آقای دکتر آقاسی به خاطر فرصتی که در اختیارم گذاشتند سپاسگزارم. عنوان سخن مختصر من در این نشست، نگاهی به مسائل هوش مصنوعی در میدان فلسفه سیاسی است. از آنجا که هرگونه حکمرانی سیاسی، وابسته به تکیهگاههایی در فلسفه سیاسی است، احتمالاً این بحث می تواند برای رشد مباحث هوش مصنوعی در نسبت با حکمرانی راهگشا باشد.
شما می دانید که امروز دست یابی به سطوحی عالیِ فناوری هوش مصنوعی و ظهور عینی آن در عرصه های گوناگون به ویژه چت جی. پی. تی، زلزلهای در عرصه علم و فناوری و به تبع آن، مسائل اجتماعی، سیاسی، اقتصادی و فرهنگی بوجود آورده است. عده ای از رسیدن هوش مصنوعی به این سطح و درجه و آثار آن خوشنودند و عده ای هم نسبت به پیامدهای منفی و خوفناک آن در آینده دغدغهمندند. من جزو کسانی هستم که قبلاً سلطه مطلق هوش مصنوعی بر جوامع انسانی به معنای جلو زدن هوش مصنوعی از انسان را به دلیل عاملیت انسانی در هوش مصنوعی را چندان قبول نداشتم اما الآن به خاطر خلق رایانه های کوانتومی و قدرتی که این رایانه ها در پردازش تقریباً نامحدود اطلاعات در کم ترین زمان ممکن و سپس پردازش آنها پیدا کرده اند و همچنین با ملاحظه استعداد فوق العاده یادگیری و خلاقیت هوش مصنوعی، نسبت به فرارفتن هوش مصنوعی از مرزهای تصمیم گیری ها و کنترل انسانی شدیداً نگرانم هرچند تصور می کنم وجود فطرت انسانی و همافزایی انسان های فضیلتگرا، مانع از این اتفاق خواهد شد.
تاکنون مسائل فناوری هوش مصنوعی بیشتر از منظر اخلاقی یا نسبت و مناسبات آن با ارزش ها و هنجاری های اجتماعی واکاوی شدهاند و نگاه سیاسی به هوش مصنوعی تا حدی مغفول مانده است. این می تواند گویای وجود نوعی از سادهانگاری در مواجهه با این پدیده و تقلیل نقش هوش مصنوعی به ابزاری صِرف باشد.
واقعیت این است که با پیدایش و فراگیرترشدن فناوریهای تحولزایی مانند هوش مصنوعی، بسیاری از موضوعات سیاسی، از ملت- دولت گرفته تا آزادی های فردی و عدالت و از مردم سالاری گرفته تا نظارت اجتماعی، از نظام حکمرانی سیاسی گرفته تا تغییرات زیست محیطی و غیره، همگی دستخوش تغییرات بنیادی میشوند و هنر ما این است که این تغییرات را از رهگذر فناوری هوش مصنوعی عمیقاً بررسی کنیم و با ترکیب فلسفه سیاسی و فلسفه فناوری هوش مصنوعی، توصیف و تبیین و پیش بینی جدیدی را در اختیار پژوهشگران و حتی سیاستگذاران اجتماعی قرار دهیم و به آنها کمک کنیم تا به ایدههای مناسبی برای مواجهه صحیح با هوش مصنوعی برسند.
همانطور که از عنوان بحث پیداست، بنده در این سخنرانی در پی ورود به تک تک مسائل نیستم، بلکه قصد دارم با ارائه گزارش از درگیری فناوری هوش مصنوعی با مفاهیم بنیادی فلسفه سیاسی، ذهن های فکور شما را به وارد لایه های عمیق تر تأثیر هوش مصنوعی بر زندگی مدنی انسان بکنم. برای این منظور، انشاالله ده مفهوم یا گزاره بنیادی از فلسفه سیاسی را در مواجهه با فناوری هوش مصنوعی و بالعکس مواجهه هوش مصنوعی با آنها اجمالا، تحت تأمل و پرسشگری قرار خواهیم داد.
پیش از شروع تاکید می کنم که نباید رابطه هوش مصنوعی و مفاهیم بنیادی سیاسی را سفید و سیاه دید. رابطه یک مفهوم سیاسی یا هوش مصنوعی نه سیاه مطلق است و نه سفید مطلق. از طرف دیگر، کشورهایی مانند کشور ما به میزانی که سرمایه گذاری درست و به موقع داشته باشند از فرصت های هوش مصنوعی در ساحت سیاست ییشتر بهرهمند می شوند و بالعکس اگر در سرمایه گذاری صحیح، واقع بینانه و به موقع عمل نکنند، عمدتاً با تهدیدات و مخاطرات فناوریهای هوش مصنوعی مواجه خواهند شد.
یکم. مسأله آزادی و عاملیت انسانی
هرچند حرکت هوش مصنوعی در یک مسیر درست و معقول می تواند در موارد فراوانی به بسط آزادی های فردی کمک کند اما در کل، نگرانی در باب به ضعف کشیده شدن آزادی های فردی، خودمختاری و عاملیت انسان توسط هوش مصنوعی، چیزی نیست که بتوان به راحتی از کنار آن گذشت. تهدید خودشکوفایی و خلاقیت که ثمره محدود شدن آزادی های فردی است و فراتر از آن، شکل گیری نوعی استعمارگری هوش مصنوعی یا بردگی رباتی مواردی است که باید نسبت به آنها فوق العاده حساس بود. البته پاسخ به این پرسش مهم که چه کسی درباره هوش مصنوعی تصمیم خواهد گرفت؟ میزان نگرانی را مشخص می کند.
اگر هوش مصنوعی از سوی عوامل سودگرا یا سازمان های شرور مدیریت شود، فناوری های هوش مصنوعی که توسط دولت و شرکت های خصوصی استفاده می شوند ممکن است تأثیرگذاری نامتناسب بر حقوق بشر داشته باشند. علاوه بر این، فناوری هوش مصنوعی می تواند حریم خصوصی را نقض کند، چراکه حجم زیادی از داده های شخصی را بدون اجازه صاحبان آنها یا با اخذ اجازههای تشریفاتی و مبهم، جمع آوری و پردازش می کند. به تعبیری ظریف، فناوری های هوش مصنوعی قابلیت ایجاد زندگی آکواریومی را که فضای مجازی بوجود آورده است را چند برابر میکند. همچنین فناوری هوش مصنوعی می تواند پیامدهای مهمی بر حق آزادی عقیده و بیان داشته باشد، چراکه می تواند بر انتشار و دسترسی به ایده ها و عقاید تأثیر بگذارد.
دوم. فناوری هوش مصنوعی و تکثرگرایی سیاسی
یک جامعه مادامی از جهت سیاست سالم و طبیعی تلقی می شود که اجازه بروز و ظهور تنوع و تکثر سیاسی را بدهد و در عمل مانع آن نشود. فناوری هوش مصنوعی هم می تواند به گسترش تنوع و تکثر سیاسی مدد برساند و هم می تواند مبتنی بر الگوریتم های خاص، به سمت یکدست سازی سیاسی یا مانع تراسی های آشکار و پنهان برای ظهور تکثرات سیاسی حرکت کند.
سوم. مسأله برابری و عدالت: سوگیری و تبعیض در هوش مصنوعی
قبل از هر چیز باید دانست که هوش مصنوعی، بهلحاظ سیاسی، خنثی نیست و سوگیری دارد. حتی نباید از بیان این مطلب ابایی داشت که هوش مصنوعی بهخودیخود جایگاه سیاسی دارد. در این میان، انگیزه های شرکت های بزرگ مدیریت کننده هوش مصنوعی که اغلب در غرب هستند می تواند با استقرار استانداردهای غربی، زمینه تبعیض را ایجاد کند. البته صرف نظر از تقسیم بندی های فرهنگی، بعضی از کارشناسان معتقدند که فناوریهای هوش مصنوعی به دلیل اتکا و بهرهگیری از داده های تاریخی و امکان بالقوه سوگیری الگوریتمی به طور طبیعی منجر به نتایج ناعادلانه خواهند شد. مثلاً در سالهای اخیر فرایند یادگیری برخی از الگوریتمهای هوش مصنوعی به شیوهای بوده که نسبت به سیاهپوستان سوگیری داشته است؛ کم نبوده مواردی که پلیس با استفاده از سامانههای تشخیص چهره هوش مصنوعی، بهاشتباه، یک فرد سیاهپوست را بهجای یک فرد سیاهپوست دیگر دستگیر کرده است.
از سوی دیگر، رباتهای هوش مصنوعی میتوانند از طریق گسترش وسیع بیکاری، به نابرابری و بیعدالتی در جامعه دامن بزنند. برای نمونه، اگر رباتهای هوش مصنوعی بسیاری از کارها را سامان دهند و نیازی به استفاده از نیروی کار انسانی نباشد، آیا این مسئله نابرابریهای اجتماعی را تشدید نمیکند؟ من اخیراً سخنان قائم مقام شرکت مایکروسافت را می شنیدم که می گفت تا 45 درصد از مشاغل در آینده از سوی هوش مصنوعی تسخیر می شود. البته هوش مصنوعی می تواند مشاغل جدیدی را نیز خلق کند اما معلوم نیست لزوماً این مشاغل جایگزین کننده حجم بالای بیکاری های ناشی از هوش مصنوعی باشد با این ملاحظه که در یک مدت زمان نسبتاً طولانی، امکان شکل گیری مشاغل تازه بواسطه رواج فناوری های هوش مصنوعی وجود ندارد.
البته روشن است که در کنار دامن زدن هوش مصنوعی به تبعیض و بی عدالتی، حتماً از هوش مصنوعی می توان در جهت استقرار و بسط عدالت خصوصاً عدالت توزیعی به بهترین نحو بهره برد و لذا باز این پرسش مطرح می شود که چه کسانی درباره هوش مصنوعی تصمیم خواهند گرفت و منطق آنها برای تصمیم گیری چه خواهد بود؟
چهارم. مسأله ملت- دولت
هر چند دولتها به طور فزاینده و در رقابت با یکدیگر از هوش مصنوعی برای اهداف ملی استفاده میکنند، اما روشن است که هوش مصنوعی می تواند آثار جهانیشدن معطوف به کوچک تر شدن و کم اختیارتر شدن دولت ها را به صورت مضاعفی افزایش دهد. به بیان دیگر، هوش مصنوعی می تواند بیش از پیش قدرت های جهانی که در قامت شرکت های غول چندملیتی و ارائه دهندگان سرویس های جهانی در فضای مجازی ظاهر شده اند را به جای دولت ها بنشاند. از سوی دیگر، ملت ها نیز با تقویت جهانیشدن هویت و تشخص خاص خود را ضعیف شده دیده و خواسته و یا ناخواسته در یک جامعه جهانی بزرگ با قواعد نسبتاً مشترک هضم شده زیست خواهند کرد که همه آنها تضعیف کشور به معنای دقیق کلمه می شود.
در کنار تضعیف ملت- دولت، نباید از قابلیت فناوری هوش مصنوعی در توسعه ملی گرایی افراطی و حتی فاشیسم هم غافل شد. در واقع، فناوریهای هوش مصنوعی میتوانند خواسته یا ناخواسته تعصبات اجتماعی را به دلیل دادههای آموزشی مغرضانه یا طراحی الگوریتمی، تقویت کنند.
پنجم. مسأله قدرت و مردمسالاری
آیا می توان اطمینان حاصل کرد که سیستمهای هوش مصنوعی مسئولانه و به گونهای توسعه مییابند که نه خود به عنصر مهارناپذیر قدرت بدل شود و نه بسترهای سوء استفاده پنهان و آشکار از قدرت را بوجود آورند؟ واقعیت این است که توسعه هوش مصنوعی توسط تعداد کمی از شرکت ها و دولت های بزرگ می تواند منجر به تمرکز قدرت و مهارناپذیری آن شود.
این درست است که فناوری های هوش مصنوعی میتوانند به مردم کمک کنند تا درک بهتری از سیاست داشته باشند و راحت تر در فرآیندهای مردم سالاری مشارکت کنند. همچنین میتوانند به حکمرانان کمک کنند تا با نزدیکتر شدن به مردم و درک نیازهای آنها، نماینده بهتری برای آنها باشند. باز از جنبه مثبت، هوش مصنوعی میتواند با تسهیل گفتوگو بین سیاستمداران و شهروندان به بهبود فرآیندهای دموکراتیک کمک کند، عناصری از دموکراسی مستقیم را برای تکمیل نظام نمایندگی، و امکان استفاده بهتر از دادههای شهروندان برای گسترش خدمات عمومی و حمایت از مردم، بهتر از قبل وارد میدان کند.
اما این یک روی سکه است. روی دیگر سکه این است که فناوری هوش مصنوعی میتواند ضمن پیوند با علوم شناختی و با انتشار هوشمند اطلاعات نادرست و سمّی، سرمایه اجتماعی که از آن به اتاق پژواک و عوامفریبی هم تعبیر شده است، به ویژه اعتماد به دولت ها را تضعیف کند و سیاستمداران را در عرصههای گوناگون به چالش بکشد یا هوش مصنوعی را می توان به مثابه تهدیدی برای مشارکت مبتکرانه و مردمسالاری شورایی و مشارکتی در نظر گرفت.
شاید نظریه فوکودرباره قدرت می تواند در اینجا اینگونه و در قالب یک پرسش ترجمه شود که باید دید هوش مصنوعی چگونه ما را مادون خودش و به سوژه تبدیل میکند؟ علاوه بر این، جای انطباق بحث های هوش مصنوعی و خودکامگی که هانا آرنت از آن به ابتذال شر تعبیر می کرد، وجود دارد کما اینکه برخی با توسل به مفهوم «ابتذال شر» هانا آرنت بیان میکنند که هوش مصنوعی میتواند با نقش نظارتی خود شیوههای خودکامگی را در جامعه ایجاد یا بازتولید کند.
ششم. هوش مصنوعی، کنترل اجتماعی مخرب و مهندسی مغز
جای تردیدی نیست که فناوری های هوش مصنوعی علاوه بر نظمدهی بسیار دقیق، می تواند سطح نظارت بر جامعه را به نحو غیرقابل وصفی گسترش دهد. از این نظارت ها به کنترل اجتماعی به مدد هوش مصنوعی تعبیر می شود که برای آن هم می توان جنبه های مثبت و هم جنبه های منفی و هراسناک در نظر گرفت.
فناوریهای هوش مصنوعی، ظرفیت های فراوانی برای ایجاد کنترل اجتماعی مخرب را دارند که منجر به نگرانی در مورد تأثیر آن بر آزادی فردی شده و به طور بالقوه نظامهای سیاسی استبدادی و تمامیتخواه را تقویت کنند. من اخیراً تصاویری از قدرت چین در استفاده از فناوری هوش مصنوعی در جهت کنترل بیشتر اجتماعی می دیدم که خیلی خوفناک بود.
از این وضعیت می توان به این شکل روایت کرد که هوش مصنوعی گفتار و رفتار شهروندان و حتی حرکات و سکنات آن در معابر عمومی و غیره را بدون آنکه چیزی از قلم بیفتد پایش و در مواردی حتی دستکاری میکنند. حتی می توان گفت که غولهای فناوری قادرند با استفاده از الگوریتمهای هوش مصنوعی به شیوهای نوین ما را استعمار کنند بدین صورت که از دادههایی که در فضای مجازی و شبکههای اجتماعی تولید میکنیم برای مقاصد گوناگونی بهره ببرند و صرفاً ما را به کارگرانی دیجیتال تبدیل کنند.
در کنار این ها من مایلم یک باب دیگر را نیز در اینجا باز کنم با عنوان مهندسی مغز. مهندسی مغز یعنی استفاده هوش مصنوعی از علوم شناختی در جهت نهادینه سازی نوعی تنظیمات شبه استبدادی در مغز انسان که بتواند فرد را در یک مسیر مشخص و البته دلخواه مراکز قدرت جلو ببرد که در جای خود قابل بحث است.
هفتم. فناوری هوش مصنوعی و پساانسانگرایی و تراانسانگرایانه
پساانسانگرایان این پرسش را مطرح میکنند که آیا باید برای رباتهای هوش مصنوعی هم جایگاهی سیاسی قائل شویم و به عبارتی آنها را هم جزئی از مردم محسوب کنیم؟ تراانسانگرایان هم بهنوبه خود این مسئله را مطرح میکنند که در آیندهای نه چندان دور عاملهای هوش مصنوعی بر انسان مسلط میشوند و با ظهور موجودات ابرهوشمند زمام تمام امور بشری را در اختیار میگیرند. کوکلبرگ نقادانه این مسائل و دلالتهای سیاسی آنها مانند ازدسترفتن مردمسالاری و آزادی را ارزیابی میکند. همچنین، به این مطلب مهم اشاره میکند که فلسفه فناوری -در بحث فعلی ما، فلسفه هوش مصنوعی- و فلسفه سیاسی رابطهای دوسویه دارند و به پیشرفت یکدیگر کمک میکنند.
در بیانی دیگر، از جهت علمی، همیشه می توان منتظر بود فناوریهای هوش مصنوعی به دلیل پیچیدگی و عدم نظارت انسانی، رفتارهای غیرمنتظره ای از خود نشان دهند یا تصمیماتی با عواقب پیش بینی نشده اتخاذ کنند. می دانید که حتی کسانی از جمله ایلان ماسک، در مورد خطرات هوش مصنوعی، مانند نابودی تمدن و شکل گیری ابر هوش که ممکن است با ارزشهای انسانی در تضاد باشد، هشدار دادهاند. البته ایده فرا انسان گرایی در منظر بعضی، شامل اندام ها و مغزهای جایگزین بی نهایت متصل به اینترنت است، که برآیند آن خارج شدن هوش مصنوعی از کنترل انسانها و سلطه هوش مصنوعی بر انسان است. همچنین تراانسان گرایی “سخت افزاری” به دنبال بارگذاری ذهن در رایانه ها است. شرایطی که در آن انسان ها با ماشین ها ادغام می شوند.
به هر حال، هرگونه تلقیای از فرانسانگرایی و تراانسانگرایی داشته باشیم، ایندو سؤالات اخلاقی، اجتماعی و فلسفی پیچیده ای را در مورد آینده بشریت و پیامدهای بالقوه فناوری های هوش مصنوعی فراتر از توانایی های انسانی کنونی ایجاد می کند.
هشتم. فناوری هوش مصنوعی و مسأله جنگ و صلح
جدای از تاثیرات چشم گیر فناوریهای هوش مصنوعی در تولید انواع سلاح های کشتار جمعی و از همه مهم تر، تبدیل هوش مصنوعی به سلاحی خودبسنده و رها برای جنگ با انسانها، فناوریهای هوش مصنوعی این قابلیت را دارند که بر امنیت ملی و بینالمللی به طرق مختلف، حتی از مقابله تا گسترش تروریسم تأثیر بگذارند. همه این ها در حالی است که فناوریهای هوش مصنوعی در خلال جنگ ها میتوانند تشخیصها و پیشبینیهای نادرستی هم انجام دهند، که این تشخیصها و پیش بینی ها به خلق رویدادهای فاجعهبار در جوامع انسانی و کل جهان بینجامد. آنچه مسلم است، بهرهگیری از هوش مصنوعی چه توسط بازیگران سایبری دولتی و چه غیر دولتی اعم از شناخته شده یا ناشناخته، یک نگرانی جدی است.
نهم. فناوری هوش مصنوعی و تقویت شمال و جنوب
این مطلب کاملاً روشن است که توسعه فناوری های هوش مصنوعی در بستر هایتک و فناوری های نو یا دیجبتال شکل می گیرد که ایجاد بسترهای سخت افزاری و نرم افزاری چه برای گسترش آنها و چه برای بهره برداری از آنها هزینه های سنگینی را به دنبال دارد. همین گرانی سرمایه گذاری موجب می شود تا بعضی کشورهای ثروتمند و شرکت های عظیمی که در آن کشورها استقرار دارند، نه تنها تصمیم گیر اساسی برای هوش مصنوعی متناسب با منافع خود باشند، بلکه در عرصه بهره برداری نیز کشورهای ثرونمند بیشترین نفع را از هوش مصنوعی ببرند و همین امر است که می تواند شکاف شمال و جنوب در جهان امروز را به شدت تشدید کند.
دهم. محیط زیست و آینده کره زمین
هوش مصنوعی می تواند با تصمیم گیری و مدیریت صحیح به عاملی موثر برای جلوگیری از طمع ورزی ها، مصرف زدگیها و اسراف گسترده در بهرهکشی از طبیعت مبتنی بر تعهد اخلاقی به نسل های بعدی باشد. اما این یک روی سکه است. روی دیگر سکه این است که هوش مصنوعی بیش از گذشته به بهرهکشی مفرطانه و نامتعادل از طبیعت کمک نموده و زمینه تخریب محیط زیست و عدم امکان حیات نسل های آینده در این کره خاکی را به مراتب بیشتر مهیا کنند.
جمع بندی :
بنا بر آنچه بیان شد، هوش مصنوعی در کنار مزیت ها و فرصت هایی که در ساحت سیاست ایجاد خواهد کرد، مشکلات و تهدیدات زیادی را نیز بوجود خواهد آورد. البته چنانچه در ابتدای عرایضم اشاره کردم، من در کل، به آینده هوش مصنوعی خوش بینی دارم و معتقدم زنده بودن فطرت انسانی می تواند جلوی خیلی از مخاطرات فناوری های هوش مصنوعی را بگیرد اما در عین حال، تاکید دارم که این جنس خوش بینیها، نباید ما را به سمت بی خیالی و رها کردن نگرانی هایی که به بعضی از مصادیق آنها پرداختیم، سوق بدهد. من معتقدم در شرایط فعلی، باید با توسعه ارتباطات و گفتگوهای نخبگانی و ایده پردازیهای مشترک، به طور جدی فرصت تعاملات و هم افزایی جهانی برای افزایش فرصت ها و کاهش تهدیدهای فناوری های هوش مصنوعی را دائماً خلق کنیم.
از توجه شما عزیزان سپاسگزارم.