نگاهی به مسائل هوش مصنوعی در میدان فلسفه سیاسی

متن سخنرانی دکتر رضا غلامی، رئیس پژوهشگاه مطالعات فرهنگی، اجتماعی و تمدنی در سومین همایش هوش مصنوعی و رسانه؛ مرکز پژوهش های مجلس شورای اسلامی، 25 دی ماه 1402

 

بسم الله الرحمن الرحیم

سلام عرض می کنم خدمت حضار گرامی، فرهیختگان و دانش پژوهان. از مرکز پژوهش های مجلس شورای اسلامی و دفتر مطالعات و برنامه ریزی رسانه ها به ویژه جناب آقای دکتر آقاسی به خاطر فرصتی که در اختیارم گذاشتند سپاسگزارم. عنوان سخن مختصر من در این نشست، نگاهی به مسائل هوش مصنوعی در میدان فلسفه سیاسی است. از آنجا که هرگونه حکمرانی سیاسی، وابسته به تکیه‌گاه‌هایی در فلسفه سیاسی است، احتمالاً این بحث می تواند برای رشد مباحث هوش مصنوعی در نسبت با حکمرانی راهگشا باشد.

شما می دانید که امروز دست یابی به سطوحی عالیِ فناوری هوش مصنوعی و ظهور عینی آن در عرصه های گوناگون به ویژه چت جی. پی. تی، زلزله‌ای در عرصه علم و فناوری و به تبع آن، مسائل اجتماعی، سیاسی، اقتصادی و فرهنگی بوجود آورده است. عده ای از رسیدن هوش مصنوعی به این سطح و درجه و آثار آن خوشنودند و عده ای هم نسبت به پیامدهای منفی و خوفناک آن در آینده دغدغه‌مندند. من جزو کسانی هستم که قبلاً سلطه مطلق هوش مصنوعی بر جوامع انسانی به معنای جلو زدن هوش مصنوعی از انسان را به دلیل عاملیت انسانی در هوش مصنوعی را چندان قبول نداشتم اما الآن به خاطر خلق رایانه های کوانتومی و قدرتی که این رایانه ها در پردازش تقریباً نامحدود اطلاعات در کم ترین زمان ممکن و  سپس پردازش آنها پیدا کرده اند و همچنین با ملاحظه استعداد فوق العاده یادگیری و خلاقیت هوش مصنوعی، نسبت به فرارفتن هوش مصنوعی از مرزهای تصمیم گیری ها و کنترل انسانی شدیداً نگرانم هرچند تصور می کنم وجود فطرت انسانی و هم‌افزایی انسان های فضیلت‌گرا، مانع از این اتفاق خواهد شد.

تاکنون مسائل فناوری هوش مصنوعی بیشتر از منظر اخلاقی یا نسبت و مناسبات آن با ارزش ها و هنجاری های اجتماعی واکاوی شده‌اند و نگاه سیاسی به هوش مصنوعی تا حدی مغفول مانده است. این می تواند گویای وجود نوعی از ساده‌انگاری در مواجهه با این پدیده و تقلیل نقش هوش مصنوعی به ابزاری صِرف باشد.

واقعیت این است که با پیدایش و فراگیرترشدن فناوری‌های تحول‌زایی مانند هوش مصنوعی، بسیاری از موضوعات سیاسی، از ملت- دولت گرفته تا آزادی های فردی و عدالت و از مردم سالاری گرفته تا نظارت اجتماعی، از نظام حکمرانی سیاسی گرفته تا تغییرات زیست محیطی و غیره، همگی دستخوش تغییرات بنیادی می‌شوند و هنر ما این است که این تغییرات را از رهگذر فناوری‌ هوش مصنوعی عمیقاً بررسی کنیم و با ترکیب فلسفه سیاسی و فلسفه فناوری هوش مصنوعی، توصیف و تبیین و پیش بینی جدیدی را در اختیار پژوهشگران و حتی سیاست‌گذاران اجتماعی قرار دهیم و به آنها کمک کنیم تا به ایده‌های مناسبی برای مواجهه صحیح با هوش مصنوعی برسند.

همانطور که از عنوان بحث پیداست، بنده در این سخنرانی در پی ورود به تک تک مسائل نیستم، بلکه قصد دارم با ارائه گزارش از درگیری فناوری هوش مصنوعی با مفاهیم بنیادی فلسفه سیاسی، ذهن های فکور شما را به وارد لایه های عمیق تر تأثیر هوش مصنوعی بر زندگی مدنی انسان بکنم. برای این منظور، انشاالله ده مفهوم یا گزاره بنیادی از فلسفه سیاسی را در مواجهه با فناوری هوش مصنوعی و بالعکس مواجهه هوش مصنوعی با آنها اجمالا، تحت تأمل و پرسش‌گری قرار خواهیم داد.

پیش از شروع تاکید می کنم که نباید رابطه هوش مصنوعی و مفاهیم بنیادی سیاسی را سفید و سیاه دید. رابطه یک مفهوم سیاسی یا هوش مصنوعی نه سیاه مطلق است و نه سفید مطلق. از طرف دیگر، کشورهایی مانند کشور ما به میزانی که سرمایه گذاری درست و به موقع داشته باشند از فرصت های هوش مصنوعی در ساحت سیاست ییشتر بهره‌مند می شوند و بالعکس اگر در سرمایه گذاری صحیح، واقع بینانه و به موقع عمل نکنند، عمدتاً با تهدیدات و مخاطرات فناوری‌های هوش مصنوعی مواجه خواهند شد.

یکم. مسأله آزادی و عاملیت انسانی

هرچند حرکت هوش مصنوعی در یک مسیر درست و معقول می تواند در موارد فراوانی به بسط آزادی های فردی کمک کند اما در کل، نگرانی در باب به ضعف کشیده شدن آزادی های فردی، خودمختاری و عاملیت انسان توسط هوش مصنوعی، چیزی نیست که بتوان به راحتی از کنار آن گذشت. تهدید خودشکوفایی و خلاقیت که ثمره محدود شدن آزادی های فردی است و فراتر از آن، شکل گیری نوعی استعمارگری هوش مصنوعی یا بردگی رباتی مواردی است که باید نسبت به آنها فوق العاده حساس بود.  البته پاسخ به این پرسش مهم که چه کسی درباره هوش مصنوعی تصمیم خواهد گرفت؟ میزان نگرانی را مشخص می کند.

اگر هوش مصنوعی از سوی عوامل سودگرا یا سازمان های شرور مدیریت شود، فناوری های هوش مصنوعی که توسط دولت و شرکت های خصوصی استفاده می شوند ممکن است تأثیرگذاری نامتناسب بر حقوق بشر داشته باشند. علاوه بر این، فناوری هوش مصنوعی می تواند حریم خصوصی را نقض کند، چراکه حجم زیادی از داده های شخصی را بدون اجازه صاحبان آنها یا با اخذ اجازه‌های تشریفاتی و مبهم، جمع آوری و پردازش می کند. به تعبیری ظریف، فناوری های هوش مصنوعی قابلیت ایجاد زندگی آکواریومی را که فضای مجازی بوجود آورده است را چند برابر می‌کند. همچنین فناوری هوش مصنوعی می تواند پیامدهای مهمی بر حق آزادی عقیده و بیان داشته باشد، چراکه می تواند بر انتشار و دسترسی به ایده ها و عقاید تأثیر بگذارد.

دوم. فناوری هوش مصنوعی و تکثرگرایی سیاسی

یک جامعه مادامی از جهت سیاست سالم و طبیعی تلقی می شود که اجازه بروز و ظهور تنوع و تکثر سیاسی را بدهد و در عمل مانع آن نشود. فناوری هوش مصنوعی هم می تواند به گسترش تنوع و تکثر سیاسی مدد برساند و هم می تواند مبتنی بر الگوریتم های خاص، به سمت یکدست سازی سیاسی یا مانع تراسی های آشکار و پنهان برای ظهور تکثرات سیاسی حرکت کند.

سوم. مسأله برابری و عدالت: سوگیری و تبعیض در هوش مصنوعی

قبل از هر چیز باید دانست که هوش مصنوعی، به‌لحاظ سیاسی، خنثی نیست و سوگیری دارد. حتی نباید از بیان این مطلب ابایی داشت که هوش مصنوعی به‌خودی‌خود جایگاه سیاسی دارد. در این میان، انگیزه های شرکت های بزرگ مدیریت کننده هوش مصنوعی که اغلب در غرب هستند می تواند با استقرار استانداردهای غربی، زمینه تبعیض را ایجاد کند.  البته صرف نظر از تقسیم بندی های فرهنگی، بعضی از کارشناسان معتقدند که فناوری‌های هوش مصنوعی به دلیل اتکا و بهره‌گیری از داده های تاریخی و امکان بالقوه سوگیری الگوریتمی به طور طبیعی منجر به نتایج ناعادلانه خواهند شد. مثلاً در سال‌های اخیر فرایند یادگیری برخی از الگوریتم‌های هوش مصنوعی به شیوه‌ای بوده که نسبت به سیاه‌پوستان سوگیری داشته است؛ کم نبوده مواردی که پلیس با استفاده از سامانه‌های تشخیص چهره هوش مصنوعی، به‌اشتباه، یک فرد سیاه‌پوست را به‌جای یک فرد سیاه‌پوست دیگر دستگیر کرده است.

از سوی دیگر، ربات‌های هوش مصنوعی می‌توانند از طریق گسترش وسیع بیکاری، به نابرابری و بی‌عدالتی در جامعه دامن بزنند. برای نمونه، اگر ربات‌های هوش مصنوعی بسیاری از کارها را سامان دهند و نیازی به استفاده از نیروی کار انسانی نباشد، آیا این مسئله نابرابری‌های اجتماعی را تشدید نمی‌کند؟ من اخیراً سخنان قائم مقام شرکت مایکروسافت را می شنیدم که می گفت تا 45 درصد از مشاغل در آینده از سوی هوش مصنوعی تسخیر می شود. البته هوش مصنوعی می تواند مشاغل جدیدی را نیز خلق کند اما معلوم نیست لزوماً این مشاغل جایگزین کننده حجم بالای بیکاری های ناشی از هوش مصنوعی باشد با این ملاحظه که در یک مدت زمان نسبتاً طولانی، امکان شکل گیری مشاغل تازه بواسطه رواج فناوری های هوش مصنوعی وجود ندارد.

البته روشن است که در کنار دامن زدن هوش مصنوعی به تبعیض و بی عدالتی، حتماً از هوش مصنوعی می توان در جهت استقرار و بسط عدالت خصوصاً عدالت توزیعی به بهترین نحو بهره برد و لذا باز این پرسش مطرح می شود که چه کسانی درباره هوش مصنوعی تصمیم خواهند گرفت و منطق آنها برای تصمیم گیری چه خواهد بود؟

چهارم. مسأله ملت- دولت

هر چند دولت‌ها به طور فزاینده‌ و در رقابت با یکدیگر از هوش مصنوعی برای اهداف ملی استفاده می‌کنند، اما روشن است که هوش مصنوعی می تواند آثار جهانی‌شدن معطوف به کوچک تر شدن و کم اختیارتر شدن دولت ها را به صورت مضاعفی افزایش دهد. به بیان دیگر، هوش مصنوعی می تواند بیش از پیش قدرت های جهانی که در قامت شرکت های غول چند‌ملیتی و ارائه دهندگان سرویس های جهانی در فضای مجازی ظاهر شده اند را به جای دولت ها بنشاند. از سوی دیگر، ملت ها نیز با تقویت جهانی‌شدن هویت و تشخص خاص خود را ضعیف شده دیده و خواسته و یا ناخواسته در یک جامعه جهانی بزرگ با قواعد نسبتاً مشترک هضم شده زیست خواهند کرد که همه آنها تضعیف کشور به معنای دقیق کلمه می شود.

در کنار تضعیف ملت- دولت، نباید از قابلیت فناوری هوش مصنوعی در توسعه ملی گرایی افراطی و حتی فاشیسم  هم غافل شد. در واقع، فناوری‌های هوش مصنوعی می‌توانند خواسته یا ناخواسته تعصبات اجتماعی را به دلیل داده‌های آموزشی مغرضانه یا طراحی الگوریتمی، تقویت کنند.

پنجم. مسأله قدرت و مردم‌سالاری

آیا می توان اطمینان حاصل کرد که سیستم‌های هوش مصنوعی مسئولانه و به گونه‌ای توسعه می‌یابند که نه خود به عنصر مهارناپذیر قدرت بدل شود و نه بسترهای سوء استفاده پنهان و آشکار از قدرت را بوجود آورند؟ واقعیت این است که توسعه هوش مصنوعی توسط تعداد کمی از شرکت ها و دولت های بزرگ می تواند منجر به تمرکز قدرت و مهارناپذیری آن شود.

این درست است که فناوری های هوش مصنوعی می‌توانند به مردم کمک کنند تا درک بهتری از سیاست داشته باشند و راحت تر در فرآیندهای مردم سالاری مشارکت کنند. همچنین می‌توانند به حکمرانان کمک کنند تا با نزدیک‌تر شدن به مردم و درک نیازهای آنها، نماینده‌ بهتری برای آنها باشند. باز از جنبه مثبت، هوش مصنوعی می‌تواند با تسهیل گفت‌وگو بین سیاستمداران و شهروندان به بهبود فرآیندهای دموکراتیک کمک کند، عناصری از دموکراسی مستقیم را برای تکمیل نظام نمایندگی، و امکان استفاده بهتر از داده‌های شهروندان برای گسترش خدمات عمومی و حمایت از مردم، بهتر از قبل وارد میدان کند.

اما این یک روی سکه است. روی دیگر سکه این است که فناوری هوش مصنوعی می‌تواند ضمن پیوند با علوم شناختی و با انتشار هوشمند اطلاعات نادرست و سمّی، سرمایه اجتماعی که از آن به اتاق پژواک و عوام‌فریبی هم تعبیر شده است، به ویژه اعتماد به دولت ها را تضعیف کند و سیاستمداران را در عرصه‌های گوناگون به چالش بکشد یا هوش مصنوعی را می توان به ‌مثابه تهدیدی برای مشارکت مبتکرانه و مردم‌سالاری شورایی و مشارکتی در نظر گرفت.

شاید نظریه فوکودرباره قدرت می تواند در اینجا اینگونه و در قالب یک پرسش ترجمه شود که باید دید هوش مصنوعی چگونه ما را مادون خودش و به سوژه تبدیل می‌کند؟ علاوه بر این، جای انطباق بحث های هوش مصنوعی و خودکامگی که هانا آرنت از آن به ابتذال شر تعبیر می کرد، وجود دارد کما اینکه برخی با توسل به مفهوم «ابتذال شر» هانا آرنت بیان می‌کنند که هوش مصنوعی می‌تواند با نقش نظارتی خود شیوه‌های خودکامگی را در جامعه ایجاد یا بازتولید کند.

ششم. هوش مصنوعی، کنترل اجتماعی مخرب و مهندسی مغز

جای تردیدی نیست که فناوری های هوش مصنوعی علاوه بر نظم‌دهی بسیار دقیق، می تواند سطح نظارت بر جامعه را به نحو غیرقابل وصفی گسترش دهد. از این نظارت ها به کنترل اجتماعی به مدد هوش مصنوعی تعبیر می شود که برای آن هم می توان جنبه های مثبت و هم جنبه های منفی و هراسناک در نظر گرفت.

فناوری‌های هوش مصنوعی، ظرفیت های فراوانی برای ایجاد کنترل اجتماعی مخرب را دارند که منجر به نگرانی در مورد تأثیر آن بر آزادی فردی شده و به طور بالقوه نظام‌های سیاسی استبدادی و تمامیت‌خواه را تقویت کنند. من اخیراً تصاویری از قدرت چین در استفاده از فناوری هوش مصنوعی در جهت کنترل بیشتر اجتماعی می دیدم که خیلی خوفناک بود.

از این وضعیت می توان به این شکل روایت کرد که هوش مصنوعی گفتار و رفتار شهروندان و حتی حرکات و سکنات آن در معابر عمومی و غیره را بدون آنکه چیزی از قلم بیفتد پایش و در مواردی حتی دست‌کاری می‌کنند. حتی می توان گفت که غول‌های فناوری قادرند با استفاده از الگوریتم‌های هوش مصنوعی به شیوه‌ای نوین ما را استعمار کنند بدین صورت که از داده‌هایی که در فضای مجازی و شبکه‌های اجتماعی تولید می‌کنیم برای مقاصد گوناگونی بهره ببرند و صرفاً ما را به کارگرانی دیجیتال تبدیل کنند.

در کنار این ها من مایلم یک باب دیگر را نیز در اینجا باز کنم با عنوان مهندسی مغز. مهندسی مغز یعنی استفاده هوش مصنوعی از علوم شناختی در جهت نهادینه سازی نوعی تنظیمات شبه استبدادی در مغز انسان که بتواند فرد را در یک مسیر مشخص و البته دلخواه مراکز قدرت جلو ببرد که در جای خود قابل بحث است.

هفتم. فناوری هوش مصنوعی و پساانسان‌گرایی و تراانسان‌گرایانه

پساانسان‌گرایان این پرسش را مطرح می‌کنند که آیا باید برای ربات‌های هوش مصنوعی هم جایگاهی سیاسی قائل شویم و به عبارتی آن‌ها را هم جزئی از مردم محسوب کنیم؟ تراانسان‌گرایان هم به‌نوبه خود این مسئله را مطرح می‌کنند که در آینده‌ای نه چندان دور عامل‌های هوش مصنوعی بر انسان مسلط می‌شوند و با ظهور موجودات ابرهوشمند زمام تمام امور بشری را در اختیار می‌گیرند. کوکلبرگ نقادانه این مسائل و دلالت‌های سیاسی آن‌ها مانند ازدست‌رفتن مردم‌سالاری و آزادی را ارزیابی می‌کند. همچنین، به این مطلب مهم اشاره می‌کند که فلسفه فناوری -در بحث فعلی ما، فلسفه هوش مصنوعی- و فلسفه سیاسی رابطه‌ای دوسویه دارند و به پیشرفت یکدیگر کمک می‌کنند.

در بیانی دیگر، از جهت علمی، همیشه می توان منتظر بود فناوری‌های هوش مصنوعی به دلیل پیچیدگی و عدم نظارت انسانی، رفتارهای غیرمنتظره ای از خود نشان دهند یا تصمیماتی با عواقب پیش بینی نشده اتخاذ کنند. می دانید که حتی کسانی از جمله ایلان ماسک، در مورد خطرات هوش مصنوعی، مانند نابودی تمدن و شکل گیری ابر هوش که ممکن است با ارزش‌های انسانی در تضاد باشد، هشدار داده‌اند. البته ایده فرا انسان گرایی در منظر بعضی، شامل اندام ها و مغزهای جایگزین بی نهایت متصل به اینترنت است، که برآیند آن خارج شدن هوش مصنوعی از کنترل انسانها و سلطه هوش مصنوعی بر انسان است. همچنین تراانسان گرایی “سخت افزاری” به دنبال بارگذاری ذهن در رایانه ها است. شرایطی که در آن انسان ها با ماشین ها ادغام می شوند.

به هر حال، هرگونه تلقی‌ای از فرانسان‌گرایی و تراانسان‌گرایی داشته باشیم، ایندو سؤالات اخلاقی، اجتماعی و فلسفی پیچیده ای را در مورد آینده بشریت و پیامدهای بالقوه فناوری های هوش مصنوعی فراتر از توانایی های انسانی کنونی ایجاد می کند.

هشتم. فناوری هوش مصنوعی و مسأله جنگ و صلح

جدای از تاثیرات چشم گیر فناوری‌های هوش مصنوعی در تولید انواع سلاح های کشتار جمعی و از همه ‌مهم تر، تبدیل هوش مصنوعی به سلاحی خود‌بسنده و رها برای جنگ با انسان‌ها، فناوری‌های هوش مصنوعی این قابلیت را دارند که بر امنیت ملی و بین‌المللی به طرق مختلف، حتی از مقابله تا گسترش تروریسم تأثیر بگذارند. همه این ها در حالی است که فناوری‌های هوش مصنوعی در خلال جنگ ها می‌توانند تشخیص‌ها و پیش‌بینی‌های نادرستی هم انجام دهند، که این‌ تشخیص‌ها و پیش بینی ها به خلق رویدادهای فاجعه‌بار در جوامع انسانی و کل جهان بینجامد. آنچه مسلم‌ است، بهره‌گیری از هوش مصنوعی چه توسط بازیگران سایبری دولتی و چه غیر دولتی اعم از شناخته‌ شده یا ناشناخته، یک نگرانی جدی است.

نهم. فناوری هوش مصنوعی و تقویت شمال و جنوب

این مطلب کاملاً روشن است که توسعه فناوری های هوش مصنوعی در بستر هایتک و فناوری های نو یا دیجبتال شکل می گیرد که ایجاد بسترهای سخت افزاری و نرم افزاری چه برای گسترش آنها و چه برای بهره برداری از آنها هزینه های سنگینی را به دنبال دارد. همین گرانی سرمایه گذاری موجب می شود تا بعضی کشورهای ثروتمند و شرکت های عظیمی که در آن کشورها استقرار دارند، نه تنها تصمیم گیر اساسی برای هوش مصنوعی متناسب با منافع خود باشند، بلکه در عرصه بهره برداری نیز کشورهای ثرونمند بیشترین نفع را از هوش مصنوعی ببرند و همین امر است که می تواند شکاف شمال و جنوب در جهان امروز را به شدت تشدید کند.

دهم. محیط زیست و آینده کره زمین

هوش مصنوعی می تواند با تصمیم گیری و مدیریت صحیح به عاملی موثر برای جلوگیری از طمع ورزی ها، مصرف زدگی‌ها و اسراف گسترده در بهره‌کشی از طبیعت مبتنی بر تعهد اخلاقی به نسل های بعدی باشد. اما این یک روی سکه است. روی دیگر سکه این است که هوش مصنوعی بیش از گذشته به بهره‌کشی مفرطانه و نامتعادل از طبیعت کمک نموده و زمینه تخریب محیط زیست و عدم امکان حیات نسل های آینده در این کره خاکی را به مراتب بیشتر مهیا کنند.

جمع بندی :

بنا بر آنچه بیان شد، هوش مصنوعی در کنار مزیت ها و فرصت هایی که در ساحت سیاست ایجاد خواهد کرد، مشکلات و تهدیدات زیادی را نیز بوجود خواهد آورد. البته چنانچه در ابتدای عرایضم اشاره کردم، من در کل، به آینده هوش مصنوعی خوش بینی دارم و معتقدم زنده بودن فطرت انسانی می تواند جلوی خیلی از مخاطرات فناوری های هوش مصنوعی را بگیرد اما در عین حال، تاکید دارم که این جنس خوش بینی‌ها، نباید ما را به سمت بی خیالی و رها کردن نگرانی هایی که به بعضی از مصادیق آنها پرداختیم، سوق بدهد. من معتقدم در شرایط فعلی، باید با توسعه ارتباطات و گفتگوهای نخبگانی و ایده پردازی‌های مشترک، به طور جدی فرصت تعاملات و هم افزایی جهانی برای افزایش فرصت ها و کاهش تهدیدهای فناوری های هوش مصنوعی را دائماً خلق کنیم.

از توجه شما عزیزان سپاسگزارم.

https://r-gholami.ir/?p=3461