چالشهای اخلاقی هوش مصنوعی
آیا آینده را میتوان مهار کرد؟
محمدرضا واعظ شهرستانی
پژوهشگر فلسفه در دانشگاه بن آلمان
هوش مصنوعی به سرعت در حال تغییر جهان است، اما همراه با تمام پیشرفتهایی که به ارمغان آورده، چالشهای جدیدی نیز پدید آمده که نمیتوان آنها را نادیده گرفت. از حریم خصوصی تا امنیت، از اشتغال تا تبعیض، به نظر میرسد زندگی روزمره ما دیگر هرگز مانند گذشته نخواهد بود. اما این چالشها دقیقا چه هستند؟
وقتی دیگر حریم خصوصی معنایی ندارد:
هوش مصنوعی به داده نیاز دارد و چه دادهای مهمتر ازاطلاعات شخصی ما؟ ما معمولا بدون اینکه متوجه باشیم، اجازه میدهیم دادههایمان جمعآوری شوند، اما این همیشه بیخطرنیست.شاید شما هم گاهی حس کردهاید که دستیار صوتی گوشی شمامثل Siri یا Google Assistant به مکالماتتان گوش میدهد. مثلا یکبار در مورد خرید کفش صحبت کردهاید و چند دقیقه بعد تبلیغ همان برند در اینستاگرام نمایش داده شده! در واقع، هوش مصنوعی به کمک میکروفون و دادههایی که ذخیره میکند، تبلیغات را هدفمند میسازد. اما این سوال پیش میآید: آیا او همیشه در حال شنود است؟ (۱)
همچنین، اگر در شهرهایی مثل لندن یا پکن زندگی کنید، احتمالا متوجه میشوید که دوربینهای نظارتی همهجا هستند. این سیستمها، که با کمک هوش مصنوعی کار میکنند، قادرند چهره افراد را تشخیص دهند و حتی فعالیتهای آنها را ردیابی کنند. حالا تصور کنید دولت از این فناوری برای کنترل رفتار مردم استفاده کند، مثلا اگر در یک تظاهرات شرکت کنید، فردا ممکن است از کارتان اخراج شوید.
وقتی هوش مصنوعی ناعادلانه رفتار میکند:
ما فکر میکنیم که ماشینها بیطرف هستند، اما در واقعیت، آنها فقط آنچه را که به آنها داده شده پردازش میکنند. اگر دادهها مغرضانه باشند، تصمیمهای هوش مصنوعی هم مغرضانه خواهند بود.
در سال ۲۰۱۴، شرکت آمازون پروژهای را آغاز کرد تا با استفاده از هوش مصنوعی، فرآیند بررسی و امتیازدهی به رزومههای متقاضیان شغلی را خودکار کند. این سیستم به رزومهها از یک تا پنج ستاره امتیاز میداد. با این حال، در سال ۲۰۱۵، آمازون متوجه شد که این سیستم بهطور سیستماتیک به رزومههای زنان برای مشاغل فنی مانند برنامهنویسی امتیاز کمتری میدهد. دلیل این مساله آن بود که مدلهای رایانهای آمازون بر اساس رزومههای ارسالشده در ۱۰سال گذشته آموزش دیده بودند که بیشتر توسط مردان ارایه شده بودند. این موضوع باعث شد سیستم بهطور ناعادلانهای متقاضیان مرد را ترجیح دهد. با وجود تلاشهای آمازون برای اصلاح این سیستم، تضمینی برای حذف کامل تبعیض وجود نداشت؛ بنابراین، این پروژه در نهایت متوقف شد. (۲)
بهعلاوه، تحقیقات نشان داده که برخی از سیستمهای تشخیص چهره، در شناسایی افراد سیاهپوست خطاهای بیشتری دارند. این اتفاق میتواند نتایج خطرناکی داشته باشد، مثلا در فرودگاهها، پلیس به اشتباه فردی بیگناه را به جای یک مجرم تحت تعقیب دستگیر کند.
وقتی نمیدانید چرا رد شدهاید:
بعضی از الگوریتمهای هوش مصنوعی مانند یک جعبه سیاه عمل میکنند. شما نمیدانید که چگونه تصمیم میگیرند، اما زندگی شما را تحت تأثیر قرار میدهند. تصور کنید که برای دریافت وام به بانک مراجعه میکنید. هوش مصنوعی اطلاعات مالی شما را بررسی میکند و درخواست شما را رد میکند، اما شما هیچ ایدهای ندارید که چرا!آیا به خاطر یک پرداخت دیرهنگام است؟ به خاطر محل زندگیتان؟ بدون شفافیت، امکان اعتراض وجود ندارد. برخی دانشگاهها از هوش مصنوعی برای بررسی درخواستهای دانشجویی استفاده میکنند. اما اگر سیستم تصمیم بگیرد که شما واجد شرایط نیستید، هیچ راهی برای فهمیدن علت آن ندارید. شاید سیستم به اشتباه تشخیص داده که نمرات شما کمتر از حد انتظار است.
وقتی ماشینها بیش از حد مستقل میشوند:
ما در حال ساخت سیستمهایی هستیم که بدون دخالت انسان تصمیم میگیرند، اما آیا کنترل آنها همیشه در دست ما خواهد بود؟ در سال ۲۰۱۸، یک خودروی خودران اوبر در حال حرکت بود که یک عابر پیاده را تشخیص نداد و با او برخورد کرد. چه کسی مقصر بود؟ مهندسانی که نرمافزار را طراحی کرده بودند؟ رانندهای که پشت فرمان بود اما به ماشین اعتماد داشت؟ یا شاید خود ماشین؟ (۳)
کشورهای مختلف در حال توسعه رباتهای نظامی هستند که میتوانند بدون نیاز به فرمان انسانی، اهداف خود را انتخاب و نابود کنند. اما اگر این ماشینها اشتباه کنند و افراد غیرنظامی را هدف بگیرند، چه کسی پاسخگو خواهد بود؟
وقتی شغل شما به خطر میافتد:
اتوماسیون باعث حذف بسیاری از شغلها شده است. برخی افراد میتوانند خود را با تغییرات وفق دهند، اما بسیاری دیگر ممکن است از کار بیکار شوند. در برخی فروشگاهها، دیگر نیازی به صندوقدار نیست؛ شما میتوانید محصولات رابردارید و بدون ایستادن در صف، از فروشگاه خارج شوید، چون سیستمهای مجهز به هوش مصنوعی خودشان خرید شما را تشخیص میدهند. بسیاری از شرکتها دیگر نیازی به پشتیبانهای انسانی ندارند، زیرا چتباتهای هوشمند میتوانند به سرعت و بدون وقفه به مشتریان پاسخ دهند. اما این بدان معناست که هزاران شغل در این صنعت از بین رفته است.
وقتی نمیتوانید به چیزی که میبینید اعتماد کنید:
فناوریهای جدید باعث شدهاند که مرز بین واقعیت و جعل بهشدت کمرنگ شود. دیپفیکها و محتوای جعلی، تهدیدی جدی برای دنیای دیجیتال هستند و میتوانند اطلاعات غلط را در مقیاس وسیع گسترش دهند.
در سال ۲۰۱۸، یک ویدیوی دیپفیک از باراک اوباما منتشر شد که به نظر میرسید او در حال بیان نظراتی است که در واقع هرگز نگفته بود. این ویدیو برای نشان دادن قدرت فناوری دیپفیک ساخته شده بود، اما نشان داد که چگونه هوش مصنوعی میتواند حقیقت را تغییر دهد و افکار عمومی را تحت تأثیر قرار دهد. (۴)
در سال ۲۰۱۹، مدیر یک شرکت بریتانیایی قربانی حمله سایبری شد که در آن مجرمان از یک الگوریتم تقلید صدا استفاده کردند تا صدای مدیرعامل شرکت مادر او را شبیهسازی کنند. آنها با استفاده از این فناوری، از او خواستند که مبلغ زیادی را به یک حساب بانکی منتقل کند. او بدون شک به این «دستور » اعتماد کرد و پول را انتقال داد، اما بعدا مشخص شد که این یک کلاهبرداری پیچیده بوده است. (۵)
و اگر روزی هوش مصنوعی احساسات داشته باشد؟
اگر روزی هوش مصنوعی به سطحی از آگاهی برسد، آیا باید حقوقی برای آن قائل شویم؟ آیا خاموش کردن یک سیستم آگاه، شبیه به پایان دادن به زندگی یک موجود زنده خواهد بود؟ این پرسشهای فلسفی و اخلاقی ممکن است در آیندهای نه چندان دور، بسیار جدی شوند.
در ژوئن ۲۰۲۲، بلیک لموین، مهندس گوگل، ادعا کرد که مدل زبانی LaMDA این شرکت به آگاهی و شعور دست یافته است. این ادعا پس از آن مطرح شد که لموین در تعاملات خود با LaMDA، پاسخهایی دریافت کرد که به نظر میرسید نشاندهنده درک و احساسات انسانی است. لموین این موضوع را با مدیران گوگل در میان گذاشت، اما شرکت این ادعاها را رد کرد و اعلام کرد که شواهد کافی برای اثبات آگاهی LaMDA وجود ندارد. در پی این ماجرا، لموین به مرخصی اداری با حقوق فرستاده شد و در نهایت در ژوئیه ۲۰۲۲ از شرکت اخراج شد.
این رویداد بحثهای گستردهای در جامعه علمی درباره آگاهی مصنوعی و معیارهای سنجش آن برانگیخت. بسیاری از متخصصان حوزه هوش مصنوعی، ادعاهای لموین را رد کرده و معتقدند که مدلهای زبانی مانند LaMDA، صرفا بر اساس الگوهای آماری عمل میکنند و فاقد درک و آگاهی واقعی هستند. (۶)
همچنین، رباتهای انساننما مانند Sophia که توسط شرکت Hanson Robotics توسعه یافتهاند، قادرند حالات چهره انسان را تقلید کنند و مکالمات پیچیده داشته باشند. برخی حتی معتقدند که در آینده ممکن است این رباتها احساساتی شبیه به انسان تجربه کنند. اگر روزی یک ربات مدعی شود که رنج میبرد، آیا ما وظیفه اخلاقی داریم که به او کمک کنیم؟ (۷)
آیا آینده هوش مصنوعی را میتوان کنترل کرد؟
چالشهای اخلاقی هوش مصنوعی هر روز پیچیدهتر میشوند. این فناوری، علیرغم همه مزایای خود، میتواند به مشکلات جدی مانند نقض حریم خصوصی، تبعیض، عدم شفافیت، از بین رفتن کنترل انسانی، بیکاری گسترده، حملات امنیتی، جعل اطلاعات، و حتی احتمال خودآگاهی هوش مصنوعی منجر شود. برای مقابله با این چالشها، باید قوانین و مقررات سختگیرانهتری در زمینه توسعه و استفاده از هوش مصنوعی وضع شود. علاوه بر آن، توسعه هوش مصنوعی باید با نظارت مستمر و اصول اخلاقی همراه باشد تا اطمینان حاصل شود که این فناوری در خدمت بشریت باقی میماند. اما آیا ما واقعا قادر خواهیم بود هوش مصنوعی را در چارچوبهای اخلاقی مهار کنیم؟ یا این فناوری به مسیری غیرقابلکنترل پیش خواهد رفت؟ پاسخ این پرسش، آینده بشریت را تعیین خواهد کرد.
منابع
۱- Secure Data Recovery, “Smart Device Privacy Concerns: Are Your Devices Spying on You? “, Secure Data Recovery Blog, 2023
۲- Jeffrey Dastin, “Amazon scraps secret AI recruiting tool that showed bias against women, “ Reuters, 2018.
۳- Puneet Kohli and Anjali Chadha, “Enabling Pedestrian Safety using Computer Vision Techniques: A Case Study of the 2018 Uber Inc. Self-driving Car Crash, “ arXiv, 2018.
۴- Chesney, R. & Citron, D., “Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, “ California Law Review, 2019.
۵- Newman, L., “A Voice Deepfake Was Used to Scam a CEO Out of $243,000, “ Wired, 2019.
۶- Metz, C., “Google Engineer Claims AI Chatbot Is Sentient, “ The New York Times, 2022.
۷- Gunkel, D. J., “The Machine Question: Critical Perspectives on AI, Robots, and Ethics, “ MIT Press, 2012.