- هامون ایران - https://www.hamooniran.ir -

چالش‌های اخلاقی هوش مصنوعی، آیا آینده را می‌توان مهار کرد؟

چالش‌های اخلاقی هوش مصنوعی

آیا آینده را می‌توان مهار کرد؟

 

محمدرضا واعظ شهرستانی

پژوهشگر فلسفه در دانشگاه بن آلمان

 

هوش مصنوعی به سرعت در حال تغییر جهان است، اما همراه با تمام پیشرفت‌هایی که به ارمغان آورده، چالش‌های جدیدی نیز پدید آمده که نمی‌توان آن‌ها را نادیده گرفت. از حریم خصوصی تا امنیت، از اشتغال تا تبعیض، به نظر می‌رسد زندگی روزمره ما دیگر هرگز مانند گذشته نخواهد بود. اما این چالش‌ها دقیقا چه هستند؟

 

وقتی دیگر حریم خصوصی معنایی ندارد:

هوش مصنوعی به داده نیاز دارد و چه داده‌ای مهم‌تر ازاطلاعات شخصی ما؟ ما معمولا بدون اینکه متوجه باشیم، اجازه می‌دهیم داده‌هایمان جمع‌آوری شوند، اما این همیشه بی‌خطرنیست.شاید شما هم گاهی حس کرده‌اید که دستیار صوتی گوشی شمامثل Siri یا Google Assistant به مکالماتتان گوش می‌دهد. مثلا یک‌بار در مورد خرید کفش صحبت کرده‌اید و چند دقیقه بعد تبلیغ همان برند در اینستاگرام نمایش داده شده! در واقع، هوش مصنوعی به کمک میکروفون و داده‌هایی که ذخیره می‌کند، تبلیغات را هدفمند می‌سازد. اما این سوال پیش می‌آید: آیا او همیشه در حال شنود است؟ (۱)

همچنین، اگر در شهرهایی مثل لندن یا پکن زندگی کنید، احتمالا متوجه می‌شوید که دوربین‌های نظارتی همه‌جا هستند. این سیستم‌ها، که با کمک هوش مصنوعی کار می‌کنند، قادرند چهره افراد را تشخیص دهند و حتی فعالیت‌های آنها را ردیابی کنند. حالا تصور کنید دولت از این فناوری برای کنترل رفتار مردم استفاده کند، مثلا اگر در یک تظاهرات شرکت کنید، فردا ممکن است از کارتان اخراج شوید.

 

وقتی هوش مصنوعی ناعادلانه رفتار می‌کند:

ما فکر می‌کنیم که ماشین‌ها بی‌طرف هستند، اما در واقعیت، آنها فقط آن‌چه را که به آنها داده شده پردازش می‌کنند. اگر داده‌ها مغرضانه باشند، تصمیم‌های هوش مصنوعی هم مغرضانه خواهند بود.

در سال ۲۰۱۴، شرکت آمازون پروژه‌ای را آغاز کرد تا با استفاده از هوش مصنوعی، فرآیند بررسی و امتیازدهی به رزومه‌های متقاضیان شغلی را خودکار کند. این سیستم به رزومه‌ها از یک تا پنج ستاره امتیاز می‌داد. با این حال، در سال ۲۰۱۵، آمازون متوجه شد که این سیستم به‌طور سیستماتیک به رزومه‌های زنان برای مشاغل فنی مانند برنامه‌نویسی امتیاز کمتری می‌دهد. دلیل این مساله آن بود که مدل‌های رایانه‌ای آمازون بر اساس رزومه‌های ارسال‌شده در ۱۰‌سال گذشته آموزش دیده بودند که بیشتر توسط مردان ارایه شده بودند. این موضوع باعث شد سیستم به‌طور ناعادلانه‌ای متقاضیان مرد را ترجیح دهد. با وجود تلاش‌های آمازون برای اصلاح این سیستم، تضمینی برای حذف کامل تبعیض وجود نداشت؛ بنابراین، این پروژه در نهایت متوقف شد. (۲)

به‌علاوه، تحقیقات نشان داده که برخی از سیستم‌های تشخیص چهره، در شناسایی افراد سیاه‌پوست خطاهای بیشتری دارند. این اتفاق می‌تواند نتایج خطرناکی داشته باشد، مثلا در فرودگاه‌ها، پلیس به اشتباه فردی بی‌گناه را به جای یک مجرم تحت تعقیب دستگیر کند.

 

وقتی نمی‌دانید چرا رد شده‌اید:

بعضی از الگوریتم‌های هوش مصنوعی مانند یک جعبه سیاه عمل می‌کنند. شما نمی‌دانید که چگونه تصمیم می‌گیرند، اما زندگی شما را تحت تأثیر قرار می‌دهند. تصور کنید که برای دریافت وام به بانک مراجعه می‌کنید. هوش مصنوعی اطلاعات مالی شما را بررسی می‌کند و درخواست شما را رد می‌کند، اما شما هیچ ایده‌ای ندارید که چرا!آیا به خاطر یک پرداخت دیرهنگام است؟ به خاطر محل زندگی‌تان؟ بدون شفافیت، امکان اعتراض وجود ندارد. برخی دانشگاه‌ها از هوش مصنوعی برای بررسی درخواست‌های دانشجویی استفاده می‌کنند. اما اگر سیستم تصمیم بگیرد که شما واجد شرایط نیستید، هیچ راهی برای فهمیدن علت آن ندارید. شاید سیستم به اشتباه تشخیص داده که نمرات شما کم‌تر از حد انتظار است.

 

وقتی ماشین‌ها بیش از حد مستقل می‌شوند:

ما در حال ساخت سیستم‌هایی هستیم که بدون دخالت انسان تصمیم می‌گیرند، اما آیا کنترل آنها همیشه در دست ما خواهد بود؟ در سال ۲۰۱۸، یک خودروی خودران اوبر در حال حرکت بود که یک عابر پیاده را تشخیص نداد و با او برخورد کرد. چه کسی مقصر بود؟ مهندسانی که نرم‌افزار را طراحی کرده بودند؟ راننده‌ای که پشت فرمان بود اما به ماشین اعتماد داشت؟ یا شاید خود ماشین؟ (۳)

کشورهای مختلف در حال توسعه ربات‌های نظامی هستند که می‌توانند بدون نیاز به فرمان انسانی، اهداف خود را انتخاب و نابود کنند. اما اگر این ماشین‌ها اشتباه کنند و افراد غیرنظامی را هدف بگیرند، چه کسی پاسخگو خواهد بود؟

 

وقتی شغل شما به خطر می‌افتد:

اتوماسیون باعث حذف بسیاری از شغل‌ها شده است. برخی افراد می‌توانند خود را با تغییرات وفق دهند، اما بسیاری دیگر ممکن است از کار بیکار شوند. در برخی فروشگاه‌ها، دیگر نیازی به صندوقدار نیست؛ شما می‌توانید محصولات را‌بردارید و بدون ایستادن در صف، از فروشگاه خارج شوید، چون سیستم‌های مجهز به هوش مصنوعی خودشان خرید شما را تشخیص می‌دهند. بسیاری از شرکت‌ها دیگر نیازی به پشتیبان‌های انسانی ندارند، زیرا چت‌بات‌های هوشمند می‌توانند به سرعت و بدون وقفه به مشتریان پاسخ دهند. اما این بدان معناست که هزاران شغل در این صنعت از بین رفته است.

 

وقتی نمی‌توانید به چیزی که می‌بینید اعتماد کنید:

فناوری‌های جدید باعث شده‌اند که مرز بین واقعیت و جعل به‌شدت کمرنگ شود. دیپ‌فیک‌ها و محتوای جعلی، تهدیدی جدی برای دنیای دیجیتال هستند و می‌توانند اطلاعات غلط را در مقیاس وسیع گسترش دهند.

در سال ۲۰۱۸، یک ویدیوی دیپ‌فیک از باراک اوباما منتشر شد که به نظر می‌رسید او در حال بیان نظراتی است که در واقع هرگز نگفته بود. این ویدیو برای نشان دادن قدرت فناوری دیپ‌فیک ساخته شده بود، اما نشان داد که چگونه هوش مصنوعی می‌تواند حقیقت را تغییر دهد و افکار عمومی را تحت تأثیر قرار دهد. (۴)

در سال ۲۰۱۹، مدیر یک شرکت بریتانیایی قربانی حمله سایبری شد که در آن مجرمان از یک الگوریتم تقلید صدا استفاده کردند تا صدای مدیرعامل شرکت مادر او را شبیه‌سازی کنند. آنها با استفاده از این فناوری، از او خواستند که مبلغ زیادی را به یک حساب بانکی منتقل کند. او بدون شک به این «دستور » اعتماد کرد و پول را انتقال داد، اما بعدا مشخص شد که این یک کلاهبرداری پیچیده بوده است. (۵)

 

و اگر روزی هوش مصنوعی احساسات داشته باشد؟

اگر روزی هوش مصنوعی به سطحی از آگاهی برسد، آیا باید حقوقی برای آن قائل شویم؟ آیا خاموش کردن یک سیستم آگاه، شبیه به پایان دادن به زندگی یک موجود زنده خواهد بود؟ این پرسش‌های فلسفی و اخلاقی ممکن است در آینده‌ای نه چندان دور، بسیار جدی شوند.

در ژوئن ۲۰۲۲، بلیک لموین، مهندس گوگل، ادعا کرد که مدل زبانی LaMDA این شرکت به آگاهی و شعور دست یافته است. این ادعا پس از آن مطرح شد که لموین در تعاملات خود با LaMDA، پاسخ‌هایی دریافت کرد که به نظر می‌رسید نشان‌دهنده درک و احساسات انسانی است. لموین این موضوع را با مدیران گوگل در میان گذاشت، اما شرکت این ادعاها را رد کرد و اعلام کرد که شواهد کافی برای اثبات آگاهی LaMDA وجود ندارد. در پی این ماجرا، لموین به مرخصی اداری با حقوق فرستاده شد و در نهایت در ژوئیه ۲۰۲۲ از شرکت اخراج شد.

این رویداد بحث‌های گسترده‌ای در جامعه علمی درباره آگاهی مصنوعی و معیارهای سنجش آن برانگیخت. بسیاری از متخصصان حوزه هوش مصنوعی، ادعاهای لموین را رد کرده و معتقدند که مدل‌های زبانی مانند LaMDA، صرفا بر اساس الگوهای آماری عمل می‌کنند و فاقد درک و آگاهی واقعی هستند. (۶)

همچنین، ربات‌های انسان‌نما مانند Sophia که توسط شرکت Hanson Robotics توسعه یافته‌اند، قادرند حالات چهره انسان را تقلید کنند و مکالمات پیچیده داشته باشند. برخی حتی معتقدند که در آینده ممکن است این ربات‌ها احساساتی شبیه به انسان تجربه کنند. اگر روزی یک ربات مدعی شود که رنج می‌برد، آیا ما وظیفه اخلاقی داریم که به او کمک کنیم؟ (۷)

 

آیا آینده هوش مصنوعی را می‌توان کنترل کرد؟

چالش‌های اخلاقی هوش مصنوعی هر روز پیچیده‌تر می‌شوند. این فناوری، علی‌رغم همه مزایای خود، می‌تواند به مشکلات جدی مانند نقض حریم خصوصی، تبعیض، عدم شفافیت، از بین رفتن کنترل انسانی، بیکاری گسترده، حملات امنیتی، جعل اطلاعات، و حتی احتمال خودآگاهی هوش مصنوعی منجر شود. برای مقابله با این چالش‌ها، باید قوانین و مقررات سخت‌گیرانه‌تری در زمینه توسعه و استفاده از هوش مصنوعی وضع شود. علاوه بر آن، توسعه هوش مصنوعی باید با نظارت مستمر و اصول اخلاقی همراه باشد تا اطمینان حاصل شود که این فناوری در خدمت بشریت باقی می‌ماند. اما آیا ما واقعا قادر خواهیم بود هوش مصنوعی را در چارچوب‌های اخلاقی مهار کنیم؟ یا این فناوری به مسیری غیرقابل‌کنترل پیش خواهد رفت؟ پاسخ این پرسش، آینده بشریت را تعیین خواهد کرد.

 

منابع

۱- Secure Data Recovery, “Smart Device Privacy Concerns: Are Your Devices Spying on You? “, Secure Data Recovery Blog, 2023

۲- Jeffrey Dastin, “Amazon scraps secret AI recruiting tool that showed bias against women, “ Reuters, 2018.

۳- Puneet Kohli and Anjali Chadha, “Enabling Pedestrian Safety using Computer Vision Techniques: A Case Study of the 2018 Uber Inc. Self-driving Car Crash, “ arXiv, 2018.

۴- Chesney, R. & Citron, D., “Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, “ California Law Review, 2019.

۵- Newman, L., “A Voice Deepfake Was Used to Scam a CEO Out of $243,000, “ Wired, 2019.

۶- Metz, C., “Google Engineer Claims AI Chatbot Is Sentient, “ The New York Times, 2022.

۷- Gunkel, D. J., “The Machine Question: Critical Perspectives on AI, Robots, and Ethics, “ MIT Press, 2012.