OpenAI وارد حوزهای پیچیده شده و در حال سرمایه گذاری روی تحقیقاتی با موضوع «اخلاق هوش مصنوعی» است. طبق اطلاعاتی که از طریق پروندهای در سازمان مالیاتی آمریکا (IRS) و با گزارش TechCrunch منتشر شده، بخش غیرانتفاعی OpenAI به پژوهشگران دانشگاه دوک کمک مالی کرده تا پروژهای با عنوان «تحقیق در مورد اخلاق هوش مصنوعی» را پیش ببرند. این پروژه بخشی از یک ابتکار بزرگتر است که در طی سه سال مبلغ ۱ میلیون دلار برای مطالعه راهکارهایی جهت آگاه سازی اخلاقی هوش مصنوعی اختصاص داده است.
این پروژه توسط والتر سینوت-آرمسترانگ، استاد اخلاق عملی، و جانا شیچ بورگ هدایت میشود. هر دو از متخصصان شناخته شده در زمینه تصمیم گیری اخلاقی توسط هوش مصنوعی هستند. سینوت-آرمسترانگ یکی از نامهای برجسته در حوزه فلسفه است و در زمینههایی مانند اخلاق کاربردی، روان شناسی اخلاقی و علوم اعصاب فعالیت میکند. تیم او در دانشگاه دوک روی مسائل اخلاقی واقعی کار کردهاند، از جمله طراحی الگوریتمهایی که تعیین میکنند چه کسی باید پیوند اعضا دریافت کند. در این پروژه، دیدگاههای عمومی و تخصصی بررسی میشوند تا عدالت سیستمها بهبود یابد.
پروژهای که با کمک مالی OpenAI اجرا میشود، به دنبال ایجاد الگوریتمهایی است که بتوانند قضاوتهای اخلاقی انسان را در حوزههایی مانند پزشکی، حقوق و تجارت پیش بینی کنند. هرچند ایده امیدوارکنندهای است، اما تجربه نشان میدهد که این کار چالشهای زیادی دارد. به عنوان نمونه، پروژه Ask Delphi از مؤسسه Allen AI با هدف ارائه پاسخهای اخلاقی طراحی شده بود. این ابزار توانایی حل مسائل ساده را داشت، اما به راحتی با تغییرات جزئی در بیان سوالات به پاسخهای غیراخلاقی سوق داده میشد.
مشکل اصلی به نحوه عملکرد هوش مصنوعی برمیگردد: مدلهای یادگیری ماشینی نتایج را بر اساس دادههای آموزشی پیش بینی میکنند که این دادهها اغلب تعصبات فرهنگهای غالب را بازتاب میدهند. این مسئله باعث نگرانیهای بزرگی شده که آیا هوش مصنوعی میتواند واقعاً «اخلاقی» باشد؟ به ویژه زمانی که اخلاق در جوامع مختلف متفاوت است و چارچوبهای پذیرفته شده جهانی ندارد.
اینکه هوش مصنوعی بتواند به طور معناداری با ارزشهای انسانی هماهنگ شود—یا حتی اینکه آیا باید این کار را انجام دهد—هنوز یک سوال باز است. اما اگر این تلاش به نتیجه برسد، میتواند تأثیرات عمیقی بر اعتماد ما به ماشینها در تصمیم گیریهای اخلاقی بگذارد. فعلاً دنیا باید تا سال ۲۰۲۵، زمانی که این کمک هزینه پایان مییابد، منتظر بماند تا ببیند آیا پروژه «اخلاق هوش مصنوعی» به پیشرفت چشمگیری دست یافته است یا خیر.