اگر آخر هفته گذشته آنلاین بودید، ممکن است با خبری عجیب درباره شخصی به نام «دیوید مایر» روبرو شده باشید. او نه به دلیل یک رویداد مهم یا لحظهای ویروسی در مرکز توجه قرار گرفت، بلکه به خاطر یک خطای عجیب در ChatGPT بحث برانگیز شد. کاربران به هر ترفندی که متوسل شدند، نمیتوانستند نام او را از چت بات بگیرند. چت بات یا وسط جمله متوقف میشد، پیام میداد که «مشکلی پیش آمده است» یا بطور کامل از پاسخ دادن امتناع میکرد. همین موضوع اینترنت را به یک موج حدس و گمان تبدیل کرد: «دیوید مایر» کیست و چرا ChatGPT او را نادیده میگیرد؟
این معما پیچیدهتر شد. نظریهها از معمولیترین حدسها تا تخیلات کاملاً عجیب گسترده بودند. برخی فکر میکردند مایر یک فرد عادی است که از حق قانونی خود برای «فراموش شدن» استفاده کرده است؛ قانونی در بریتانیا و اتحادیه اروپا که به افراد اجازه میدهد اطلاعات شخصی خود را از اینترنت حذف کنند. برخی دیگر به تئوریهای توطئه روی آوردند و تصور کردند که شاید او شخصی قدرتمند است، شاید حتی از خانواده مشهور «مایر دو روچیلد». اما دیوید مایر دو روچیلد به سرعت این ادعا را بیاساس خواند و خودش را از این ماجرا دور کرد.
شرکت OpenAI، سازنده ChatGPT، این موضوع را روشن کرد و توضیح داد که مشکل به GDPR یا درخواستهای شخصی مرتبط نیست، بلکه صرفاً یک «اشکال» است که به خاطر ابزار داخلی اشتباهی که نام مایر را پرچم گذاری کرده، به وجود آمده است.
این اولین بار نیست که ChatGPT دچار نقص میشود. پیشتر نیز این چت بات در درک طنز، اشتباه در تاریخها یا ارائه ادعاهای جسورانه ولی کاملاً اشتباه مشکل داشت (و گاهی هنوز هم این مشکلات را دارد). OpenAI همیشه این مسائل را به عنوان بخشی از «فرایند یادگیری» معرفی میکند—مشکلاتی که در سیستمی که از حجم عظیمی از دادهها آموزش میبیند، پیش میآید. آنها یک مشکل را برطرف میکنند، مسئله دیگری به وجود میآید و کاربران هم گاهی سرگرم و گاهی ناراحت میشوند.
البته این فقط مشکل ChatGPT نیست. دیگر ابزارهای هوش مصنوعی نیز اشتباهات خود را داشتهاند. مثلاً، خلاصه سازی جستجوی هوش مصنوعی گوگل یک بار پیشنهاد کرد که چسب زدن روی پیتزا یک «ترفند آشپزی» است. یا چت بات هوش مصنوعی بینگ که زمانی در پاسخ به سؤالات بیش از حد شخصی، دچار بحران وجودی شد.