در ماه فوریه ۲۰۲۳، زمانی که مایکروسافت برای اولین بار Copilot (که در آن زمان با نام Bing Chat شناخته میشد) را به صورت عمومی عرضه کرد، گزارش های زیادی در رسانه ها در مورد پاسخ های عجیب و غریب و خطاهای واقعی از این چت بات هوش مصنوعی ساخته شده بود. این پاسخ ها به سرعت به عنوان «توهم» برچسب گذاری شدند. چند روز پس از راه اندازی چت بات، مایکروسافت تصمیم گرفت محدودیت های سختی را برای تعداد نوبت های چت در هر جلسه و در هر روز اعمال کند تا توسعه دهندگان بتوانند میزان خطاها و پاسخ های عجیب و غریب کاربران را کاهش دهند. در حالی که مایکروسافت در نهایت از اکثر این محدودیت های نوبت چت خلاص شد، توهمات Copilot همچنان میتواند ظاهر شود. در یک پست جدید این هفته در وبلاگ Microsoft Source، این شرکت توضیح داد که چگونه این نوع خطاها با هوش مصنوعی ساخته شده و چگونه آنها برای کاهش این اتفاقات تلاش میکنند.
مایکروسافت میگوید توهمات به طور کلی در پاسخ های هوش مصنوعی به دلیل چیزی به نام محتوای «غیرمبتنی» ایجاد میشوند. این بدان معناست که مدل هوش مصنوعی به دلایلی داده هایی را که در مدل آن قرار داده شده است، تغییر یا اضافه میکند. در حالی که این میتواند برای پاسخ هایی که برای خلاقانه تر بودن طراحی شدهاند، مانند درخواست از چت باتی مانند Copilot یا ChatGPT برای نوشتن داستان، خوب باشد، کسب و کارها به مدل های هوش مصنوعی نیاز دارند که از داده های مبتنی بر واقعیت استفاده کنند تا بتوانند پاسخ های صحیح به سوالات بدهند. مایکروسافت میگوید روی ابزارهایی کار کرده است تا به مدل های هوش مصنوعی کمک کند تا با داده های مبتنی بر واقعیت همراه شوند. آنها اعلام کردند:
مهندسان شرکت ماه ها را صرف زمینه سازی مدل Copilot با داده های جستجوی بینگ از طریق تولید تقویت شده با بازیابی کردهاند، تکنیکی که دانش اضافی را بدون نیاز به آموزش مجدد به مدل اضافه میکند. پاسخ ها، فهرست و داده های رتبه بندی بینگ به Copilot کمک میکند تا پاسخ های دقیق تر و مرتبط تری همراه با استنادهایی ارائه دهد که به کاربران امکان میدهد اطلاعات را جستجو و تأیید کنند. مایکروسافت میگوید مشتریان خارجی آنها میتوانند به سرویس Azure OpenAI دسترسی داشته باشند و از ویژگی به نام «On Your Data» استفاده کنند که به کسب و کارها و سازمان ها امکان میدهد با برنامه های هوش مصنوعی خود به داده های داخلی خود دسترسی داشته باشند. همچنین یک ابزار دیگر برای زمان واقعی وجود دارد که مشتریان میتوانند از آن برای تشخیص میزان مبتنی بر واقعیت بودن پاسخ های چت بات های خود استفاده کنند. این شرکت میگوید در حال کار بر روی یک روش اضافی برای کاهش توهمات هوش مصنوعی است:
مایکروسافت همچنین در حال توسعه یک ویژگی کاهش دهنده جدید برای مسدود کردن و اصلاح نمونه های غیرمبتنی بر واقعیت به صورت بلادرنگ است. هنگامی که یک خطای زمینه سازی تشخیص داده شود، این ویژگی به طور خودکار اطلاعات را بر اساس دادهها بازنویسی میکند. هنوز در مورد زمان در دسترس بودن این ویژگی کاهش دهنده جدید خبری منتشر نشده است.