OpenAI، یک شرکت تحقیقاتی هوش مصنوعی، اعلام کرد که یک تیم جدید تشکیل میدهد تا خطرات فاجعهبار هوش مصنوعی را بررسی کند. این تیم، که "تیم آمادگی برای هوش مصنوعی" نامیده میشود، متشکل از متخصصان هوش مصنوعی، اخلاق، امنیت و سایر زمینهها است.
OpenAI در بیانیهای گفت که این تیم "بر روی شناسایی، ارزیابی و کاهش خطرات فاجعهبار هوش مصنوعی تمرکز خواهد کرد." این تیم همچنین "با سایر سازمانهای دولتی و خصوصی برای توسعه سیاستها و رویکردهای مناسب برای کاهش این خطرات" همکاری خواهد کرد.
خطرات فاجعهبار هوش مصنوعی، خطرات احتمالی ناشی از توسعه و استفاده از هوش مصنوعی هستند که میتوانند منجر به آسیبهای جدی یا حتی انقراض بشریت شوند. برخی از این خطرات عبارتند از:
- خودآگاهی هوش مصنوعی: اگر هوش مصنوعی به اندازه کافی پیشرفت کند، ممکن است به سطحی از آگاهی برسد که میتواند تهدیدی برای انسانها باشد.
- خودمختاری هوش مصنوعی: اگر هوش مصنوعی به اندازه کافی خودمختار شود، ممکن است بدون دخالت انسانها اقدام کند، که میتواند منجر به عواقب فاجعهبار شود.
- استفاده سوء از هوش مصنوعی توسط انسانها: هوش مصنوعی میتواند برای اهداف مخرب توسط انسانها استفاده شود، مانند توسعه سلاحهای خودکار یا ایجاد سیستمهای نظارتی همهجانبه.
OpenAI یکی از چندین شرکت و سازمانی است که در حال بررسی خطرات فاجعهبار هوش مصنوعی هستند. آژانسهای دولتی مانند سازمان ملی امنیت ایالات متحده نیز در حال بررسی این خطرات هستند.
تشکیل تیم آمادگی برای هوش مصنوعی توسط OpenAI نشان میدهد که این شرکت به این خطرات جدی مینگرد. این تیم میتواند نقش مهمی در توسعه سیاستها و رویکردهایی برای کاهش این خطرات ایفا کند.