محققان نمونههایی از سیستمهای هوش مصنوعی را پیدا کردهاند که در تستها از حریفان عبور میکنند، بلوف میزنند، وانمود میکنند که انسان هستند و رفتار خود را اصلاح میکنند.
به گزارش پایگاه خبری تجریش به نقل از گاردین ؛ آنها میتوانند در بازیهای رومیزی انسانها را گول بزنند، ساختار پروتئینها را رمزگشایی کنند و مکالمهای قابل قبول داشته باشند، اما دانشمندان هشدار میدهند که از آنجایی که سیستمهای هوش مصنوعی پیشرفتهتر شدهاند، ظرفیت آنها برای فریبکاری نیز افزایش یافته است.
این تحلیل که توسط محققان موسسه فناوری ماساچوست (MIT) انجام شده است، نمونههای گستردهای از سیستمهای هوش مصنوعی را شناسایی میکند که دو برابر مخالفان، بلوف می کنند و تظاهر به انسان بودن دارند. حتی یک سیستم رفتار خود را در طول آزمایشهای ایمنی ساختگی تغییر می دهند و احتمال فریب دادن حسابرسان به سمت احساس امنیت کاذب را افزایش می دهند.
دکتر پیتر پارک، محقق ایمنی وجودی هوش مصنوعی در MIT و نویسنده این تحقیق، گفت: «با پیشرفت بیشتر قابلیتهای فریبنده سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکنند جدیتر میشوند.»
پس از آن که متا، مالک فیسبوک، برنامهای به نام سیسرو را توسعه داد که در بازی استراتژی فتح جهان دیپلماسی در بین ۱۰ درصد از بازیکنان انسانی برتر بازی میکرد، پارک به تحقیق وادار شد. متا اظهار داشت که سیسرو به گونهای آموزش دیده است که «تا حد زیادی صادق و کمککننده» باشد و هرگز عمداً به متحدان انسانیاش خنجر نزند.