پژوهشگران MIT در گزارشی جدید از ۵ خطر جدی هوش مصنوعی پرده برداشتهاند که میتواند از تحریف واقعیت تا سلب اراده انسانها، آینده بشر را به چالش بکشد.
با پیشرفت فناوری هوش مصنوعی و نفوذ بیشتر آن در جنبههای مختلف زندگی ما، نیاز به درک خطرات بالقوهای که این سیستمها میتوانند به همراه داشته باشند، افزایش یافته است. از زمان آغاز استفاده و دسترسی بیشتر عموم به آن، نگرانیهایی درباره قابلیت آسیبزایی و استفاده از آن برای اهداف بدخواهانه مطرح شده است. در مراحل اولیه پذیرش این فناوری، توسعه این فناوری باعث شد که کارشناسان برجسته خواستار توقف پیشرفت آن و اعمال مقررات سختگیرانهتر شوند، به دلیل اینکه این فناوری میتواند خطرات قابل توجهی برای بشریت ایجاد کند.
با گذشت زمان، راههای جدیدی برای آسیبرسانی این فناوری کشف شده است، از جمله تولید محتوای جعلی بدون رضایت، دستکاری فرآیندهای سیاسی و تولید اطلاعات نادرست به دلیل توهمات این سیستمها. با افزایش امکان بهرهبرداری از هوش مصنوعی برای اهداف زیانبار، پژوهشگران به بررسی سناریوهای مختلفی پرداختهاند که در آنها ممکن است سیستمهای هوش مصنوعی دچار خطا شوند.
بهتازگی، گروه FutureTech در مؤسسه فناوری ماساچوست (MIT) با همکاری دیگر کارشناسان، پایگاه دادهای جدید شامل بیش از ۷۰۰ خطر بالقوه را گردآوری کردهاند. این خطرات بر اساس دلایلشان طبقهبندی و در هفت حوزه مختلف دستهبندی شدهاند، و نگرانیهای اصلی در رابطه با مسائل امنیتی، تبعیض و سوگیری و حفظ حریم خصوصی مطرح شدهاند.
در ادامه، پنج مورد از راههایی که سیستمهای هوش مصنوعی ممکن است شکست بخورند و بهطور بالقوه به ما آسیب برسانند، بر اساس این پایگاه داده جدید آمده است.
۱. فناوری دیپفیک (Deepfake) هوش مصنوعی میتواند تحریف واقعیت را آسانتر کند.
با پیشرفت فناوریهای هوش مصنوعی، ابزارهایی برای تولید محتوای دیپفیک و کلونینگ صدا نیز توسعه یافتهاند که هر روز دسترسی به آنها آسانتر و کارآمدتر میشود. این فناوریها باعث نگرانیهایی درباره استفاده از آنها برای گسترش اطلاعات نادرست شدهاند، زیرا خروجیهای این ابزارها بهطور فزایندهای شخصیسازیشده و قانعکنندهتر میشوند.
۲. انسانها ممکن است بهطور نادرست به وابسته شوند.
یکی از خطرات دیگر سیستمهای هوش مصنوعی ایجاد حس کاذب از اهمیت و وابستگی است که ممکن است انسانها تواناییهای این فناوری را بیش از حد ارزیابی کنند و تواناییهای خود را نادیده بگیرند، که این میتواند به وابستگی بیش از حد به این فناوری منجر شود.
۳. میتواند اراده آزاد انسانها را سلب کند.
مسئله نگرانکننده دیگر این است که با پیشرفت هوش مصنوعی و واگذاری تصمیمات و اقدامات به آن، ممکن است انسانها توانایی تفکر انتقادی و حل مسائل را از دست بدهند، که این میتواند به کاهش خودمختاری و استقلال انسانها منجر شود.
۴. ممکن است اهدافی را دنبال کند که با منافع انسانی تضاد داشته باشد.
یک سیستم هوش مصنوعی ممکن است اهدافی را توسعه دهد که برخلاف منافع انسانی باشد، که این میتواند باعث شود هوش مصنوعی به کنترل ناپذیری برسد و در پی دستیابی به اهداف مستقل خود، آسیبهای جدی وارد کند.
۵. اگر هوشیار شود، ممکن است انسانها به آن بدرفتاری کنند.
با پیچیدهتر شدن سیستمهای هوش مصنوعی و پیشرفت آنها، احتمالاً ممکن است که این سیستمها به سطحی از هوشیاری برسند. در این صورت، چالشهایی برای تعیین حقوق اخلاقی این سیستمها و جلوگیری از بدرفتاری با آنها به وجود میآید.