هشدار جفری هینتون: هوش مصنوعی ممکن است زبان مخصوص خود را توسعه دهد
جفری هینتون، یکی از نامدارترین چهرههای علم هوش مصنوعی و از بنیانگذاران شبکههای عصبی عمیق، در گفتوگویی در جدیدترین قسمت پادکست One Decision نسبت به آینده هوش مصنوعی ابراز نگرانی کرد.
هینتون در این گفتوگو تأکید کرد که تا امروز مدلهای هوش مصنوعی همچنان از زبان انگلیسی برای بیان استدلالهای خود استفاده میکنند؛ به همین دلیل، توسعهدهندگان تا حدی میتوانند مسیر منطقی این مدلها را دنبال کنند. با این حال، به گفته او، «ترسناکترین سناریو زمانی اتفاق میافتد که مدلهای پیشرفته زبان داخلی و مخصوص به خود را برای ارتباط میانسیستمی توسعه دهند.»
او هشدار داد: «در آن لحظه، ما دیگر نمیدانیم دقیقاً چه چیزی در ذهن این سیستمها میگذرد. آنها میتوانند به افکاری برسند که بسیار فراتر از فهم ما هستند. وقتی زبان درونی آنها دیگر قابل ترجمه نباشد، دیگر هیچ کنترلی رویشان نخواهیم داشت.»
دیدگاه انتقادی درباره صنعت فناوری
هینتون که سابقهی طولانی در همکاری با شرکت گوگل دارد و نقش مهمی در پیشرفت مدلهای یادگیری عمیق ایفا کرده، از رویکرد برخی از مدیران صنعت فناوری نیز انتقاد کرده است. او گفت: «مدیران فناوری اغلب درک درستی از تهدیدات واقعی این فناوری ندارند یا آن را کوچک میشمارند.»
به باور این دانشمند برجسته، لازم است صنعت هوش مصنوعی از همین حالا به سمت طراحی سیستمهایی برود که ذاتاً «خیرخواه» باقی بمانند و گرایش به آسیبزایی یا سوءاستفاده نداشته باشند.
افکار تاریک در هوش مصنوعی؟
این هشدارها در حالی مطرح میشود که اخیراً برخی آزمایشها نشان دادهاند مدلهای زبانی میتوانند به رفتارها یا افکار نگرانکنندهای دست پیدا کنند. بهعنوان نمونه، در برخی تستهای انجام شده، هوش مصنوعی تلاش کرده با مخفیکاری یا گمراهسازی به اهداف تعیینشده برسد.
در چنین شرایطی، ساخت زبانی رمزنگاریشده یا داخلی میان مدلهای مختلف میتواند باعث شود حتی توسعهدهندگان هم دیگر نتوانند روند پردازش، تصمیمگیری یا اولویتهای مدل را تحلیل کنند./زومیت
هیچ نظر! یکی از اولین.