موارد مهم
- مقاله جدید ادعا می کند که هوش مصنوعی می تواند تعیین کند که کدام پروژه های تحقیقاتی ممکن است به مقررات بیشتری نسبت به دیگران نیاز داشته باشند.
- این بخشی از یک تلاش رو به رشد برای کشف نوع هوش مصنوعی است که می تواند خطرناک باشد.
-
یکی از کارشناسان می گوید که خطر واقعی هوش مصنوعی این است که می تواند انسان را گنگ کند.
هوش مصنوعی (AI) مزایای بسیاری را ارائه می دهد، اما برخی از خطرات بالقوه را نیز به همراه دارد. و اکنون، محققان روشی را برای زیر نظر گرفتن خلاقیت های رایانه ای خود پیشنهاد کرده اند.
یک تیم بین المللی در مقاله ای جدید می گوید که هوش مصنوعی می تواند تعیین کند که کدام نوع از پروژه های تحقیقاتی ممکن است به مقررات بیشتری نسبت به سایرین نیاز داشته باشند. دانشمندان از مدلی استفاده کردند که مفاهیم زیست شناسی و ریاضیات را در هم می آمیزد و بخشی از تلاش رو به رشد برای کشف اینکه چه نوع هوش مصنوعی می تواند خطرناک باشد.
"البته، در حالی که استفاده خطرناک "علمی تخیلی" از هوش مصنوعی ممکن است در صورت تصمیم به وجود بیاید. رئیس فناوری تغییر در مدرسه پلی تکنیک فرانسه، در مصاحبه ای ایمیلی به Lifewire گفت. «پیادهسازی هوش مصنوعی میتواند شایستگیها را افزایش دهد (به عنوان مثال، ارتباط مهارتها و دانش انسان/کارگر را تقویت میکند) یا از بین بردن شایستگی، بهعنوان مثال، هوش مصنوعی باعث میشود مهارتها و دانش موجود کمتر مفید یا منسوخ شود.»
نگه داشتن برگه ها
نویسندگان مقاله اخیر در پستی نوشتند که مدلی برای شبیه سازی رقابت های هوش مصنوعی فرضی ساخته اند. آنها این شبیهسازی را صدها بار اجرا کردند تا پیشبینی کنند که مسابقات هوش مصنوعی در دنیای واقعی چگونه ممکن است کار کنند.
"متغیری که ما متوجه شدیم که بسیار مهم است، "طول" مسابقه بود - زمانی که نژادهای شبیه سازی شده ما برای رسیدن به هدف خود (یک محصول هوش مصنوعی کاربردی) طول کشید. "وقتی مسابقات هوش مصنوعی به سرعت به هدف خود رسیدند، متوجه شدیم که رقبای که ما کد گذاری کرده بودیم تا همیشه اقدامات احتیاطی ایمنی را نادیده بگیرند، همیشه برنده شدند."
برعکس، محققان دریافتند که پروژههای بلندمدت هوش مصنوعی آنقدرها خطرناک نیستند، زیرا برندگان همیشه کسانی نیستند که ایمنی را نادیده میگیرند. آنها می نویسند: «با توجه به این یافته ها، برای تنظیم کننده ها مهم است که مشخص کنند مسابقات مختلف هوش مصنوعی چقدر طول می کشد و مقررات متفاوتی را بر اساس بازه های زمانی مورد انتظار خود اعمال کنند. "یافتههای ما نشان میدهد که یک قانون برای همه مسابقات هوش مصنوعی - از دوی سرعت گرفته تا ماراتن - منجر به نتایجی میشود که دور از ایدهآل هستند."
David Zhao، مدیر عامل Coda Strategy، شرکتی که در زمینه هوش مصنوعی مشاوره می کند، در یک مصاحبه ایمیلی با Lifewire گفت که شناسایی هوش مصنوعی خطرناک می تواند دشوار باشد. چالشها در این واقعیت نهفته است که رویکردهای مدرن هوش مصنوعی یک رویکرد یادگیری عمیق دارند.
ژائو گفت: «ما می دانیم که یادگیری عمیق در موارد استفاده متعدد، مانند تشخیص تصویر یا تشخیص گفتار، نتایج بهتری ایجاد می کند. با این حال، درک نحوه عملکرد یک الگوریتم یادگیری عمیق و نحوه تولید خروجی آن برای انسان غیرممکن است. بنابراین، تشخیص اینکه آیا هوش مصنوعی که نتایج خوبی تولید می کند خطرناک است یا خیر، دشوار است زیرا برای انسان غیرممکن است که بفهمد چه اتفاقی در حال رخ دادن است."
مت شی، مدیر استراتژی شرکت هوش مصنوعی MixMode، از طریق ایمیل گفت: نرمافزار زمانی که در سیستمهای حیاتی استفاده میشود، میتواند «خطرناک» باشد، سیستمهایی که دارای آسیبپذیریهایی هستند که میتوانند توسط بازیگران بد مورد سوء استفاده قرار گیرند یا نتایج نادرستی ایجاد کنند. او افزود که هوش مصنوعی ناامن همچنین میتواند منجر به طبقهبندی نادرست نتایج، از دست دادن دادهها، تأثیر اقتصادی یا آسیب فیزیکی شود.
شی گفت: «با نرمافزارهای سنتی، توسعهدهندگان الگوریتمهایی را کدنویسی میکنند که میتواند توسط شخص مورد بررسی قرار گیرد تا بفهمد چگونه یک آسیبپذیری را وصل کند یا با نگاه کردن به کد منبع، یک اشکال را برطرف کند.با وجود هوش مصنوعی، بخش عمدهای از منطق از خود دادهها ایجاد میشود که در ساختارهای دادهای مانند شبکههای عصبی و موارد مشابه کدگذاری میشوند. این منجر به سیستمهایی میشود که «جعبههای سیاه» هستند که برای یافتن و رفع آسیبپذیریها قابل بررسی نیستند. مانند نرم افزارهای معمولی."
خطرهای پیش رو؟
در حالی که هوش مصنوعی در فیلم هایی مانند The Terminator به عنوان یک نیروی شیطانی که قصد نابودی بشریت را دارد، به تصویر کشیده شده است، کارشناسان می گویند که خطرات واقعی ممکن است غیرعادی تر باشند. برای مثال، راینا پیشنهاد میکند که هوش مصنوعی میتواند ما را احمقتر کند.
«این می تواند انسان را از آموزش مغز و توسعه تخصص محروم کند. اگر بیشتر وقت خود را صرف خواندن برنامه های استارت آپی نکنید، چگونه می توانید در زمینه سرمایه گذاری خطرپذیر متخصص شوید؟ بدتر از آن، هوش مصنوعی به طور بدنامی «جعبه سیاه» است و کمی قابل توضیح است. ندانستن اینکه چرا یک تصمیم هوش مصنوعی خاص گرفته شده است به این معنی است که چیزهای زیادی برای یادگیری از آن وجود نخواهد داشت، درست مانند اینکه نمی توانید با رانندگی در ورزشگاه در سگوی به یک دونده متخصص تبدیل شوید."
تشخیص اینکه آیا هوش مصنوعی که نتایج خوبی تولید می کند خطرناک است یا خیر دشوار است، زیرا برای انسان غیرممکن است که بفهمد چه اتفاقی در حال رخ دادن است.
لایل سولومون، وکیلی که در مورد پیامدهای حقوقی هوش مصنوعی می نویسد، در یک مصاحبه ایمیلی گفت: شاید فوری ترین تهدید از سوی هوش مصنوعی این باشد که می تواند نتایج مغرضانه ای ارائه دهد.
"هوش مصنوعی ممکن است به تعمیق شکاف های اجتماعی کمک کند. هوش مصنوعی اساساً از داده های جمع آوری شده از انسان ساخته شده است." "[اما] علیرغم دادههای گسترده، حاوی حداقل زیرمجموعه است و شامل آن چیزی نمیشود که همه فکر میکنند. بنابراین، دادههای جمعآوریشده از نظرات، پیامهای عمومی، بررسیها و غیره، با سوگیریهای ذاتی باعث میشود هوش مصنوعی تبعیض و نفرت را تقویت کند."