چگونه هوش مصنوعی می تواند فرزندان خطرناک خود را زیر نظر بگیرد

فهرست مطالب:

چگونه هوش مصنوعی می تواند فرزندان خطرناک خود را زیر نظر بگیرد
چگونه هوش مصنوعی می تواند فرزندان خطرناک خود را زیر نظر بگیرد
Anonim

موارد مهم

  • مقاله جدید ادعا می کند که هوش مصنوعی می تواند تعیین کند که کدام پروژه های تحقیقاتی ممکن است به مقررات بیشتری نسبت به دیگران نیاز داشته باشند.
  • این بخشی از یک تلاش رو به رشد برای کشف نوع هوش مصنوعی است که می تواند خطرناک باشد.
  • یکی از کارشناسان می گوید که خطر واقعی هوش مصنوعی این است که می تواند انسان را گنگ کند.

Image
Image

هوش مصنوعی (AI) مزایای بسیاری را ارائه می دهد، اما برخی از خطرات بالقوه را نیز به همراه دارد. و اکنون، محققان روشی را برای زیر نظر گرفتن خلاقیت های رایانه ای خود پیشنهاد کرده اند.

یک تیم بین المللی در مقاله ای جدید می گوید که هوش مصنوعی می تواند تعیین کند که کدام نوع از پروژه های تحقیقاتی ممکن است به مقررات بیشتری نسبت به سایرین نیاز داشته باشند. دانشمندان از مدلی استفاده کردند که مفاهیم زیست شناسی و ریاضیات را در هم می آمیزد و بخشی از تلاش رو به رشد برای کشف اینکه چه نوع هوش مصنوعی می تواند خطرناک باشد.

"البته، در حالی که استفاده خطرناک "علمی تخیلی" از هوش مصنوعی ممکن است در صورت تصمیم به وجود بیاید. رئیس فناوری تغییر در مدرسه پلی تکنیک فرانسه، در مصاحبه ای ایمیلی به Lifewire گفت. «پیاده‌سازی هوش مصنوعی می‌تواند شایستگی‌ها را افزایش دهد (به عنوان مثال، ارتباط مهارت‌ها و دانش انسان/کارگر را تقویت می‌کند) یا از بین بردن شایستگی، به‌عنوان مثال، هوش مصنوعی باعث می‌شود مهارت‌ها و دانش موجود کمتر مفید یا منسوخ شود.»

نگه داشتن برگه ها

نویسندگان مقاله اخیر در پستی نوشتند که مدلی برای شبیه سازی رقابت های هوش مصنوعی فرضی ساخته اند. آنها این شبیه‌سازی را صدها بار اجرا کردند تا پیش‌بینی کنند که مسابقات هوش مصنوعی در دنیای واقعی چگونه ممکن است کار کنند.

"متغیری که ما متوجه شدیم که بسیار مهم است، "طول" مسابقه بود - زمانی که نژادهای شبیه سازی شده ما برای رسیدن به هدف خود (یک محصول هوش مصنوعی کاربردی) طول کشید. "وقتی مسابقات هوش مصنوعی به سرعت به هدف خود رسیدند، متوجه شدیم که رقبای که ما کد گذاری کرده بودیم تا همیشه اقدامات احتیاطی ایمنی را نادیده بگیرند، همیشه برنده شدند."

برعکس، محققان دریافتند که پروژه‌های بلندمدت هوش مصنوعی آنقدرها خطرناک نیستند، زیرا برندگان همیشه کسانی نیستند که ایمنی را نادیده می‌گیرند. آنها می نویسند: «با توجه به این یافته ها، برای تنظیم کننده ها مهم است که مشخص کنند مسابقات مختلف هوش مصنوعی چقدر طول می کشد و مقررات متفاوتی را بر اساس بازه های زمانی مورد انتظار خود اعمال کنند. "یافته‌های ما نشان می‌دهد که یک قانون برای همه مسابقات هوش مصنوعی - از دوی سرعت گرفته تا ماراتن - منجر به نتایجی می‌شود که دور از ایده‌آل هستند."

David Zhao، مدیر عامل Coda Strategy، شرکتی که در زمینه هوش مصنوعی مشاوره می کند، در یک مصاحبه ایمیلی با Lifewire گفت که شناسایی هوش مصنوعی خطرناک می تواند دشوار باشد. چالش‌ها در این واقعیت نهفته است که رویکردهای مدرن هوش مصنوعی یک رویکرد یادگیری عمیق دارند.

ژائو گفت: «ما می دانیم که یادگیری عمیق در موارد استفاده متعدد، مانند تشخیص تصویر یا تشخیص گفتار، نتایج بهتری ایجاد می کند. با این حال، درک نحوه عملکرد یک الگوریتم یادگیری عمیق و نحوه تولید خروجی آن برای انسان غیرممکن است. بنابراین، تشخیص اینکه آیا هوش مصنوعی که نتایج خوبی تولید می کند خطرناک است یا خیر، دشوار است زیرا برای انسان غیرممکن است که بفهمد چه اتفاقی در حال رخ دادن است."

مت شی، مدیر استراتژی شرکت هوش مصنوعی MixMode، از طریق ایمیل گفت: نرم‌افزار زمانی که در سیستم‌های حیاتی استفاده می‌شود، می‌تواند «خطرناک» باشد، سیستم‌هایی که دارای آسیب‌پذیری‌هایی هستند که می‌توانند توسط بازیگران بد مورد سوء استفاده قرار گیرند یا نتایج نادرستی ایجاد کنند. او افزود که هوش مصنوعی ناامن همچنین می‌تواند منجر به طبقه‌بندی نادرست نتایج، از دست دادن داده‌ها، تأثیر اقتصادی یا آسیب فیزیکی شود.

شی گفت: «با نرم‌افزارهای سنتی، توسعه‌دهندگان الگوریتم‌هایی را کدنویسی می‌کنند که می‌تواند توسط شخص مورد بررسی قرار گیرد تا بفهمد چگونه یک آسیب‌پذیری را وصل کند یا با نگاه کردن به کد منبع، یک اشکال را برطرف کند.با وجود هوش مصنوعی، بخش عمده‌ای از منطق از خود داده‌ها ایجاد می‌شود که در ساختارهای داده‌ای مانند شبکه‌های عصبی و موارد مشابه کدگذاری می‌شوند. این منجر به سیستم‌هایی می‌شود که «جعبه‌های سیاه» هستند که برای یافتن و رفع آسیب‌پذیری‌ها قابل بررسی نیستند. مانند نرم افزارهای معمولی."

خطرهای پیش رو؟

در حالی که هوش مصنوعی در فیلم هایی مانند The Terminator به عنوان یک نیروی شیطانی که قصد نابودی بشریت را دارد، به تصویر کشیده شده است، کارشناسان می گویند که خطرات واقعی ممکن است غیرعادی تر باشند. برای مثال، راینا پیشنهاد می‌کند که هوش مصنوعی می‌تواند ما را احمق‌تر کند.

«این می تواند انسان را از آموزش مغز و توسعه تخصص محروم کند. اگر بیشتر وقت خود را صرف خواندن برنامه های استارت آپی نکنید، چگونه می توانید در زمینه سرمایه گذاری خطرپذیر متخصص شوید؟ بدتر از آن، هوش مصنوعی به طور بدنامی «جعبه سیاه» است و کمی قابل توضیح است. ندانستن اینکه چرا یک تصمیم هوش مصنوعی خاص گرفته شده است به این معنی است که چیزهای زیادی برای یادگیری از آن وجود نخواهد داشت، درست مانند اینکه نمی توانید با رانندگی در ورزشگاه در سگوی به یک دونده متخصص تبدیل شوید."

تشخیص اینکه آیا هوش مصنوعی که نتایج خوبی تولید می کند خطرناک است یا خیر دشوار است، زیرا برای انسان غیرممکن است که بفهمد چه اتفاقی در حال رخ دادن است.

لایل سولومون، وکیلی که در مورد پیامدهای حقوقی هوش مصنوعی می نویسد، در یک مصاحبه ایمیلی گفت: شاید فوری ترین تهدید از سوی هوش مصنوعی این باشد که می تواند نتایج مغرضانه ای ارائه دهد.

"هوش مصنوعی ممکن است به تعمیق شکاف های اجتماعی کمک کند. هوش مصنوعی اساساً از داده های جمع آوری شده از انسان ساخته شده است." "[اما] علیرغم داده‌های گسترده، حاوی حداقل زیرمجموعه است و شامل آن چیزی نمی‌شود که همه فکر می‌کنند. بنابراین، داده‌های جمع‌آوری‌شده از نظرات، پیام‌های عمومی، بررسی‌ها و غیره، با سوگیری‌های ذاتی باعث می‌شود هوش مصنوعی تبعیض و نفرت را تقویت کند."

توصیه شده: