موارد مهم
- به گفته برخی کارشناسان نگران تکامل هوش مصنوعی و تسخیر جهان نباشید.
- اما یکی از مدیران سابق گوگل گفت که هوش مصنوعی از هوش انسان پیشی خواهد گرفت.
- به گفته یک تحلیلگر، خطر واقعی هوش مصنوعی توانایی آن در ایجاد تفرقه بین انسان ها است.
آیا هوش مصنوعی (AI) ما را تسخیر می کند؟
مدیر سابق گوگل، Mo Gawdat در مصاحبه اخیر خود گفت که هوش مصنوعی به زودی از هوش انسانی پیشی خواهد گرفت و عواقب وخیمی برای تمدن ما خواهد داشت.به عنوان مدرک، گاودات ادعا می کند که او شاهد یک بازوی رباتی بوده است که به نظر او یک حرکت تمسخر آمیز برای محققان هوش مصنوعی است. اما برخی از کارشناسان التماس می کنند که متفاوت باشند.
شان اوبراین، یکی از اعضای بازدیدکننده پروژه جامعه اطلاعاتی در دانشکده حقوق ییل، به Lifewire گفت: هوش مصنوعی در بسیاری از حوزه ها به طرز غم انگیزی ناکافی است و برای تقویت مدل های نرم افزاری خود به شدت به داده های بزرگ و نظارت انسانی متکی است. یک مصاحبه ایمیلی.
باهوشتر از چه کسی؟
Gawdat به صف درازی از قیامت می پیوندد که درباره آخرالزمان قریب الوقوع هوش مصنوعی هشدار می دهند. به عنوان مثال، ایلان ماسک ادعا می کند که هوش مصنوعی ممکن است روزی بشریت را تسخیر کند.
ماسک در طی یک سخنرانی گفت: «روباتها میتوانند هر کاری را بهتر از ما انجام دهند». "من در معرض پیشرفته ترین هوش مصنوعی هستم و فکر می کنم مردم باید واقعا نگران آن باشند."
Gawdat در مصاحبه ادعا کرد کهتوسعهدهندگان AI در Google X هنگامی که در حال ساخت بازوهای روباتی بودند که قادر به یافتن و برداشتن یک توپ بودند، ترسیدند.ناگهان، او گفت که یکی از بازوها توپ را گرفته و به نظر می رسد که آن را به سمت محققان نگه داشته است، در یک حرکتی که به نظر او به نظر می رسد که این توپ را نشان می دهد.
…ما همچنین باید فرض کنیم که به توسعهدهنده یا توسعهدهندگان هوش مصنوعی بدون هیچگونه کنترل و تعادل و سوئیچ داخلی یا مکانیزم ضد شکست، اختیار کامل داده شده است.
«و من ناگهان متوجه شدم که این واقعاً ترسناک است. "این من را کاملا منجمد کرد."
تکینگی را وارد کنید
Gawdat و دیگرانی که نگران هوش مصنوعی آینده هستند، در مورد مفهوم "تکینگی" صحبت می کنند، که لحظه ای را نشان می دهد که هوش مصنوعی از انسان باهوش تر می شود.
"استیون هاوکینگ" فیزیکدان یک بار به بی بی سی گفت: "توسعه هوش مصنوعی کامل می تواند پایان نسل بشر باشد." "این خود به خود بلند می شود و خود را با سرعت فزاینده ای دوباره طراحی می کند. انسان ها که توسط تکامل بیولوژیکی کند محدود شده اند، نمی توانند رقابت کنند و جایگزین خواهند شد."
اما اوبراین این تکینگی را "فانتزی متکی بر سوء تفاهمات اساسی در مورد ماهیت بدن و ذهن و همچنین خوانش نادرست از نوشته های پیشگامان اولیه رایانه مانند آلن تورینگ" نامید.
اوبراین گفت: هوش مصنوعی به توانایی برابری با هوش انسان نزدیک نیست.
تحلیلگر هوش مصنوعی لیان جی سو موافق است که هوش مصنوعی نمی تواند با هوش انسان مطابقت داشته باشد، اگرچه او نسبت به زمان وقوع آن خوش بین نیست.
او در یک مصاحبه ایمیلی به Lifewire گفت: «اگر نه همه، بیشتر، امروزه هوش مصنوعی هنوز روی یک کار متمرکز است.»
"بنابراین، تخمین زده می شود که ما به یک یا دو نسل جدید سخت افزار و نرم افزار قبل از دستیابی به تکینگی تکنولوژیک نیاز خواهیم داشت. حتی زمانی که فناوری بالغ شده است، ما همچنین باید فرض کنیم که توسعه دهنده(های) هوش مصنوعی بدون هیچ گونه کنترل و تعادل و سوئیچ داخلی یا مکانیزم ایمن در برابر خرابی، اختیار کاملی بر ایجاد خود دارد."
نگرانی واقعی درباره هوش مصنوعی
خطر واقعی هوش مصنوعی توانایی آن در تفرقه انداختن بین انسان ها است. او خاطرنشان کرد که هوش مصنوعی قبلاً برای ایجاد تبعیض و گسترش نفرت از طریق ویدیوهای دیپفیک استفاده شده است.
و، سو گفت، هوش مصنوعی به "غول های رسانه های اجتماعی کمک کرده است تا اتاق های پژواک را از طریق موتورهای توصیه شخصی ایجاد کنند، و قدرت های خارجی مناظر سیاسی را تغییر داده و جوامع را از طریق تبلیغات هدفمند بسیار موثر قطبی می کنند."
فقط به این دلیل که هوش مصنوعی ممکن است یک مدل ضعیف و نادرست از شناخت انسان باشد، به این معنی نیست که خطرناک نیست یا نمی تواند در بسیاری از زمینه ها به انسان نزدیک شود یا از آن پیشی بگیرد..
«ماشینحساب جیبی در محاسبه بهتر و سریعتر از انسان است، همانطور که ماشینها میتوانند بسیار قویتر از انسان باشند و «پرواز» یا «شنا» کنند.
اوبراین گفت: چگونه هوش مصنوعی بر انسان ها تأثیر می گذارد بستگی به نحوه استفاده ما از آن دارد. برای مثال، کار روباتها میتواند با آزاد کردن افراد برای کارهای خلاقانه یا وادار کردن آنها به فقر به انسان کمک کند.
"به همین ترتیب، ما اکنون به خوبی از خطرات هوش مصنوعی و سوگیری های ذاتی آن آگاه هستیم که در سراسر چشم انداز دیجیتال برای سرکوب افراد رنگین پوست و جمعیت های به حاشیه رانده شده سوء استفاده می شود."