آیا هوش مصنوعی می تواند به ما بیاموزد که انسان تر باشیم؟

فهرست مطالب:

آیا هوش مصنوعی می تواند به ما بیاموزد که انسان تر باشیم؟
آیا هوش مصنوعی می تواند به ما بیاموزد که انسان تر باشیم؟
Anonim

موارد مهم

  • برنامه‌های هوش مصنوعی مانند Cogito سعی می‌کنند به انسان‌ها همدلی در برخورد با مشتریان را آموزش دهند.
  • کارشناسان در مورد اینکه آیا ممکن است یک ماشین به مردم همدلی بیاموزد یا اینکه صرفاً نقاط داده را پیدا کند، اختلاف نظر دارند.
  • برخی از کارشناسان همچنین نگران هستند که آموزش همدلی با هوش مصنوعی می تواند این احساسات را از بشریت سلب کند.
Image
Image

تصور کنید در یک مرکز تماس کار می کنید و یک مشتری تماس می گیرد. شما پاسخ می دهید و بلافاصله اوضاع بد می شود. مشتری عصبانی است و تنش ها بالا می رود.

شروع به گفتن چیزهایی می کنید که ممکن است بعداً پشیمان شوید. ناگهان پیامی روی صفحه کامپیوتر شما ظاهر می شود. "نشانه همدلی - به احساس مشتری فکر کنید. سعی کنید با هم ارتباط برقرار کنید."

این یک شخص واقعی نیست که به شما بگوید چه کاری انجام دهید. این پیامی از Cogito است، یک برنامه هوش مصنوعی که برای کمک به کارگران طراحی شده است تا با تماس‌گیرندگان ناامید همدلی کنند و عملکرد را افزایش دهند. Cogito یکی از برنامه‌های رو به رشد هوش مصنوعی است که سعی در آموزش همدلی به انسان دارد.

اینجا یک کنایه آشکار وجود دارد. دانشمندان بشر برای دهه ها تلاش کرده اند تا کامپیوترهای واقعی تری بسازند. اکنون، ماشین‌ها به ما می‌گویند که چگونه رفتار کنیم. اما آیا نرم افزار واقعاً می تواند به ما بیاموزد که چگونه همدل تر باشیم؟ این مسئله ای است که می تواند پیامدهای عمیقی داشته باشد زیرا هوش مصنوعی شروع به نفوذ در زندگی روزمره می کند.

هوش مصنوعی رفتار انسان را تقلید می کند

از نقطه نظر فنی، واضح است که هوش مصنوعی می‌تواند سرنخ‌هایی درباره احساس انسان و ارائه بازخورد دریافت کند.

"آدام پولیاک، یک دانشجوی فوق دکترا در علوم کامپیوتر در کالج بارنارد، در یک مصاحبه ایمیلی گفت: "سیستم های هوش مصنوعی و یادگیری ماشین در یافتن الگوها در داده ها بسیار خوب هستند".

"اگر به یک هوش مصنوعی نمونه های زیادی از متن همدلانه ارائه دهیم، هوش مصنوعی می تواند الگوها و نشانه هایی را که همدلی را برمی انگیزد یا نشان می دهد، کشف کند."

هوش مصنوعی ممکن است طوری برنامه ریزی شده باشد که برخی از رفتارهای انسانی را که همراه با همدلی هستند تجزیه کند و به انسان یادآوری کند که آنها را انجام دهد، اما این آموزش همدلی نیست.

برت گرینشتاین، کارشناس هوش مصنوعی در Cognizant Digital Business، در یک مصاحبه ایمیلی گفت: هوش مصنوعی که واکنش‌های انسان را تجزیه و تحلیل می‌کند، می‌تواند به پر کردن شکاف رو به رشد بین افراد در حین برقراری ارتباط دیجیتالی کمک کند.

در طول سال گذشته، زمان واقعی، ویدئو، صدا و پیام‌رسانی سریع‌تر از چیزی که هر کسی تصور می‌کرد رشد کرد و با چالش‌های بزرگی در ایجاد روابط واقعاً همدلانه بدون صرف وقت فیزیکی با مردم مواجه شد. اضافه شد.

گرینشتاین گفت AIمی تواند به تجزیه و تحلیل و ارزیابی ویژگی هایی مانند لحن و احساسات در گفتار کمک کند. او افزود: "این می تواند به شخص دریافت کننده ارتباطات کمک کند تا منظور را بهتر درک کند، و با نشان دادن نحوه تفسیر پیام ها به فرد "صحبت کننده" کمک می کند."

در حالی که شرکت‌ها عجله دارند تا از نرم‌افزارهای آموزشی هوش مصنوعی مانند Cogito پول نقد کنند، این سوال که آیا هوش مصنوعی می‌تواند همدلی را به انسان‌ها بیاموزد همچنان باز است. و پاسخ ممکن است به همان اندازه که با فناوری ارتباط داشته باشد، با فلسفه نیز مرتبط باشد.

ایلیا دلیو یک الهی دان در دانشگاه ویلانوا است که کارش بر تقاطع ایمان و علم متمرکز است. او معتقد است که هوش مصنوعی می تواند همدلی را آموزش دهد.

Image
Image

Delio اشاره کرد که یک تیم در MIT روبات هایی ساخته اند که می توانند احساسات انسانی مانند شادی، غم و شفقت را تقلید کنند. او گفت: «در حالی که احساسات روباتیک برنامه‌ریزی می‌شوند، ربات‌ها می‌توانند با انسان‌ها تعامل داشته باشند و در نتیجه الگوهای عصبی را ایجاد یا تقویت کنند.»

آیا یک ماشین می تواند همدلی را درک کند؟

کارلا اریکسون، جامعه‌شناس در کالج گرینل در آیووا و نویسنده کتاب آینده، انسان‌های آشفته: جامعه‌شناسی، می‌گوید: کارلا اریکسون، جامعه‌شناس کالج گرینل در آیووا، متخصصان حداقل سه شکل از همدلی را تعریف می‌کنند که همگی شامل توانایی درک و ارتباط با دیگران است. روابط انسان/ماشین، که روابط ما با فناوری را بررسی می‌کند.

اریکسون در یک مصاحبه ایمیلی گفت: "ارتباط کاری چیزی نیست که هوش مصنوعی بتواند انجام دهد، و مبنایی برای همدلی است".

هوش مصنوعی ممکن است به گونه ای برنامه ریزی شود که برخی از رفتارهای انسانی را که همراه با همدلی هستند تجزیه کند و به انسان یادآوری کند که آنها را انجام دهد، اما این آموزش همدلی نیست. برقراری ارتباط، به ویژه از لحاظ همدلی، مستلزم داشتن شنونده است. زمینه لازم برای ارتباط با این موضوع، منظور من این است که «زندگی» یک هوش مصنوعی شامل از دست دادن، اشتیاق، امید، درد یا مرگ نمی شود.»

با این حال، کارشناسان بر سر اینکه آیا هوش مصنوعی می تواند به ما یاد دهد که چگونه همدلی کنیم، با هم اختلاف دارند.بخشی از مشکل این است که همه در مورد معنای "همدلی" یا "AI" توافق ندارند. اصطلاح هوش مصنوعی بسیار مورد استفاده قرار می گیرد، اما در حال حاضر از آن نوع هوشی نیست که ما به عنوان انسان تصور می کنیم.

این یک کار مهندسی خالص است و من چنین توهمی ندارم که هوش مصنوعی مورد نظر خودش احساساتی داشته باشد یا واقعاً احساسات را درک کند.

مایکل اسپزیو، استاد روانشناسی، علوم اعصاب و علوم داده در کالج اسکریپس، در یک مصاحبه ایمیلی گفت: "نشانه های همدلی" هیچ ربطی به همدلی ندارند.

"آنها نشانه‌هایی از صداهایی هستند که ارزیابی‌کننده‌های انسانی آن‌ها را به عنوان صدای افرادی که عصبانی/آزرده هستند طبقه‌بندی کرده‌اند. بنابراین فقط از تخصص انسانی در یک مدل ریاضی استفاده می‌کنیم و سپس ادعا می‌کنیم که مدل ساخته شده بر اساس تخصص انسان است. هوشمند. رویکردهای محدود یادگیری ماشینی مانند این اغلب به عنوان هوش مصنوعی بدون هوشمند بودن تبلیغ می‌شوند."

در موسسه پلی تکنیک Rensselaer، آزمایشگاه Selmer Bringsjord در حال ساخت مدل های ریاضی از احساسات انسانی است.هدف از این تحقیق ایجاد هوش مصنوعی است که بتواند در تست‌های هوش هیجانی امتیاز بالایی کسب کند و آن‌ها را برای انسان‌ها اعمال کند. اما Bringsjord، یک متخصص هوش مصنوعی، می‌گوید هر آموزشی که هوش مصنوعی انجام می‌دهد سهوی است.

"اما این یک کار مهندسی خالص است، و من چنین توهمی ندارم که هوش مصنوعی مورد بحث، خودش احساسات دارد یا واقعاً احساسات را درک می کند."

چه چیزی ممکن است اشتباه شود؟

در حالی که شرکت هایی مانند Cogito آینده روشنی را در آموزش انسان ها با هوش مصنوعی می بینند، سایر ناظران محتاط تر هستند.

Supportiv، یک سرویس آنلاین سلامت روان، از هوش مصنوعی استفاده می کند تا هر کاربر را بر اساس هر فکر واحدی که در زمان واقعی بیان می کند، به یک گروه پشتیبانی همتایان با موضوع خاص هدایت کند که به صورت پویا برای کاربرانی که مشکلات مشابه دارند گرد هم می آیند.

Image
Image

هر گروه یک ناظر انسانی "فوق العاده" دارد که چت مبتنی بر متن را ایمن و بدون ترول نگه می دارد و می تواند دوباره از طریق هوش مصنوعی منابع مربوطه، توصیه ها و ارجاعات را مستقیماً در گفتگوی گروهی ظاهر کند.با استفاده از هوش مصنوعی، Supportiv به مدیران خود آموزش می‌دهد تا در تشخیص شدت نیازهای عاطفی ماهر باشند.

«همدلی عضله ای است که ما می سازیم»، زارا دانا، دانشمند داده در Supportiv، در یک مصاحبه ایمیلی گفت.

"اگر ما شروع به استفاده از عصا برای راه رفتن کنیم، ماهیچه هایمان دچار آتروفی می شوند. نمی توانم از خود فکر نکنم، آیا یک کارگر وابسته اگر روزی سیستم هوش مصنوعی آنلاین نباشد، احساس اطمینان می کند؟ آیا او می تواند این کار را انجام دهد. به طور موثر کار می کند؟ اثرات بلندمدت بر کارگران چیست؟ آنها چگونه می توانند موقعیت های اجتماعی پیچیده ای را که در آن هوش مصنوعی وجود ندارد هدایت کنند؟"

حتی اگر استفاده از هوش مصنوعی برای آموزش همدلی کارساز باشد، چه اتفاقی می‌افتد وقتی بیش از حد به هوش مصنوعی برای آموزش احساسات تکیه می‌کنیم؟ دلیو خاطرنشان کرد: یکی از نکات منفی احتمالی این است که انسان‌ها می‌توانند بیشتر از انسان‌های دیگر به ربات‌ها وابسته شوند، زیرا روبات‌ها نمی‌توانند برخلاف برنامه‌شان انتخاب کنند.

دلیو گفت: "ظرفیت انسان برای اراده آزاد، عاملیت انسان را در موقعیت مبهم تری قرار می دهد." "یک فرد می تواند یک روز دلسوز و روز دیگر بی رحم باشد؛ یک ربات همیشه دلسوز خواهد بود مگر اینکه برای انجام غیر این کار آموزش ببیند."

کارشناسان می گویند اگر هوش مصنوعی به انسان ها بیاموزد چگونه مانند مردم رفتار کنند، مشکلات زیادی وجود دارد.

ما به عنوان حیوانات اجتماعی تکامل یافته ایم، و همدلی ما در توانایی ما برای ارتباط با دیگران و اهمیت دادن به گروه هایی که به آن تعلق داریم، مرکزی است.

"بدون نظارت انسان، دانش آموز ممکن است چیزی کاملاً مزخرف یاد بگیرد."

"لحن و زیر و بم صدا صرفاً همبستگی های رفتاری هستند، بدون هیچ محتوا. دلار به دونات صدای من در حین تدریس در کلاس توسط بسیاری خوانده می شود … به عنوان نشان دهنده این است که من ناراحت هستم، در حالی که در واقعیت، من. من فقط پرشور هستم و کمترین نیاز به همدلی دارم."

اگر آموزش انسان ها با هوش مصنوعی شکوفا شود، ممکن است به آن تکیه کنیم. و این لزوما چیز خوبی نیست.

اریکسون گفت: «این آموزش مهارت‌های انسانی را که قابل توجه است بی‌ارزش می‌کند و توجه را به سمت هوش مصنوعی معطوف می‌کند که گویی آن‌ها متخصص هستند."ما به عنوان حیوانات اجتماعی تکامل یافته ایم و همدلی ما در توانایی ما برای ارتباط با دیگران و اهمیت دادن به گروه هایی که به آن تعلق داریم، مرکزی است."

توصیه شده: