موارد مهم
- برنامههای هوش مصنوعی مانند Cogito سعی میکنند به انسانها همدلی در برخورد با مشتریان را آموزش دهند.
- کارشناسان در مورد اینکه آیا ممکن است یک ماشین به مردم همدلی بیاموزد یا اینکه صرفاً نقاط داده را پیدا کند، اختلاف نظر دارند.
- برخی از کارشناسان همچنین نگران هستند که آموزش همدلی با هوش مصنوعی می تواند این احساسات را از بشریت سلب کند.
تصور کنید در یک مرکز تماس کار می کنید و یک مشتری تماس می گیرد. شما پاسخ می دهید و بلافاصله اوضاع بد می شود. مشتری عصبانی است و تنش ها بالا می رود.
شروع به گفتن چیزهایی می کنید که ممکن است بعداً پشیمان شوید. ناگهان پیامی روی صفحه کامپیوتر شما ظاهر می شود. "نشانه همدلی - به احساس مشتری فکر کنید. سعی کنید با هم ارتباط برقرار کنید."
این یک شخص واقعی نیست که به شما بگوید چه کاری انجام دهید. این پیامی از Cogito است، یک برنامه هوش مصنوعی که برای کمک به کارگران طراحی شده است تا با تماسگیرندگان ناامید همدلی کنند و عملکرد را افزایش دهند. Cogito یکی از برنامههای رو به رشد هوش مصنوعی است که سعی در آموزش همدلی به انسان دارد.
اینجا یک کنایه آشکار وجود دارد. دانشمندان بشر برای دهه ها تلاش کرده اند تا کامپیوترهای واقعی تری بسازند. اکنون، ماشینها به ما میگویند که چگونه رفتار کنیم. اما آیا نرم افزار واقعاً می تواند به ما بیاموزد که چگونه همدل تر باشیم؟ این مسئله ای است که می تواند پیامدهای عمیقی داشته باشد زیرا هوش مصنوعی شروع به نفوذ در زندگی روزمره می کند.
هوش مصنوعی رفتار انسان را تقلید می کند
از نقطه نظر فنی، واضح است که هوش مصنوعی میتواند سرنخهایی درباره احساس انسان و ارائه بازخورد دریافت کند.
"آدام پولیاک، یک دانشجوی فوق دکترا در علوم کامپیوتر در کالج بارنارد، در یک مصاحبه ایمیلی گفت: "سیستم های هوش مصنوعی و یادگیری ماشین در یافتن الگوها در داده ها بسیار خوب هستند".
"اگر به یک هوش مصنوعی نمونه های زیادی از متن همدلانه ارائه دهیم، هوش مصنوعی می تواند الگوها و نشانه هایی را که همدلی را برمی انگیزد یا نشان می دهد، کشف کند."
هوش مصنوعی ممکن است طوری برنامه ریزی شده باشد که برخی از رفتارهای انسانی را که همراه با همدلی هستند تجزیه کند و به انسان یادآوری کند که آنها را انجام دهد، اما این آموزش همدلی نیست.
برت گرینشتاین، کارشناس هوش مصنوعی در Cognizant Digital Business، در یک مصاحبه ایمیلی گفت: هوش مصنوعی که واکنشهای انسان را تجزیه و تحلیل میکند، میتواند به پر کردن شکاف رو به رشد بین افراد در حین برقراری ارتباط دیجیتالی کمک کند.
در طول سال گذشته، زمان واقعی، ویدئو، صدا و پیامرسانی سریعتر از چیزی که هر کسی تصور میکرد رشد کرد و با چالشهای بزرگی در ایجاد روابط واقعاً همدلانه بدون صرف وقت فیزیکی با مردم مواجه شد. اضافه شد.
گرینشتاین گفت AIمی تواند به تجزیه و تحلیل و ارزیابی ویژگی هایی مانند لحن و احساسات در گفتار کمک کند. او افزود: "این می تواند به شخص دریافت کننده ارتباطات کمک کند تا منظور را بهتر درک کند، و با نشان دادن نحوه تفسیر پیام ها به فرد "صحبت کننده" کمک می کند."
در حالی که شرکتها عجله دارند تا از نرمافزارهای آموزشی هوش مصنوعی مانند Cogito پول نقد کنند، این سوال که آیا هوش مصنوعی میتواند همدلی را به انسانها بیاموزد همچنان باز است. و پاسخ ممکن است به همان اندازه که با فناوری ارتباط داشته باشد، با فلسفه نیز مرتبط باشد.
ایلیا دلیو یک الهی دان در دانشگاه ویلانوا است که کارش بر تقاطع ایمان و علم متمرکز است. او معتقد است که هوش مصنوعی می تواند همدلی را آموزش دهد.
Delio اشاره کرد که یک تیم در MIT روبات هایی ساخته اند که می توانند احساسات انسانی مانند شادی، غم و شفقت را تقلید کنند. او گفت: «در حالی که احساسات روباتیک برنامهریزی میشوند، رباتها میتوانند با انسانها تعامل داشته باشند و در نتیجه الگوهای عصبی را ایجاد یا تقویت کنند.»
آیا یک ماشین می تواند همدلی را درک کند؟
کارلا اریکسون، جامعهشناس در کالج گرینل در آیووا و نویسنده کتاب آینده، انسانهای آشفته: جامعهشناسی، میگوید: کارلا اریکسون، جامعهشناس کالج گرینل در آیووا، متخصصان حداقل سه شکل از همدلی را تعریف میکنند که همگی شامل توانایی درک و ارتباط با دیگران است. روابط انسان/ماشین، که روابط ما با فناوری را بررسی میکند.
اریکسون در یک مصاحبه ایمیلی گفت: "ارتباط کاری چیزی نیست که هوش مصنوعی بتواند انجام دهد، و مبنایی برای همدلی است".
هوش مصنوعی ممکن است به گونه ای برنامه ریزی شود که برخی از رفتارهای انسانی را که همراه با همدلی هستند تجزیه کند و به انسان یادآوری کند که آنها را انجام دهد، اما این آموزش همدلی نیست. برقراری ارتباط، به ویژه از لحاظ همدلی، مستلزم داشتن شنونده است. زمینه لازم برای ارتباط با این موضوع، منظور من این است که «زندگی» یک هوش مصنوعی شامل از دست دادن، اشتیاق، امید، درد یا مرگ نمی شود.»
با این حال، کارشناسان بر سر اینکه آیا هوش مصنوعی می تواند به ما یاد دهد که چگونه همدلی کنیم، با هم اختلاف دارند.بخشی از مشکل این است که همه در مورد معنای "همدلی" یا "AI" توافق ندارند. اصطلاح هوش مصنوعی بسیار مورد استفاده قرار می گیرد، اما در حال حاضر از آن نوع هوشی نیست که ما به عنوان انسان تصور می کنیم.
این یک کار مهندسی خالص است و من چنین توهمی ندارم که هوش مصنوعی مورد نظر خودش احساساتی داشته باشد یا واقعاً احساسات را درک کند.
مایکل اسپزیو، استاد روانشناسی، علوم اعصاب و علوم داده در کالج اسکریپس، در یک مصاحبه ایمیلی گفت: "نشانه های همدلی" هیچ ربطی به همدلی ندارند.
"آنها نشانههایی از صداهایی هستند که ارزیابیکنندههای انسانی آنها را به عنوان صدای افرادی که عصبانی/آزرده هستند طبقهبندی کردهاند. بنابراین فقط از تخصص انسانی در یک مدل ریاضی استفاده میکنیم و سپس ادعا میکنیم که مدل ساخته شده بر اساس تخصص انسان است. هوشمند. رویکردهای محدود یادگیری ماشینی مانند این اغلب به عنوان هوش مصنوعی بدون هوشمند بودن تبلیغ میشوند."
در موسسه پلی تکنیک Rensselaer، آزمایشگاه Selmer Bringsjord در حال ساخت مدل های ریاضی از احساسات انسانی است.هدف از این تحقیق ایجاد هوش مصنوعی است که بتواند در تستهای هوش هیجانی امتیاز بالایی کسب کند و آنها را برای انسانها اعمال کند. اما Bringsjord، یک متخصص هوش مصنوعی، میگوید هر آموزشی که هوش مصنوعی انجام میدهد سهوی است.
"اما این یک کار مهندسی خالص است، و من چنین توهمی ندارم که هوش مصنوعی مورد بحث، خودش احساسات دارد یا واقعاً احساسات را درک می کند."
چه چیزی ممکن است اشتباه شود؟
در حالی که شرکت هایی مانند Cogito آینده روشنی را در آموزش انسان ها با هوش مصنوعی می بینند، سایر ناظران محتاط تر هستند.
Supportiv، یک سرویس آنلاین سلامت روان، از هوش مصنوعی استفاده می کند تا هر کاربر را بر اساس هر فکر واحدی که در زمان واقعی بیان می کند، به یک گروه پشتیبانی همتایان با موضوع خاص هدایت کند که به صورت پویا برای کاربرانی که مشکلات مشابه دارند گرد هم می آیند.
هر گروه یک ناظر انسانی "فوق العاده" دارد که چت مبتنی بر متن را ایمن و بدون ترول نگه می دارد و می تواند دوباره از طریق هوش مصنوعی منابع مربوطه، توصیه ها و ارجاعات را مستقیماً در گفتگوی گروهی ظاهر کند.با استفاده از هوش مصنوعی، Supportiv به مدیران خود آموزش میدهد تا در تشخیص شدت نیازهای عاطفی ماهر باشند.
«همدلی عضله ای است که ما می سازیم»، زارا دانا، دانشمند داده در Supportiv، در یک مصاحبه ایمیلی گفت.
"اگر ما شروع به استفاده از عصا برای راه رفتن کنیم، ماهیچه هایمان دچار آتروفی می شوند. نمی توانم از خود فکر نکنم، آیا یک کارگر وابسته اگر روزی سیستم هوش مصنوعی آنلاین نباشد، احساس اطمینان می کند؟ آیا او می تواند این کار را انجام دهد. به طور موثر کار می کند؟ اثرات بلندمدت بر کارگران چیست؟ آنها چگونه می توانند موقعیت های اجتماعی پیچیده ای را که در آن هوش مصنوعی وجود ندارد هدایت کنند؟"
حتی اگر استفاده از هوش مصنوعی برای آموزش همدلی کارساز باشد، چه اتفاقی میافتد وقتی بیش از حد به هوش مصنوعی برای آموزش احساسات تکیه میکنیم؟ دلیو خاطرنشان کرد: یکی از نکات منفی احتمالی این است که انسانها میتوانند بیشتر از انسانهای دیگر به رباتها وابسته شوند، زیرا روباتها نمیتوانند برخلاف برنامهشان انتخاب کنند.
دلیو گفت: "ظرفیت انسان برای اراده آزاد، عاملیت انسان را در موقعیت مبهم تری قرار می دهد." "یک فرد می تواند یک روز دلسوز و روز دیگر بی رحم باشد؛ یک ربات همیشه دلسوز خواهد بود مگر اینکه برای انجام غیر این کار آموزش ببیند."
کارشناسان می گویند اگر هوش مصنوعی به انسان ها بیاموزد چگونه مانند مردم رفتار کنند، مشکلات زیادی وجود دارد.
ما به عنوان حیوانات اجتماعی تکامل یافته ایم، و همدلی ما در توانایی ما برای ارتباط با دیگران و اهمیت دادن به گروه هایی که به آن تعلق داریم، مرکزی است.
"بدون نظارت انسان، دانش آموز ممکن است چیزی کاملاً مزخرف یاد بگیرد."
"لحن و زیر و بم صدا صرفاً همبستگی های رفتاری هستند، بدون هیچ محتوا. دلار به دونات صدای من در حین تدریس در کلاس توسط بسیاری خوانده می شود … به عنوان نشان دهنده این است که من ناراحت هستم، در حالی که در واقعیت، من. من فقط پرشور هستم و کمترین نیاز به همدلی دارم."
اگر آموزش انسان ها با هوش مصنوعی شکوفا شود، ممکن است به آن تکیه کنیم. و این لزوما چیز خوبی نیست.
اریکسون گفت: «این آموزش مهارتهای انسانی را که قابل توجه است بیارزش میکند و توجه را به سمت هوش مصنوعی معطوف میکند که گویی آنها متخصص هستند."ما به عنوان حیوانات اجتماعی تکامل یافته ایم و همدلی ما در توانایی ما برای ارتباط با دیگران و اهمیت دادن به گروه هایی که به آن تعلق داریم، مرکزی است."