توانایی الکسا برای تقلید از بستگان مرده ممکن است وحشتناک ترین چیز باشد

فهرست مطالب:

توانایی الکسا برای تقلید از بستگان مرده ممکن است وحشتناک ترین چیز باشد
توانایی الکسا برای تقلید از بستگان مرده ممکن است وحشتناک ترین چیز باشد
Anonim

موارد مهم

  • دستیار صوتی الکسای آمازون می تواند صدایی را با کمتر از یک دقیقه صدا کپی کند.
  • می توانید از الکسا بخواهید داستانی را با صدای پدر یا مادر مرده بخواند.
  • این همان ایده دروغ های عمیق است که فقط برای قدرت های خوب استفاده می شود.
Image
Image

آخرین ترفند آمازون الکسا این است که یاد بگیرید صدای یکی از عزیزان مرده را تقلید کنید تا آنها بتوانند از آن سوی قبر با شما صحبت کنند.

Alexa برای تقلید قانع کننده یک صدا فقط به یک دقیقه صوتی گفتاری نیاز دارد.آمازون آن را به عنوان یک ویژگی آرامش بخش می داند که می تواند شما را با عزیزان خود در تماس قرار دهد، اما همچنین می تواند تجربه بسیار وحشتناکی باشد. و این نشان می‌دهد که چقدر آسان است که صدای جعلی عمیق بسازیم که به اندازه کافی خوب است که ما را فریب دهد، حتی زمانی که صدا را به خوبی می‌شناسیم.

بیل مان، کارشناس حریم خصوصی در Restore Privacy، گفت: «آمازون با اعلام خود که الکسا به زودی قادر به یادگیری و سپس استفاده از صدای بستگان مرده خواهد بود، قطعاً وارد یک منطقه نسبتاً منحصر به فرد و عجیب شده است. Lifewire از طریق ایمیل. "برای برخی از مردم، این به هیچ وجه ترسناک نیست. در واقع، می تواند نسبتاً تاثیرگذار باشد."

شبح در ماشین

به عنوان بخشی از کنفرانس سالانه re:MARS، آمازون این ویژگی را در یک ویدیوی کوتاه نشان می دهد. در آن، کودکی از الکسا می‌پرسد که آیا مادربزرگ می‌تواند به خواندن او «جادوگر شهر اوز»، اثر عمومی مورد علاقه هر کودک برای سخنرانی ادامه دهد. و این یک لحظه کاملا لمس کننده است. وقتی مادربزرگ شروع به خواندن می کند، احساس نکردن احساسات انسانی سخت است.

اندرو سلپاک "انسان ها با مرگ و میر مبارزه می کنند، به ویژه در فرهنگ غربی. قرن هاست که ما سعی کرده ایم راه هایی برای یادبود مردگان پیدا کنیم، از ماسک های مرگ، تا دسته های مو، عکس های قدیمی، تا تماشای فیلم های قدیمی." یک استاد رسانه های اجتماعی در دانشگاه فلوریدا از طریق ایمیل به Lifewire گفت. «دیپ‌فیک‌ها از جدیدترین فناوری‌ها برای ساختن ماسک مرگ یک عزیز متوفی استفاده می‌کنند. اما، بسته به دیدگاه فرد، آیا این ترسناک است یا راهی برای یادبود و نگه‌داشتن کسی که دوستش دارید پس از مرگش؟»

اما یادگاری می تواند هم آرامش بخش و هم ترسناک باشد. دوست یکی از اعضای خانواده مرده است، با این حال هنوز می توانید صحبت کردن آنها را بشنوید. این که الکسا سابقه رفتارهای عجیب و غریب و گاهی وحشتناک دارد کمکی نمی کند. در سال 2018، هنگامی که فرهاد منجو، ستون‌نویس افکار عمومی NYT داشت به رختخواب می‌رفت، آمازون اکو او "شروع به زاری کرد، مانند کودکی که در رویای فیلم ترسناک فریاد می‌کشد."

بلافاصله پس از آن، آمازون اذعان کرد که الکسا گاهی اوقات با صدای بلند می خندد، که همراه با نوجوانان و زیرزمین ها، فیلم ترسناک 101 است.

فقط می توان تعجب کرد که اگر الکسا همان ترفندها را در صدای مادربزرگ انجام دهد، چه احساسی خواهید داشت.

Deep Fake

آسانی آشکاری که الکسا با آن می آموزد تقلید یک صدا را می آموزد، ما را به استفاده های شیطانی تر از شبیه سازی صدا سوق می دهد: تقلبی های عمیق.

Image
Image

"صدای Deepfake چیز جدیدی نیست، حتی اگر کمتر شناخته شده باشد و کمتر شناخته شده باشد. این فناوری سال هاست که برای بازسازی صدای یک فرد با هوش مصنوعی و یادگیری عمیق با استفاده از صدای واقعی نسبتا کمی از شخص در دسترس است." سلپک می گوید. "چنین فناوری همچنین می تواند خطرناک و مخرب باشد. یک فرد آشفته می تواند صدای یک دوست پسر یا دوست دختر مرده سابق را بازسازی کند و از صدای جدید برای گفتن چیزهای نفرت انگیز و آزار دهنده استفاده کند."

این فقط در زمینه الکسا است. صدای جعلی عمیق می‌تواند بسیار فراتر از این باشد و مردم را متقاعد کند که سیاستمداران برجسته چیزهایی را که مثلاً باور نمی‌کنند، باور می‌کنند.اما از سوی دیگر، هر چه بیشتر به این جعلی‌های عمیق عادت کنیم - شاید در قالب این صداهای الکسا - بیشتر به جعلی‌های شرورتر شک می‌کنیم. با توجه به اینکه انتشار دروغ در فیسبوک چقدر آسان است، شاید نه.

آمازون نگفته است که آیا این ویژگی به الکسا می آید یا فقط یک نسخه آزمایشی فناوری است. من به نوعی امیدوارم که انجام شود. فناوری زمانی که به شیوه‌ای انسان‌گرایانه مانند این مورد استفاده قرار می‌گیرد، در بهترین حالت خود قرار دارد، و اگرچه واکنش آسان این است که آن را ترسناک بنامیم، همانطور که Selepak می‌گوید، واقعاً تفاوت چندانی با تماشای ویدیوهای قدیمی یا گوش دادن به پست‌های صوتی ذخیره‌شده ندارد. مانند یک شخصیت در یک برنامه تلویزیونی با فیلمنامه تنبلی.

و اگر فن آوری برای تقلبی های عمیق به راحتی در دسترس است، چرا از آن برای آرامش خود استفاده نکنیم؟

توصیه شده: