موارد مهم
- دستیار صوتی الکسای آمازون می تواند صدایی را با کمتر از یک دقیقه صدا کپی کند.
- می توانید از الکسا بخواهید داستانی را با صدای پدر یا مادر مرده بخواند.
- این همان ایده دروغ های عمیق است که فقط برای قدرت های خوب استفاده می شود.
آخرین ترفند آمازون الکسا این است که یاد بگیرید صدای یکی از عزیزان مرده را تقلید کنید تا آنها بتوانند از آن سوی قبر با شما صحبت کنند.
Alexa برای تقلید قانع کننده یک صدا فقط به یک دقیقه صوتی گفتاری نیاز دارد.آمازون آن را به عنوان یک ویژگی آرامش بخش می داند که می تواند شما را با عزیزان خود در تماس قرار دهد، اما همچنین می تواند تجربه بسیار وحشتناکی باشد. و این نشان میدهد که چقدر آسان است که صدای جعلی عمیق بسازیم که به اندازه کافی خوب است که ما را فریب دهد، حتی زمانی که صدا را به خوبی میشناسیم.
بیل مان، کارشناس حریم خصوصی در Restore Privacy، گفت: «آمازون با اعلام خود که الکسا به زودی قادر به یادگیری و سپس استفاده از صدای بستگان مرده خواهد بود، قطعاً وارد یک منطقه نسبتاً منحصر به فرد و عجیب شده است. Lifewire از طریق ایمیل. "برای برخی از مردم، این به هیچ وجه ترسناک نیست. در واقع، می تواند نسبتاً تاثیرگذار باشد."
شبح در ماشین
به عنوان بخشی از کنفرانس سالانه re:MARS، آمازون این ویژگی را در یک ویدیوی کوتاه نشان می دهد. در آن، کودکی از الکسا میپرسد که آیا مادربزرگ میتواند به خواندن او «جادوگر شهر اوز»، اثر عمومی مورد علاقه هر کودک برای سخنرانی ادامه دهد. و این یک لحظه کاملا لمس کننده است. وقتی مادربزرگ شروع به خواندن می کند، احساس نکردن احساسات انسانی سخت است.
اندرو سلپاک "انسان ها با مرگ و میر مبارزه می کنند، به ویژه در فرهنگ غربی. قرن هاست که ما سعی کرده ایم راه هایی برای یادبود مردگان پیدا کنیم، از ماسک های مرگ، تا دسته های مو، عکس های قدیمی، تا تماشای فیلم های قدیمی." یک استاد رسانه های اجتماعی در دانشگاه فلوریدا از طریق ایمیل به Lifewire گفت. «دیپفیکها از جدیدترین فناوریها برای ساختن ماسک مرگ یک عزیز متوفی استفاده میکنند. اما، بسته به دیدگاه فرد، آیا این ترسناک است یا راهی برای یادبود و نگهداشتن کسی که دوستش دارید پس از مرگش؟»
اما یادگاری می تواند هم آرامش بخش و هم ترسناک باشد. دوست یکی از اعضای خانواده مرده است، با این حال هنوز می توانید صحبت کردن آنها را بشنوید. این که الکسا سابقه رفتارهای عجیب و غریب و گاهی وحشتناک دارد کمکی نمی کند. در سال 2018، هنگامی که فرهاد منجو، ستوننویس افکار عمومی NYT داشت به رختخواب میرفت، آمازون اکو او "شروع به زاری کرد، مانند کودکی که در رویای فیلم ترسناک فریاد میکشد."
بلافاصله پس از آن، آمازون اذعان کرد که الکسا گاهی اوقات با صدای بلند می خندد، که همراه با نوجوانان و زیرزمین ها، فیلم ترسناک 101 است.
فقط می توان تعجب کرد که اگر الکسا همان ترفندها را در صدای مادربزرگ انجام دهد، چه احساسی خواهید داشت.
Deep Fake
آسانی آشکاری که الکسا با آن می آموزد تقلید یک صدا را می آموزد، ما را به استفاده های شیطانی تر از شبیه سازی صدا سوق می دهد: تقلبی های عمیق.
"صدای Deepfake چیز جدیدی نیست، حتی اگر کمتر شناخته شده باشد و کمتر شناخته شده باشد. این فناوری سال هاست که برای بازسازی صدای یک فرد با هوش مصنوعی و یادگیری عمیق با استفاده از صدای واقعی نسبتا کمی از شخص در دسترس است." سلپک می گوید. "چنین فناوری همچنین می تواند خطرناک و مخرب باشد. یک فرد آشفته می تواند صدای یک دوست پسر یا دوست دختر مرده سابق را بازسازی کند و از صدای جدید برای گفتن چیزهای نفرت انگیز و آزار دهنده استفاده کند."
این فقط در زمینه الکسا است. صدای جعلی عمیق میتواند بسیار فراتر از این باشد و مردم را متقاعد کند که سیاستمداران برجسته چیزهایی را که مثلاً باور نمیکنند، باور میکنند.اما از سوی دیگر، هر چه بیشتر به این جعلیهای عمیق عادت کنیم - شاید در قالب این صداهای الکسا - بیشتر به جعلیهای شرورتر شک میکنیم. با توجه به اینکه انتشار دروغ در فیسبوک چقدر آسان است، شاید نه.
آمازون نگفته است که آیا این ویژگی به الکسا می آید یا فقط یک نسخه آزمایشی فناوری است. من به نوعی امیدوارم که انجام شود. فناوری زمانی که به شیوهای انسانگرایانه مانند این مورد استفاده قرار میگیرد، در بهترین حالت خود قرار دارد، و اگرچه واکنش آسان این است که آن را ترسناک بنامیم، همانطور که Selepak میگوید، واقعاً تفاوت چندانی با تماشای ویدیوهای قدیمی یا گوش دادن به پستهای صوتی ذخیرهشده ندارد. مانند یک شخصیت در یک برنامه تلویزیونی با فیلمنامه تنبلی.
و اگر فن آوری برای تقلبی های عمیق به راحتی در دسترس است، چرا از آن برای آرامش خود استفاده نکنیم؟