موارد مهم
- محققان روشی ابداع کرده اند تا مکالمات را به هم بزنند تا میکروفون های سرکش را از ضبط مکالمات ما شکست دهند.
- این روش قابل توجه است زیرا در زمان واقعی در پخش صدا و با حداقل آموزش کار می کند.
- کارشناسان این تحقیق را تحسین می کنند، اما فکر می کنند که برای یک کاربر معمولی تلفن هوشمند مفید نیست.
ما توسط دستگاههای هوشمند با میکروفون احاطه شدهایم، اما اگر آنها برای استراق سمع ما در معرض خطر قرار گرفته باشند چه میشود؟
در تلاشی برای محافظت از مکالمات خود در برابر جاسوسان، محققان دانشگاه کلمبیا یک روش استتار صدای عصبی ایجاد کرده اند که سیستم های تشخیص خودکار گفتار را در زمان واقعی بدون ایجاد مزاحمت برای افراد مختل می کند.
"با هجوم [دستگاههای فعال با صدای هوشمند] به زندگی ما، ایده حفظ حریم خصوصی شروع به تبخیر میکند زیرا این دستگاههای شنود همیشه روشن هستند و آنچه گفته میشود نظارت میکنند، "چارلز اورت، مدیر دفاع سایبری، Deep Instinct از طریق ایمیل به Lifewire گفت. "این تحقیق پاسخی مستقیم به نیاز به پنهان کردن یا استتار کردن صدا و مکالمات یک فرد از این استراق سمع کنندگان الکترونیکی، شناخته شده یا ناشناس در یک منطقه است."
حرف زدن
محققان سیستمی ایجاد کرده اند که صداهای آرام و زمزمه ای تولید می کند که می توانید در هر اتاقی پخش کنید تا از جاسوسی میکروفون های سرکش از مکالمات شما جلوگیری کند.
روشی که این نوع فناوری با استراق سمع مقابله می کند اورت را به یاد هدفون های حذف نویز می اندازد.محققان به جای تولید صداهای آرام زمزمه برای از بین بردن نویز پسزمینه، صداهای پسزمینهای را پخش میکنند که الگوریتمهای هوش مصنوعی (AI) را مختل میکنند که امواج صوتی را به صدای قابل درک تفسیر میکند.
چنین مکانیسمهایی برای استتار صدای افراد منحصربهفرد نیستند، اما چیزی که استتار صدای عصبی را از روشهای دیگر متمایز میکند این است که در زمان واقعی در پخش صدا کار میکند.
"برای کار بر روی گفتار زنده، رویکرد ما باید [صوت درهمسازی صحیح] را در آینده پیشبینی کند تا بتوان آنها را در زمان واقعی پخش کرد. در حال حاضر، این روش برای اکثر زبان انگلیسی کار می کند.
Hans Hansen، مدیر عامل Brand3D، به Lifewire گفت که این تحقیق بسیار مهم است زیرا به یک ضعف عمده در سیستمهای هوش مصنوعی امروزی حمله میکند.
در یک مکالمه ایمیلی، هانسن توضیح داد که سیستمهای هوش مصنوعی یادگیری عمیق فعلی به طور کلی و تشخیص طبیعی گفتار به طور خاص پس از پردازش میلیونها رکورد داده گفتاری جمعآوریشده از هزاران سخنران کار میکنند.در مقابل، استتار صدای عصبی پس از شرطیسازی تنها با دو ثانیه گفتار ورودی کار میکند.
شخصاً، اگر نگران گوش دادن به دستگاهها هستم، راهحل من اضافه کردن دستگاه شنود دیگری که به دنبال ایجاد نویز پسزمینه است، نیست.
درخت اشتباهی؟
برایان چاپل، استراتژیست ارشد امنیتی در BeyondTrust، معتقد است که این تحقیق برای کاربران تجاری مفیدتر است که می ترسند در میان دستگاه های در معرض خطر قرار بگیرند که به کلمات کلیدی گوش می دهند که نشان می دهد اطلاعات ارزشمندی گفته می شود.
جیمز ماود، محقق ارشد امنیت سایبری BeyondTrust، از طریق ایمیل به Lifewire گفت: «جایی که این فناوری به طور بالقوه جالبتر خواهد بود، در یک وضعیت نظارت مستبدتر است که در آن تجزیه و تحلیل چاپ صوتی و ویدئویی هوش مصنوعی علیه شهروندان استفاده میشود.»
Maude پیشنهاد کرد که یک جایگزین بهتر، اجرای کنترلهای حریم خصوصی در مورد نحوه ضبط، ذخیره و استفاده از دادهها توسط این دستگاهها است. علاوه بر این، چاپل معتقد است که سودمندی روش محقق محدود است، زیرا این روش برای جلوگیری از استراق سمع انسان طراحی نشده است.
"برای خانه، به خاطر داشته باشید که حداقل در تئوری، استفاده از چنین ابزاری باعث می شود سیری، الکسا، گوگل هوم و هر سیستم دیگری که با یک کلمه محرک گفتاری فعال می شود، شما را نادیده بگیرد." چپل.
اما کارشناسان بر این باورند که با گنجاندن فزاینده فناوری خاص AI/ML در دستگاههای هوشمند ما، این امکان کاملاً وجود دارد که این فناوری در آینده نزدیک در تلفنهای ما به پایان برسد.
Maude نگران است زیرا فناوریهای هوش مصنوعی میتوانند به سرعت تمایز بین نویز و صدای واقعی را یاد بگیرند. او فکر میکند که اگرچه سیستم ممکن است در ابتدا موفق باشد، اما میتواند به سرعت به یک بازی موش و گربه تبدیل شود، زیرا یک دستگاه شنود میآموزد صداهای پارازیت را فیلتر کند.
نگرانکنندهتر، ماود خاطرنشان کرد که هر کسی که از آن استفاده میکند، در واقع میتواند توجه خود را به سمت خود جلب کند، زیرا اختلال در تشخیص صدا غیرعادی به نظر میرسد و ممکن است نشاندهنده تلاش شما برای پنهان کردن چیزی باشد.
"شخصاً، اگر من نگران گوش دادن به دستگاهها هستم، راه حل من اضافه کردن دستگاه شنود دیگری که به دنبال ایجاد نویز پسزمینه است، نیست. "به خصوص که خطر هک شدن یک دستگاه یا برنامه را افزایش می دهد و می تواند به من گوش دهد."