20702 Китайський ІІ клонує голос користувача за лічені секунди

Китайський ІІ клонує голос користувача за лічені секунди



Китайский ИИ клонирует голос пользователя за считанные секунды

Baidu — компанія, яку багато звуть «китайським Google». Нещодавно вона опублікувала техдокументацію, що оповідає про нові розробки в галузі штучного інтелекту. Система, заснована на нейронної мережі, вміє клонувати голос людини, проаналізувавши навіть коротенький шматок запису. Вона не тільки непогана в імітації людської мови, але і вміє доповнювати її різними «фішками» типу акценту.

У Мережі розміщені приклади того, як за допомогою нейронної мережі імітуються голоси людей. Ця ж технологія в минулих версіях вміла імітувати мову людини, проаналізувавши відносно тривалі зразки. Ще в минулому році розробники з Baidu продемонстрували, як технологія Deep Voice відтворює мову людини, базуючись на півгодинному матеріалі.

Здавалося б, така розробка є скоріше пустощами, а не серйозною практичною діяльністю. Однак це зовсім не так. Незабаром їй знайдеться безліч застосувань. Наприклад, людина, який втратив можливість розмовляти, знайде її хоча б за допомогою штучного апарату. А неспокійного малюка, не вміє засипати, не послухавши казку, розказану кимось із близьких, буде легше укладати. Він не буде так залежати від його фізичної присутності або дзвінка. І це тільки мала частина можливих варіантів використання технології. Застосовувати її можна, створюючи цифрових персоналізованих помічників і для гаджетів, розумного будинку, автомобілів і так далі.

Правда, у цієї розробки, як і у всякій іншій, існує і зворотна сторона. Зловмисники зможуть зловживати розробкою, далеко не завжди використовуючи її законно. Як кажуть експерти, нинішня версія створює вигляд голосу, здатний в 95 випадках з 100 обманювати під час випробування систему, що розпізнає його. Клоновані зразки були оцінені людьми в 3.14 бали з чотирьох можливих. А значить, може наступити момент, коли шахраї скористаються штучним інтелектом у своїх цілях.

Читайте також:  За месяц до инсульта тело делает предупреждение. 7 сигналов, которые нельзя игнорировать. Инсульт — это отсутствие питания у определенного участка мозга

І це при тому, що вже є розробки, що змінюють або імітують у відеороликах обличчя людей, користуючись знову ж нейронними мережами. Скажімо, нещодавно мережа була заповнена порносюжетами з особами моделей, заміненими на обличчя знаменитостей. Поки це можна списати і на шкоду. Однак недалекий той момент, коли можна буде випускати масу фейкових новин, заснованих на імітації: як зовнішності, так і голоси одночасно. У них різні «знаменитості» і просто шановані люди стануть «вимовляти» те, що в реальності ніколи в житті не сказали б.

Джерело: newscientist.com

По теме: ( из рубрики Новини )

Оставить отзыв

Ваш адрес email не будет опубликован.

*
*

5 × 2 =

Top