Китайський ІІ клонує голос користувача за лічені секунди
Baidu — компанія, яку багато звуть «китайським Google». Нещодавно вона опублікувала техдокументацію, що оповідає про нові розробки в галузі штучного інтелекту. Система, заснована на нейронної мережі, вміє клонувати голос людини, проаналізувавши навіть коротенький шматок запису. Вона не тільки непогана в імітації людської мови, але і вміє доповнювати її різними «фішками» типу акценту.
У Мережі розміщені приклади того, як за допомогою нейронної мережі імітуються голоси людей. Ця ж технологія в минулих версіях вміла імітувати мову людини, проаналізувавши відносно тривалі зразки. Ще в минулому році розробники з Baidu продемонстрували, як технологія Deep Voice відтворює мову людини, базуючись на півгодинному матеріалі.
Здавалося б, така розробка є скоріше пустощами, а не серйозною практичною діяльністю. Однак це зовсім не так. Незабаром їй знайдеться безліч застосувань. Наприклад, людина, який втратив можливість розмовляти, знайде її хоча б за допомогою штучного апарату. А неспокійного малюка, не вміє засипати, не послухавши казку, розказану кимось із близьких, буде легше укладати. Він не буде так залежати від його фізичної присутності або дзвінка. І це тільки мала частина можливих варіантів використання технології. Застосовувати її можна, створюючи цифрових персоналізованих помічників і для гаджетів, розумного будинку, автомобілів і так далі.
Правда, у цієї розробки, як і у всякій іншій, існує і зворотна сторона. Зловмисники зможуть зловживати розробкою, далеко не завжди використовуючи її законно. Як кажуть експерти, нинішня версія створює вигляд голосу, здатний в 95 випадках з 100 обманювати під час випробування систему, що розпізнає його. Клоновані зразки були оцінені людьми в 3.14 бали з чотирьох можливих. А значить, може наступити момент, коли шахраї скористаються штучним інтелектом у своїх цілях.
І це при тому, що вже є розробки, що змінюють або імітують у відеороликах обличчя людей, користуючись знову ж нейронними мережами. Скажімо, нещодавно мережа була заповнена порносюжетами з особами моделей, заміненими на обличчя знаменитостей. Поки це можна списати і на шкоду. Однак недалекий той момент, коли можна буде випускати масу фейкових новин, заснованих на імітації: як зовнішності, так і голоси одночасно. У них різні «знаменитості» і просто шановані люди стануть «вимовляти» те, що в реальності ніколи в житті не сказали б.
Джерело: newscientist.com
- Короткие смс поздравления с 8 Марта
- Карты Сбербанка: виды и стоимость обслуживания
- Бывшая супруга Гэри Олдмена выразила недовольство его “Оскаром”, обвинив в насилии
- Мария Кожевникова рассказала, почему никогда не поддержит Ксению Собчак
- Какие таблетки помогают от укачивания в транспорте
- YouTube-блогери зможуть легко поміняти фон у відео