В современном мире мы можем доверять своему слуху только на 73%.
Исследование Университетского колледжа Лондона
Теперь перед учеными встает важная задача — разработка автоматизированных детекторов дипфейков для противостояния мошенничеству через поддельные аудио- и видеоматериалы.
Дипфейки — это синтетические медиа, имитирующие голос или внешность реального человека. Они относятся к генеративному искусственному интеллекту ИИ, который обучается на основе медиаданных.
Для воссоздания человеческой речи раньше требовались тысячи образцов, тогда как современные алгоритмы могут воссоздать голос по 3-секундной записи.
В исследовании использовали алгоритм преобразования текста в речь, обученный на двух публичных наборах данных на английском и китайском. Заранее программа сгенерировала по 50 записей на каждом языке. Эти образцы отличались от тех, на которых сам алгоритм обучался.
Участники (529 человек) распознали поддельную речь лишь в 73% случаев. Короткое обучение по особенностям дипфейков принесло лишь незначительное улучшение.
Первый автор исследования Кимберли Май отметила: «Мы использовали образцы, созданные относительно старыми алгоритмами. Возникает вопрос — смогут ли люди заметить хоть что-то подозрительное в записях, сгенерированных по последнему слову техники, сейчас и в будущем?»
Хотя генеративный ИИ несет пользу, например для людей с ограниченными возможностями, ученые боятся, что правительства и преступники начнут злоупотреблять новыми возможностями.
Так в 2019 г. мошенники убедили гендиректора британской энергетической компании перевести им сотни тысяч фунтов, сымитировав голос его босса.
Компания Apple недавно анонсировала выпуск приложения для iPhone и iPad, позволяющее создать копию человеческого голоса на основе 15-минутной записи.
Еще один автор эксперимента Льюис Гриффин сказал: «По мере совершенствования технологий ИИ организациям следует выработать стратегии контроля, но не забывая при этом о преимуществах технологий».
Исследование Университетского колледжа Лондона
Для просмотра ссылки необходимо нажать
Вход или Регистрация
, что люди могут распознать искусственно сгенерированную речь только в 73% случаев. Причем результаты были одинаковыми для разных языков: как английского, так и китайского.Теперь перед учеными встает важная задача — разработка автоматизированных детекторов дипфейков для противостояния мошенничеству через поддельные аудио- и видеоматериалы.
Дипфейки — это синтетические медиа, имитирующие голос или внешность реального человека. Они относятся к генеративному искусственному интеллекту ИИ, который обучается на основе медиаданных.
Для воссоздания человеческой речи раньше требовались тысячи образцов, тогда как современные алгоритмы могут воссоздать голос по 3-секундной записи.
В исследовании использовали алгоритм преобразования текста в речь, обученный на двух публичных наборах данных на английском и китайском. Заранее программа сгенерировала по 50 записей на каждом языке. Эти образцы отличались от тех, на которых сам алгоритм обучался.
Участники (529 человек) распознали поддельную речь лишь в 73% случаев. Короткое обучение по особенностям дипфейков принесло лишь незначительное улучшение.
Первый автор исследования Кимберли Май отметила: «Мы использовали образцы, созданные относительно старыми алгоритмами. Возникает вопрос — смогут ли люди заметить хоть что-то подозрительное в записях, сгенерированных по последнему слову техники, сейчас и в будущем?»
Хотя генеративный ИИ несет пользу, например для людей с ограниченными возможностями, ученые боятся, что правительства и преступники начнут злоупотреблять новыми возможностями.
Так в 2019 г. мошенники убедили гендиректора британской энергетической компании перевести им сотни тысяч фунтов, сымитировав голос его босса.
Компания Apple недавно анонсировала выпуск приложения для iPhone и iPad, позволяющее создать копию человеческого голоса на основе 15-минутной записи.
Еще один автор эксперимента Льюис Гриффин сказал: «По мере совершенствования технологий ИИ организациям следует выработать стратегии контроля, но не забывая при этом о преимуществах технологий».
Для просмотра ссылки необходимо нажать
Вход или Регистрация