Мошенники уже научились применять нейросети, адаптируясь к эволюции технологий, при использовании дипфейков, рассказал исследователь данных Владислав Тушканов, сообщает PRIMPRESS.
«Генеративные сети, связанные с картинками, голосом могут быть использованы, чтобы синтезировать доказательства того, чего не было, – дипфейков. И они вполне могут использоваться в мошенничестве, например. Было много случаев, когда мошенники создавали дипфейки, чтобы писать посты в социальных сетях со ссылкой на мошенническую страницу, один из громких примеров – это использование образа Илона Маска», – сказал он.
При этом, по словам эксперта, мошенники научились создавать дипфейковые видео.
«И дело не в том, что дипфейки – плохая технология. Они могут применяться в обучающих видео, позволяют делать их качественными, синхронизировать губы с речью при переводе на разные языки при переозвучке, они уже широко применяются в кинематографе. Но для мошенников это в том числе возможность заставить поверить в свое сообщение», – полагает Тушканов.