Все там будем нейросеть навчили підставляти обличчя знаменитостей порноактор

Користувач Reddit під ніком Deepfakes навчив нейросеть створення фейковий порнороликів зі знаменитостями. Тепер стати порноактором, сам того не бажаючи, може хто завгодно.


Джерело: Motherboard

У мережі з'явилося порно за участю Галь Гадот. Але насправді це не знаменита актриса, а тільки її обличчя. Фейковий відео було створено за допомогою алгоритму машинного навчання і бібліотек TensorFlow і Keras. Deepfakes вже опублікував відеоролики з "участю" Скарлетт Йоханссон, Мейсі Вільямс, Тейлор Свіфт і Обрі Плази.

Deepfakes повідомив, що для створення відео він використовував пошук зображень Google і відео з YouTube. Так що "жертвою" може стати не тільки знаменитість, а й колега або просто випадкова людина. Штучний інтелект зіставляє вихідні фотографії з відеозаписом, щоб картинка виглядала максимально правдоподібно. Дослідник штучного інтелекту Алекс Шампандар розповів, що хороша дорога відеокарта може впоратися з цим завданням за кілька годин, звичайний комп'ютер зробить це за кілька днів.

Тривожний факт полягає в тому, що в цій справі не тільки практично немає ніяких технічних перешкод, але і нестачі в вихідному матеріалі не спостерігається. Так, з 2015 до 2016 року користувачі мережі опублікували більше 24 мільярдів Селфі. Так що практично кожної людини можна буде скомпрометувати таким чином.

Порноактриса Грейс Еванджелін (Grace Evangeline) в коментарі порталу Motherboard сказала, що бачить таке вперше. Вона і раніше зустрічала фейковий ролики зі знаменитостями, але не такі правдоподібні. Еванджелін вважає, що робити такі відео без дозволу актрис неправильно.

Колишня порноактриса Алія Джанін (Alia Janine) теж залишилася незадоволена фейковий відеороликами: "Це показує, що деякі люди бачать в жінках тільки об'єкти, якими можна маніпулювати. Це повна відсутність поваги до порноактор і знаменитим актрисам".

Алекс Шампандар вважає, що якщо "жертвою" фейковий порно може стати будь-хто, то потрібно зрадити цьому розголос.

"Кожна людина повинна знати, наскільки легко підробити відео до такої міри, що ми довго не зможемо визначити, що це підробка. Звичайно, це можливо було зробити і раніше, але для цього потрібно було багато ресурсів і навичок. А тепер такі ролики може зробити будь-який програміст з новітнім комп'ютерним обладнанням ". "Кожна технологія може використовуватися з поганими намірами. Суть в тому, наскільки вона доступна і проста в обігу. Я не думаю, що зростання інтересу до машинного навчання серед звичайних людей - це погано", - прокоментував ситуацію Deepfakes.