Фалшиво видео с лика на премиера акад. Николай Денков обикаля интернет пространството. За него предупредиха от правителствената пресслужба.
Дийпфековете яко шетат из ФБ и няма сила, която може да ги спре. Това е спонсорирано съдържание pic.twitter.com/xIoWWypeJr
— Vango1🇺🇦 (@vangoooo1) October 4, 2023
Видеото представлява така наречения дийп фейк. В него с помощта на изкуствен интелект се имитира гласът на Денков, който обещава на българския народ стотици левове заради нов проект на “Лукойл”. Видеото изглежда като обръщение към нацията и цели да събере неправомерно лични данни на потребителите като предпоставка за участие в инвестиционна схема.
“Министър-председателят никога не е призовавал никого да предоставя свои лични данни по никакъв повод. Предупреждаваме гражданите по никакъв повод да не предоставят личните си данни в социалните мрежи, както и да сигнализират на ГДБОП при съмнения за киберпрестъпления на имейл [email protected] или на телефон 0885 525 545“, посочват още от пресслужбата на кабинета.
Дийпфейк (от английски: deepfake – от думите „дълбок“ и “фалшив“) или дълбока фалшификация е технология, която използва изкуствен интелект, за да фалшифицира във видеоклип или аудиозапис изказвания на различни хора. Макар че създаването на фалшиво медийно съдържание не е ново явление, дълбоката фалшификация се използва за манипулиране или генериране на визуално съдържание, нерядко целящо измама, заблуда, или друга користна цел.
Подобни фалшификати обикалят редовно интернет с цел да заблуждават потребителите, основно в САЩ.