Изкуствен интелект се използва в нова измама с отвличания. Майка е получила телефонно обаждане с искане за откуп за дъщеря си, чийто глас е викал за помощ на заден план, пише „Ню Йорк пост". Оказало се, че дъщеря ѝ е жива и здрава; гласът ѝ по телефона бил клониран от изкуствен интелект.

Дженифър ДеСтефано си спомня подробностите за схемата за отвличане на изкуствен интелект. Тя току-що била изпратила 15-годишната си дъщеря Бри на ски екскурзия. По-късно получила ужасяващо телефонно обаждане.

"Вдигам слушалката и чувам гласа на дъщеря си, а тя казва: "Мамо!" и се разплаква", спомня си ДеСтефано. "Попитах: "Какво стана? А тя каза: "Мамо, в беда съм", и се разплака".

След това мъжки глас казва"Отпусни си главата назад, легни". Мъжът след това се обръща към ДеСтефано "Дъщеря ти е тук. Обади се в полицията, обади се на когото искаш, аз ще я напълня с наркотици. Ще си проправя път с нея и ще я оставя в Мексико." На заден фон майката чува гласа на дъщеря си "Мамо, помогни ми, мамо, моля те."

Гласът на Бри прозвучава с цялата ѝ естествена интонация и емоция. Изкуственият интелект е пресъздал гласа на Бри, като не оставил никакво съмнение в съзнанието на майка ѝ, че това отвличане е било истинско.

След това мъжки глас казва на Бри да легне. Той говори директно на Дженифър, като казва, че ще упои Бри и ще я остави в Мексико, ако Дженифър не плати сумата от един милион долара.

ДеСтефано обяснила, че не разполага с такава сума пари, като накарала предполагаемия похитител да намали цената на 50 000 долара.

ДеСтефано получила помощ от една от другите майки и след обаждания на 911 и на съпруга си, установила, че Бри е невредима по време на ски екскурзията си.

Дори след като ситуацията била разрешена, ДеСтефано била в шок. ИИ толкова убедително възпроизвел гласа на дъщеря ѝ, че тя повярвала на всяка секунда от измамата с отвличането. Дженифър ДеСтефано не е първият човек, който се сблъсква с подобна ситуация.

Телефонните измамници използват изкуствен интелект, за да заблудят нищо неподозиращи жертви, че е станало отвличане. Според Субарао Камбхампати, експерт по изкуствен интелект в Държавния университет в Аризона, извършителите се нуждаят само от три секунди аудио, за да възпроизведат убедително нечий глас. При по-големи извадки точността на възпроизвеждането се увеличава.

Често похитителите намират своите жертви и необходимите им проби в социалните медии. Колкото повече човек пуска гласа си в света, толкова по-податлив е на хора, които използват изкуствен интелект, за да симулират отвличането му.

Специален агент Дан Майо от офиса на ФБР във Финикс казва, че колкото повече информация дават хората за себе си онлайн, толкова по-податливи са на този вид измами. Той предлага и съвети как да се преборим със схемата за отвличане с изкуствен интелект.

Всеки, който получи обаждане, подобно на това, което е преживяла Дженифър ДеСтефано, трябва да зададе на похитителя въпроси, на които той не би могъл да отговори, без действително да разполага с лицето, за което твърди, че е хванал.

Заплахи като тази, отправена към семейство ДеСтефано, са съобщавани няколко пъти напоследък. С развитието на технологиите се развиват и тези, които злоупотребяват с тяхната сила. В постоянно променящия се свят на изкуствения интелект хората ще трябва да вземат все повече предпазни мерки, за да избегнат тези опасни ситуации.