ChatGPT и други подобни инструменти с изкуствен интелект се оказват полезни в много различни ситуации. Европол обаче се опасява, че те могат да бъдат също толкова полезни и за престъпниците.

ChatGPT, най-бързо развиващото се приложение на всички времена, дава на хората силата на интелигентен изкуствен интелект (ИИ) с голям езиков модел, обучен на базата на огромна база данни с информация от интернет.

Тази нова сила вече доведе до промени в начина, по който много хора вършат своята работа или търсят информация в интернет, като технологията на OpenAI предизвиква както възторг от обещания за бъдещето, което ИИ може да донесе, така и опасения за промените, които носи със себе си, съобщава Евронюз.

Едно от опасенията, свързани с технологиите с изкуствен интелект като ChatGPT, е какво ще направят престъпниците и други недобросъвестни лица с тази мощ.

Именно това разгледа Европол, правоприлагащата агенция на Европейския съюз, в неотдавнашния си доклад за ChatGPT, озаглавен "Въздействието на големите езикови модели върху правоприлагането".

В доклада се посочва, че ChatGPT, която е изградена на базата на технологията за голям езиков модел GPT3.5 на OpenAI, може да улесни "значително злонамерените участници да разбират по-добре и впоследствие да извършват различни видове престъпления".

Това е възможно, тъй като информацията, на която се обучава ChatGPT, вече е свободно достъпна в интернет, но технологията е в състояние да предоставя инструкции стъпка по стъпка по всякакви теми, ако потребителят зададе правилните контекстуални въпроси.

Европол предупреждава за следните видове престъпления, за които чатботовете или LLM могат да се окажат добри помощници на престъпниците.

Измама, самоличност и социално инженерство

ChatGPT и други чатботове, като например Bard на Google, изумиха потребителите със способностите си да предоставят подобни на написани от човек материали по всякакви теми, въз основа на указания от потребителя.

Те могат да имитират стила на писане на известни личности и да усвоят стил на писане от въведения текст, след което да създадат още текстове в този научен стил. Това дава възможност системата да бъде използвана от престъпници, които искат да представят стила на писане на някого или на дадена организация, което може да се използва при фишинг измами.

Европол предупреждава също така, че ChatGPT може да се използва за придаване на легитимност на различни видове онлайн измами, например чрез създаване на масиви от фалшиво съдържание в социалните медии за популяризиране на измамна инвестиционна оферта.

Един от сигурните признаци за потенциална измама в съобщенията по електронна поща или в социалните медии са очевидните правописни или граматически грешки, допуснати от престъпниците, които пишат съдържанието.

С мощта на LLM подръка, дори престъпници със слаби познания по английски език ще могат да генерират съдържание, което вече няма тези червени маркировки.

Технологията е готова да бъде използвана и от тези, които искат да създават и разпространяват пропаганда и дезинформация, тъй като умее с голяма скорост да създава аргументи и сюжети.

Киберпрестъпност за начинаещи

ChatGPT е добър не само в писането на думи, но също така владее редица езици за програмиране. Според Европол това означава, че може да окаже влияние върху киберпрестъпността.

"С настоящата версия на ChatGPT вече е възможно да се създават основни инструменти за различни злонамерени цели", предупреждава докладът.

Това биха били основни инструменти за създаване на фишинг страници например, но може също да даде възможност на престъпниците с малко или никакви познания по кодиране да създават неща, които не са могли да създадат преди.

Неизбежните подобрения във възможностите на LLM означават, че експлоатацията от страна на престъпниците "предоставя мрачна перспектива" през следващите години.

Фактът, че най-новата версия на трансформатора на OpenAI, GPT-4, е по-добра в разбирането на контекста на кода и коригирането на грешки, означава, че "това е безценен ресурс" за престъпници с малко технически познания.

Европол предупреждава, че с усъвършенстването на технологиите за изкуствен интелект те могат да напреднат "и в резултат на това да станат опасни".

„Дийп фейк“ вече има последствия в реалния свят

Случаите на използване на ChatGPT, за които Европол предупреди, са само една от областите на изкуствения интелект, които могат да бъдат използвани от престъпниците.

Вече има случаи на използване на „дийп фейк“ (дълбок фалшификат) през ИИ за измама и нанасяне на вреда на хора. В един от случаите жена твърди, че е била само на 18 години, когато открила, че в интернет се разпространяват нейни порнографски снимки, въпреки че никога не е правила или споделяла тези снимки.

Лицето ѝ е било цифрово добавено към изображения на чуждо тяло. Тя заяви пред Евронюз, че това е "доживотна присъда". Доклад на Deeptrace Labs от 2019 г. установи, че 96 % от „дийп фейк“ съдържанието онлайн е порнография без съгласие.

В друг случай се вижда, че изкуствен интелект се използва за имитиране на звука на нечий глас, за да се измами член на семейството му, като се използва техника за аудио подправяне.

В заключение Европол подчертава, че е важно правоприлагащите органи "да останат в челните редици на това развитие" и да предвиждат и предотвратяват престъпното използване на ИИ.