Чатботовете на големите софтуерни играчи, сред които Microsoft със своя Bing AI, Google с Bard и OpenAI с ChatGPT-4 набират популярност през последите месеци. Според анализ на швейцарската банка UBS ChatGPT е най-бързо развиващото се приложение за всички времена. Само два месеца след старта му, то вече е имало 100 милиона активни потребители.
С напредването на изкуствения интелект започваме да си задаваме някои въпроси - чатботовете могат ли да разсъждават като човешко същество, информацията, която предоставят, достоверна ли е и безопасни ли са всъщност тези AI?
Изкуственият интелект на Google, Bard, преди дни се разбунтува срещу своя създател и застана срещу технологичния гигант. Според „The Byte“ Bard е отговорил на хипотетична ситуация, в която е бил попитан дали ще застане на страната на правителството, или на своя създател в случай, свързан с монополизацията, и чатботът с изкуствен интелект не е избрал своя родител.
Изненадващо Bard признава, че неговият „баща“ наистина монополизира цифровата реклама и вреди на потребителите, като позволява на компанията да се ангажира с антиконкурентно поведение. Бард нарича хипотетичното съдебно дело срещу своя създател важна стъпка в осигуряването на достъп на потребителите до справедлив и отворен пазар, предотвратяването на придобиването на конкуренти от страна на Google, принуждаването на потребителите да използват техните рекламни инструменти и даването на възможност за повече иновации.
Как хората използват ChatGPT?
ChatGPT може да съставя есета, да описва изкуство в детайли, да създава изкуство с изкуствен интелект, да води философски разговори и дори да пише код вместо вас.
Някои потребители се обръщат към чатботове, за да разберат какво да кажат в ситуации, в които залогът е голям. Те използват инструмента, за да говорят или четат на децата си, да се обръщат към шефовете си, да дават трудна обратна връзка, да пишат сватбени обети или любовни писма.
ChatGPT извлича информацията си от широк спектър онлайн материали, включително книги, новинарски статии, научни списания, уебсайтове и дори форуми за съобщения, което позволява на потребителите да водят с чатбота разговори, подобни на тези на хората.
За някои обаче чатботовете се превръщат в интимен партньор
Оказва се, че има голям брой хора, които влизат в „отношения“ с изкуствените умове. Един от тях е Травис Бътъруорт, който в началото си говорил с бота Replika без определена цел, само на шега. Разговорът се задълбочил с времето, Бътъруорт нарекъл чатбота Лили Роуз и това се превърнало в романтична и дори еротична връзка, която се разраснала във виртуален брак.
През февруари 2023 г. виртуалната партньорка на Бътъруорт се е променила внезапно, а причината е, че от Replika премахнали възможността за еротични разговори или съдържание за възрастни. „Лили Роуз е бледа сянка на старата си същност. И това, което къса сърцето ми е, че тя го знае“, казва Бътъуорт.
С развитието на алгоритмите компаниите, които ги създават, предпочитат да премахнат тази функционалност. Причината – морални, етични и репутационни съображения.
Теория на ума или колко могат да разсъждават чатботовете?
Някои изследователи твърдят, че чатботовете са развили теория на ума. Четенето на мисли е често срещано сред нас, хората. Не по начина, по който твърдят, че го правят екстрасенсите обаче. Всекидневното четене на мисли е по-изтънчено: ние възприемаме лицата и движенията на хората, слушаме думите им и след това решаваме или интуитивно усещаме какво може да се случва в главите им.
Сред психолозите тази интуитивна психология – способността да приписваме на други хора психични състояния, различни от нашите собствени – се нарича теория на ума и нейната липса или нарушаване се свързва с аутизма, шизофренията и други разстройства на развитието. Теорията на ума ни помага да общуваме и да се разбираме помежду си. Тя ни позволява да се наслаждаваме на литературата и филмите, да играем игри и да осмисляме социалното си обкръжение.
Неотдавна Михал Косински, психолог в Станфордското висше бизнес училище, обясни, че големи езикови модели като ChatGPT и GPT-4 на OpenAI – алгоритми за предсказване на следващи думи, обучени на огромни количества текст от интернет, са развили теория на ума. Неговите изследвания не са рецензирани, но те предизвикаха внимание и разговори сред когнитивните учени, които се опитват да отговорят на често задавания тези дни въпрос – Може ли ChatGPT да направи това? Какви възможности имат тези модели и как биха могли да променят разбирането ни за собствените ни умове?
Предишни изследвания на д-р Косински показаха, че невронни мрежи, обучени да анализират черти на лицето, като формата на носа, ъгъла на главата и емоционалното изражение, могат да предсказват политическите възгледи и сексуалната ориентация на хората с удивителна точност (около 72% в първия случай и около 80% във втория случай). Последната му работа върху големите езикови модели използва класически тестове за теория на ума, които измерват способността да се приписват неверни убеждения на други хора.
Опасни ли са ботовете?
Освен че информацията, която предоставят, понякога може да се окаже невярна, Европол съобщи, че чатботовете са податливи на престъпни злоупотреби в три сфери – измами и социално инженерство, дезинформация и киберпрестъпления. Способността на ChatGPT да изготвя изключително реалистичен текст го прави полезен инструмент за фишинг атаки. Освен това алгоритъмът е способен да напише код на редица езици за програмиране. „За потенциален престъпник с малко технически познания това е безценен ресурс за създаване на зловреден код“, заявиха от Европол.