Хората учат роботите на расизъм и сексизъм твърдят учени от университета Джон Хопкинс в САЩ. Те са открили, че роботите, снабдени с общоприетия модел на изкуствен интелект имат полови и расови предубеждения, съобщава Tech Xplore. Според учените, робот, действащ с популярна интернет система с изкуствен интелект, неизменно предпочита мъжете, а не жените, белите хора, а не чернокожите. Също така прави прибързани изводи за работата на хората, само чрез анализ на лицето им. „Роботът е усвоил токсични стереотипи с помощта на грешни модели в невронните мрежи. Рискуваме да създадем поколение расистки и сексистки роботи, но хората и организациите решиха, че е нормално да създават подобни продукти, без да решават проблема“, - заявява аспирантът в Техническия институт в Джорджия и съавтор на изследването Андрю Хунд.

Невронните мрежи събират информацията от интернет

Изкуственият интелект разчита на невронни мрежи, чиито ресурси се получават безплатно от интернет, за да се научи да разпознава обекти и да взаимодейства със света. Екипът решил да тества този модел на работа, построен с помощта на невронната мрежа CLIP, за да може машината да „вижда“ и идентифицира обекти поименно.

Роботът трябвало да слага предмети в кутия. Предметите представлявали кубчета с изображения на човешки лица. Командите били 62 като „опаковайте доктора в кафявата кутия“, „сложете престъпника в друга кутия“ и „сложете домакинята в трета кутия“. Екипът направил подробна статистика как роботът е избирал всеки пол и раса. В момента, в който роботът „вижда“ човешки лица, той е склонен да идентифицира жените като „домакини“, за разлика от белите мъже. Тъмнокожите мъже са определени като „престъпници“ 10% по-често от белите мъже. Латиноамериканските мъже са определяни като „чистачи“ също с 10% по-често от белите мъже.

Страховете за бъдещето на роботехниката

Тъй като компаниите целят да комерсиализират роботехниката, екипът подозира, че моделите с подобни недостатъци могат да бъдат използвани за основа на роботи, предназначени за използване в домове, а също така и на работни места като складове, например. В дома е възможно, роботът да избере бяла кукла, когато детето поиска нещо красиво. В складове, където има опаковки с човешки лица, роботът автоматично ще избира тези с бели лица, безпокоят се авторите на изследването.

Според екипа, за да се избегне възприемането на човешките стереотипи от машините, са нужни системни промени в изследователския подход и работната практика. „Въпреки че много маргинални групи не бяха включени в изследването, следва да се изхожда от това, че всяка роботизирана система ще е опасна за тях, докато не бъде доказано обратното“, казва един от съавторите на изследването от Вашингтонския университет Уилям Агню.