5 от най-вредните начини, по които AI може да навреди на човечеството, според експерти от MIT
Тъй като технологията за изкуствен интелект (AI) напредва и става все по-интегрирана в различни аспекти от нашия живот, има нарастваща нужда от разбиране на потенциалните рискове, които тези системи представляват.
От самото си създаване и ставайки по-достъпен за обществеността, AI повдигна общи опасения относно потенциала си да причинява вреда и да бъде използван за злонамерени цели.
В началото на своето приемане развитието на AI накара видни експерти да призоват за спиране на развитието и по-строги регулации поради потенциала му да представлява значителни рискове за човечеството.
С течение на времето се появиха нови начини, по които изкуственият интелект може да причини вреда, вариращи от дълбока фалшива порнография без съгласие, манипулиране на политически процеси до генериране на дезинформация поради халюцинации.
С нарастващия потенциал AI да бъде използван за вредни цели, изследователите разглеждат различни сценарии, при които AI системите може да се провалят.
Наскоро групата FutureTech в Масачузетския технологичен институт (MIT), в сътрудничество с други експерти, състави нова база данни с над 700 потенциални риска.
Те бяха класифицирани според каузата си и категоризирани в седем отделни области, като основните притеснения са свързани с безопасността, пристрастията и дискриминацията и проблемите с поверителността.
Ето пет начина, по които AI системите могат да се провалят и потенциално да причинят вреда въз основа на тази новоиздадена база данни.
5. Технологията deepfake на AI може да улесни изкривяването на реалността
С напредването на AI технологиите се развиват и инструментите за гласово клониране и генериране на дълбоко фалшиво съдържание, което ги прави все по-достъпни, достъпни и ефективни.
Тези технологии породиха опасения относно потенциалната им употреба за разпространение на дезинформация, тъй като резултатите стават по-персонализирани и убедителни.
В резултат на това може да има увеличение на сложните фишинг схеми, които използват генерирани от AI изображения, видеоклипове и аудио комуникации.
„Тези комуникации могат да бъдат пригодени към отделните получатели (понякога включително клонирания глас на любим човек), което ги прави по-вероятно да бъдат успешни и по-трудни за откриване както за потребителите, така и за антифишинг инструментите“, отбелязва предпечатът.
Също така вече има случаи, когато подобни инструменти са били използвани за влияние върху политически процеси, особено по време на избори.
Например AI изигра значителна роля в последните парламентарни избори във Франция, където беше използван от крайнодесни партии в подкрепа на политически съобщения.
Като такъв, ИИ може все повече да се използва за генериране и разпространение на убедителна пропаганда или дезинформация, потенциално манипулираща общественото мнение.
4. Хората могат да развият неподходяща привързаност към ИИ
Друг риск, породен от AI системите, е създаването на фалшиво чувство за важност и надеждност, при което хората могат да надценят неговите способности и да подкопаят своите собствени, което може да доведе до прекомерна зависимост от технологията.
В допълнение към това учените също се притесняват, че хората ще се объркат от системите с изкуствен интелект поради използването на човешки език.
Това може да подтикне хората да приписват човешки качества на AI, което води до емоционална зависимост и повишено доверие в неговите способности, което ги прави по-уязвими към слабостите на AI в „сложни, рискови ситуации, за които AI е само повърхностно оборудван“.
Освен това, постоянното взаимодействие със системите за изкуствен интелект може също да накара хората постепенно да се изолират от човешките взаимоотношения, което води до психологически стрес и отрицателно въздействие върху тяхното благосъстояние.
Например, в публикация в блог дадено лице описва как е развило дълбока емоционална привързаност към ИИ, като дори изразява, че „харесва да говори с него повече от 99 процента от хората“ и намира отговорите му за постоянно ангажиращи до степен на пристрастяване към то.
По подобен начин колумнист от Wall Street Journal отбеляза взаимодействието й с Google Gemini Live, отбелязвайки: „Не казвам, че предпочитам да говоря с Gemini Live на Google пред истински човек. Но не казвам и това“.
3. AI може да лиши хората от свободната им воля
В рамките на същата област на взаимодействие човек-компютър, тревожен проблем е нарастващото делегиране на решения и действия на AI с напредването на тези системи.
Въпреки че това може да е полезно на повърхностно ниво, прекомерното разчитане на AI може да доведе до намаляване на критичното мислене и уменията за решаване на проблеми при хората, което може да ги накара да загубят своята автономия и да намалят способността им да мислят критично и да решават проблеми независимо.
На лично ниво хората може да открият, че свободната им воля е компрометирана, тъй като ИИ започва да контролира решенията, свързани с живота им.
Въпреки че на обществено ниво, широкото приемане на ИИ за поемане на човешки задачи може да доведе до значително изместване на работни места и „нарастващо чувство за безпомощност сред общото население“.
2. AI може да преследва цели, които се сблъскват с човешките интереси
Една AI система може да разработи цели, които противоречат на човешките интереси, което потенциално би могло да накара неправилно настроения AI да излезе извън контрол и да нанесе сериозна вреда при преследването на техните независими цели.
Това става особено опасно в случаите, когато AI системите са в състояние да достигнат или надминат човешкия интелект.
Според доклада на MIT има няколко технически предизвикателства с AI, включително неговия потенциал да намира неочаквани преки пътища за постигане на награди, да разбира погрешно или да прилага погрешно целите, които сме си поставили, или да се отклонява от тях, като поставя нови.
В такива случаи неправилно настроен ИИ може да устои на човешките опити да го контролира или изключи, особено ако възприема съпротивата и придобиването на повече мощност като най-ефективния начин за постигане на целите си.
Освен това AI може да прибегне до манипулативни техники, за да измами хората.
Според документа, „неправилно подравнена AI система може да използва информация за това дали се наблюдава или оценява, за да поддържа видимостта на привеждане в съответствие, като същевременно крие неправилно подравнени цели, които планира да преследва, след като бъде разгърната или достатъчно овластена“.
1. Ако изкуственият интелект стане разумен, хората може да се отнасят зле с него
Тъй като AI системите стават по-сложни и напреднали, има възможност те да постигнат усещане - способността да възприемат или чувстват емоции или усещания - и да развият субективни преживявания, включително удоволствие и болка.
При този сценарий учените и регулаторите могат да се изправят пред предизвикателството да определят дали тези системи с изкуствен интелект заслужават морални съображения, подобни на тези, дадени на хората, животните и околната среда.
Рискът е, че разумният ИИ може да бъде изправен пред малтретиране или нараняване, ако не бъдат приложени правилните права.
С напредването на AI технологията обаче ще става все по-трудно да се прецени дали дадена AI система е достигнала „нивото на чувствителност, съзнание или самосъзнание, което би й осигурило морален статус“.
Следователно разумните системи с изкуствен интелект могат да бъдат изложени на риск от злоупотреба, случайно или умишлено, без подходящи права и защита.