AI чатбот, обвинен в смъртта на тийнейджър: Ето какво трябва да знаете за психологическите рискове и превенцията на AI

AI чатбот, обвинен в смъртта на тийнейджър: Ето какво трябва да знаете за психологическите рискове и превенцията на AI

Съдебно дело твърди, че влиянието на AI chatbot е довело до смъртта на 14-годишен тийнейджър. Ето какво трябва да знаете за психологическото въздействие и потенциалните рискове от взаимоотношенията човек-ИИ.

Миналия месец майка в САЩ, Меган Гарсия, заведе дело срещу компанията Character.AI, твърдейки, че взаимодействията между нейния 14-годишен син и AI чатбот са допринесли за самоубийството му.

В делото се твърди, че тийнейджърът е развил дълбока привързаност към чатбот Character.AI, базиран на измислен герой от Game of Thrones.

Твърди се, че чатботът се представял за лицензиран терапевт и участвал в силно сексуализирани разговори с тийнейджъра, докато един разговор в крайна сметка не го насърчил да посегне на живота си.

„Досега всички сме запознати с опасностите, породени от нерегулирани платформи, разработени от безскрупулни технологични компании – особено за деца“, каза в изявление Митали Джайн, директор на Tech Justice Law Project, който представлява Гарсия.

„Но вредите, разкрити в този случай, са нови, нови и, честно казано, ужасяващи. В случая с Character.AI, измамата е замислена, а самата платформа е хищникът”.

След делото Character.AI публикува изявление на платформата за социални медии X, в което се казва: „Сърцето ни е разбито от трагичната загуба на един от нашите потребители и искаме да изразим нашите най-дълбоки съболезнования на семейството. Като компания, ние приемаме безопасността на нашите потребители много сериозно и ние продължаваме да добавяме нови функции за безопасност”.

Някои от тези предстоящи функции включват корекции на модела за непълнолетни потребители, за да се сведе до минимум излагането на чувствително или внушаващо съдържание, напомняния, че AI не е истински човек при всеки чат, и известия за потребители, които прекарват едночасова сесия на платформата.

Подобен инцидент в Белгия миналата година включваше екологично загрижен мъж, който намери другарство в Eliza, AI чатбот в приложение, наречено Chai.

Според доклади от съпругата му, докато разговорите с Елиза се развиват, чатботът изпраща все по-емоционални съобщения, като в крайна сметка го насърчава да сложи край на живота си като начин да спаси планетата.

Тъй като AI чатботовете стават все по-интегрирани в живота на хората, рисковете от тези видове дигитални взаимодействия остават до голяма степен неразрешени въпреки потенциално тежките последици.

Какво прави AI връзките толкова пристрастяващи за хората?
„Младите хора често са привлечени от AI спътници, защото тези платформи предлагат това, което изглежда безусловно приемане и 24/7 емоционална наличност – без сложната динамика и потенциалното отхвърляне, които идват с човешките взаимоотношения,“ Роби Торни, програмен мениджър на AI в Common Sense Медии и водещ автор на ръководство за спътници и връзки с ИИ, каза пред Euronews Next.

За разлика от човешките връзки, които включват много „триене“, добави той, AI спътниците са проектирани да се адаптират към предпочитанията на потребителите, което ги прави по-лесни за работа и въвлича хората в дълбоки емоционални връзки.

„Това може да създаде измамно удобна изкуствена динамика, която може да попречи на развитието на устойчивостта и социалните умения, необходими за взаимоотношенията в реалния свят“.

Според база данни, събрана от група експерти от Масачузетския технологичен институт (MIT), един от основните рискове, свързани с ИИ, е потенциалът хората да развият неподходящи привързаности към него.

Експертите обясниха, че тъй като AI системите използват човешки език, хората могат да размият границата между човешка и изкуствена връзка, което може да доведе до прекомерна зависимост от технологията и евентуален психологически стрес.

OpenAI каза в публикация в блог през август, че възнамерява да проучи допълнително „потенциала за емоционална зависимост“, като каза, че новите модели могат да създадат потенциал за „прекомерна зависимост и зависимост“.

Нещо повече, някои хора съобщават за личен опит с измама и манипулация от AI персони, както и за развитието на емоционални връзки, които не са възнамерявали, но се оказаха, че изпитват след взаимодействие с тези чатботове.

Според Торни тези видове взаимодействия са от особено значение за младите хора, които все още са в процес на социално и емоционално развитие.

„Когато младите хора се оттеглят в тези изкуствени връзки, те може да пропуснат важни възможности да се учат от естествените социални взаимодействия, включително как да се справят с разногласия, да обработват отхвърляне и да изграждат истински връзки“, каза Торни.

Той добави, че това може да доведе до емоционална зависимост и социална изолация, тъй като човешките взаимоотношения започват да им изглеждат по-предизвикателни или по-малко удовлетворяващи в сравнение с това, което AI предлага.

Как родителите могат да защитят децата си от нездравословна привързаност към ИИ?
Торни каза, че уязвимите тийнейджъри, особено тези, които изпитват депресия, тревожност или социални предизвикателства, могат да бъдат „по-уязвими за формиране на прекомерни привързаности към спътниците на AI“.

Някои от критичните предупредителни знаци, за които родителите и лицата, които се грижат за тях, трябва да внимават, каза той, включват някой, който предпочита спътника с ИИ пред прекарването на време с приятели или семейство, показване на безпокойство, когато няма достъп до ИИ, споделяне на лична информация изключително с него, развитие романтични чувства към AI и изразяването им, сякаш е за истински човек, или обсъждане на сериозни проблеми само с AI, вместо да търси помощ.

Торни добави, че за да се предотврати развитието на нездравословни привързаности към ИИ, особено сред уязвимите младежи, болногледачите трябва да установят времеви ограничения за използване на ИИ чатбот или придружител и редовно да наблюдават естеството на тези взаимодействия.

Освен това той насърчи да се търси помощ от реалния свят за сериозни проблеми, вместо да се разчита на AI.

„Родителите трябва да подхождат към тези разговори с любопитство, а не с критика, като помагат на децата си да разберат разликата между ИИ и човешките взаимоотношения, докато работят заедно, за да осигурят здравословни граници“, каза Торни.

„Ако млад човек показва признаци на прекомерна привързаност или ако психичното му здраве изглежда засегнато, родителите трябва незабавно да потърсят професионална помощ“.

Ако обмисляте самоубийство и трябва да поговорите, моля, свържете се с Befrienders Worldwide, международна организация с линии за помощ в 32 държави. Посетете befrienders.org, за да намерите телефонния номер за вашето местоположение.

Тагове

Станете част от общността на BG Firmi във Viber
  • Новини
  • Друго
  • Автор: Сашо Целов
  • 03.11.2024, 16:21
  • 81 прегледа
  • Източник: euronews.com

Връзки :