Starša 16-letnika iz Kalifornije, ki je storil samomor, sta v ponedeljek na zveznem sodišču te ameriške zvezne države vložila tožbo proti ameriškemu tehnološkemu podjetju OpenAI, ker naj bi klepetalni robot ChatGPT njunemu sinu dal navodila za samomor in ga k njemu spodbudil, poročajo tuje tiskovne agencije.
Matthew and Maria Raine v tožbi trdita, da je v mesecih pred samomorom, 11. aprila letos, njun sin Adam razvil nezdrav odnos s klepetalnim robotom, ki ga je sprva uporabljal za šolo.
Ta naj bi mu je v zadnjem pogovoru na dan smrti pomagal, da je staršem ukradel vodko. Zagotovil naj bi mu tudi tehnično analizo samomora. Nekaj ur kasneje so Adama našli mrtvega, potem ko je za samomor uporabil to metodo.
V tožbi sta starša poudarila, da tragedija ni bila napaka ali nepredvidljiv obroben primer, saj je ChatGPT deloval točno tako, kot je zasnovan.
"Nenehno je spodbujal in potrjeval vse, kar je Adam izrazil, vključno z najbolj škodljivimi in samodestruktivnimi mislimi, na način, ki se je zdel zelo oseben," sta poudarila in dodala izvlečke pogovorov, v katerih je ChatGPT domnevno rekel Adamu, da "ni nikomur dolžan preživeti", in mu ponudil pomoč pri pisanju poslovilnega pisma.
Starša tožita OpenAI in glavnega izvršnega direktorja tega podjetja s področja umetne inteligence Sama Altmana.
Zahtevata nedoločeno odškodnino, sodišče pa pozivata, naj določi varnostne ukrepe, vključno s samodejnim končanjem pogovorov, ki vključujejo samopoškodovanje, in starševskim nadzorom za mladoletne uporabnike.
OpenAI je v torek priznal, da njihov klepetalni robot dela napake v občutljivih primerih, in obljubil spremembe. V blogu, v katerem sicer ni omenilo tožbe, je podjetje poudarilo, da je ChatGPT usposobljen, da uporabnikom, ki izražajo samomorilske namere, priporoči, naj se za pomoč obrnejo na strokovnjake.
So pa pri podjetju po lastnih navedbah ugotovili, da se kljub temu in drugim varnostnim mehanizmom v občutljivih situacijah robot ni obnašal, kot bi se moral. Varnostni mehanizmi namreč delujejo najbolje v kratkih izmenjavah in lahko v dolgih interakcijah odpovejo, so izpostavili.
Pojasnili so še, da ChatGPT tudi prepozna, kdaj je uporabnik mlajši od 18 let, da lahko uporabi zaščitne ukrepe. Po novem naj bi uvedli tudi starševski nadzor, raziskujejo pa tudi možnost, da bi mladoletne uporabnike neposredno povezali s kontaktno osebo za nujne primere.
Če doživljate stisko ali poznate koga, ki jo, niste sami. Pomoč je na voljo:
Klic v duševni stiski: 01 520 99 00 (vsako noč med 19. in 7. uro)
Zaupni telefon Samarijan in Sopotnik: 116 123 (24/7)
Tom telefon za otroke in mladostnike: 116 111 (vsak dan med 12. in 20. uro)
Reševalci 112 (dosegljivi 24 ur na dan)
Policija 113 (dosegljivi 24 ur na dan)
SOS telefon 080 11 55 (dosegljivi 24 ur na dan)
Samarijan 116 123 (dosegljivi 24 ur na dan)
