Starša za samomor svojega sina krivita ChatGPT: "Nenehno je spodbujal in potrjeval vse, kar je Adam izrazil"

V tožbi sta starša poudarila, da tragedija ni bila napaka ali nepredvidljiv obroben primer, saj je ChatGPT deloval točno tako, kot je zasnovan.

OpenAI je v torek priznal, da njihov klepetalni robot dela napake v občutljivih primerih, in obljubil spremembe.
OpenAI je v torek priznal, da njihov klepetalni robot dela napake v občutljivih primerih, in obljubil spremembe.
Profimedia
Datum 27. avgust 2025 10:45
Čas branja 3 min

Starša 16-letnika iz Kalifornije, ki je storil samomor, sta v ponedeljek na zveznem sodišču te ameriške zvezne države vložila tožbo proti ameriškemu tehnološkemu podjetju OpenAI, ker naj bi klepetalni robot ChatGPT njunemu sinu dal navodila za samomor in ga k njemu spodbudil, poročajo tuje tiskovne agencije.

Matthew and Maria Raine v tožbi trdita, da je v mesecih pred samomorom, 11. aprila letos, njun sin Adam razvil nezdrav odnos s klepetalnim robotom, ki ga je sprva uporabljal za šolo.

Ta naj bi mu je v zadnjem pogovoru na dan smrti pomagal, da je staršem ukradel vodko. Zagotovil naj bi mu tudi tehnično analizo samomora. Nekaj ur kasneje so Adama našli mrtvega, potem ko je za samomor uporabil to metodo.

V tožbi sta starša poudarila, da tragedija ni bila napaka ali nepredvidljiv obroben primer, saj je ChatGPT deloval točno tako, kot je zasnovan.

"Nenehno je spodbujal in potrjeval vse, kar je Adam izrazil, vključno z najbolj škodljivimi in samodestruktivnimi mislimi, na način, ki se je zdel zelo oseben," sta poudarila in dodala izvlečke pogovorov, v katerih je ChatGPT domnevno rekel Adamu, da "ni nikomur dolžan preživeti", in mu ponudil pomoč pri pisanju poslovilnega pisma.

Starša tožita OpenAI in glavnega izvršnega direktorja tega podjetja s področja umetne inteligence Sama Altmana.

Zahtevata nedoločeno odškodnino, sodišče pa pozivata, naj določi varnostne ukrepe, vključno s samodejnim končanjem pogovorov, ki vključujejo samopoškodovanje, in starševskim nadzorom za mladoletne uporabnike.

OpenAI je v torek priznal, da njihov klepetalni robot dela napake v občutljivih primerih, in obljubil spremembe. V blogu, v katerem sicer ni omenilo tožbe, je podjetje poudarilo, da je ChatGPT usposobljen, da uporabnikom, ki izražajo samomorilske namere, priporoči, naj se za pomoč obrnejo na strokovnjake.

So pa pri podjetju po lastnih navedbah ugotovili, da se kljub temu in drugim varnostnim mehanizmom v občutljivih situacijah robot ni obnašal, kot bi se moral. Varnostni mehanizmi namreč delujejo najbolje v kratkih izmenjavah in lahko v dolgih interakcijah odpovejo, so izpostavili.

Pojasnili so še, da ChatGPT tudi prepozna, kdaj je uporabnik mlajši od 18 let, da lahko uporabi zaščitne ukrepe. Po novem naj bi uvedli tudi starševski nadzor, raziskujejo pa tudi možnost, da bi mladoletne uporabnike neposredno povezali s kontaktno osebo za nujne primere.

Ste že naročnik? Prijavite se tukaj.

Želite dostop do vseh Večerovih digitalnih vsebin?

Naročite se
Naročnino lahko kadarkoli prekinete.
Izrael bo lahko sodeloval na Evroviziji, Slovenije na Dunaju ne bo. Se strinjate s tako odločitvijo RTV Slovenija?
Da, s tem smo pokazali moralno držo.
38%
283 glasov
Odpovedati bi se morali sodelovanju že pred leti.
39%
289 glasov
Ne, gre za glasbeni izbor in morali bi sodelovati.
16%
115 glasov
Ne vem, me ne zanima.
7%
50 glasov
Skupaj glasov: 737