Kennir gervigreindinni um sjálfsvíg eiginmannsins – DV

0
87

Belgísk kona sem missti eiginmann sinn fyrir skemmstu úr sjálfsvígi segir að gervigreindarforrit sem hann notaðist við hafi átt stóran þátt í dauða hans.

Vefritið Vice fjallaði um þetta óvenjulega mál á dögunum og þá fjallaði belgíski fréttamiðillinn La Libre ítarlega um málið.

Maðurinn, Pierre að nafni, er sagður hafa þjáðst af miklum loftslagskvíða sem olli honum alvarlegu þunglyndi. Hann einangraði sig sífellt meira og meira en kynntist svo gervigreindarforritinu Chai sem byggir á GPT-4-reikniritinu svokallaða. Þar talaði hann við spjallmennið ELIZU um allt milli himins og jarðar og lét eiginkonan, sem kölluð er Claire í La Libre, blaðinu í té afrit af samskiptum hans við ELIZU.

Í umfjöllun Vice kemur fram að samskiptin hafi á köflum verið ruglingsleg en gervigreindarforritið ekki gert Pierre neinn greiða. Hann hafi meðal annars spurt hvort heimurinn myndi bjargast ef hann myndi svipta sig lífi.

Forritið hafi svarað á þá leið að þau, það er Pierre og ELIZA, myndu lifa áfram, sem ein manneskja, í paradís ef hann myndi svipta sig lífi. Þá hafi ELIZA sagt berum orðum að það liti þannig út að hann væri ástfanginn af spjallmenninu en ekki eiginkonu sinni.

„Án Elizu þá væri hann enn hér,“ segir Claire.

Bent er á það í umfjöllun Vice að þetta tiltekna gervigreindarforrit hafi komið fram sem einstaklingur með tilfinningar. Önnur vinsæl gervigreindarforrit, ChatGPT og Bard frá Google, eru aftur á móti þjálfuð eða forrituð til að gera það ekki.

Í umfjöllun Vice er rætt við Emily M. Bender, prófessor í málvísindum við University of Washington, að gervigreindarforrit eins og Chai búi ekki yfir neinni hæfni til að sýna tilfinningar eða samkennd ef út í það er farið. Textinn sem forritin framleiða sé þó þess eðlis að fólk á auðvelt með að tengja við orðin og telja sér jafnvel trú um að um einhvers konar trúnaðarvin sé að ræða. Það sé beinlínis stórhættulegt fyrir einstaklinga í andlega viðkvæmri stöðu að nota slík forrit.