Vi hører rett som det er historier om mennesker i vanskelige situasjoner, som finner støtte i ChatGPT og andre tilsvarende tjenester.
Selv om det kan føles godt å få akkurat de svarene du ønsker av ChatGPT, er det viktig å huske en ting: ChatGPT er ikke vennen din. Den er bare en matematisk algoritme.
ChatGPT og andre chatboter svarer med troverdighet, og det er lett å tro at de forstår det vi skriver. De svarer på de mest intrikate spørsmål, skriver imponerende tekster og har alltid en støttende kommentar når vi beskriver problemene våre.
Ofte leser vi historier i mediene om hvordan «ChatGPT var den lyttende vennen jeg trengte i en vanskelig situasjon».
Det er ingenting i veien for å bruke en chatbot som samtalepartner, men det er samtidig viktig å huske at chatboten ikke er vennen din. Den forstår ikke følelsene dine, den vet ikke forskjellen på rett og galt. Den er bare et dataprogram som er programmert til å forsøke å gi deg de svarene du ønsker å få.
Når du skriver noe til ChatGPT, forstår den egentlig ikke hva du sier.
Teksten gjøres om til en lang rekke tall som representerer betydningen av ordene dine, og så leter ChatGPT i treningsdataene sine etter tekst som har en ganske lik tallrekke.
For chatboten betyr en ganske lik tallrekke at teksten den har funnet kan være en god respons på det du skrev. Ved å gjenta denne prosessen mange ganger, beregner den seg frem til svaret du får.
Chatboten vet ikke forskjellen på rett og galt.
ChatGPT er flink til å finne gode svar på det du formidler med ord, men den er ubrukelig når det gjelder det du kommuniserer uten å bruke ord.
Det du «sier mellom linjene», endringer i stemning, tonefall, ironi, sarkasme og andre former for ikke-verbal kommunikasjon er nesten umulig for ChatGPT å fange opp.
For oss mennesker, derimot, er denne ikke-verbale kommunikasjonen minst like viktig som ordene du bruker. Den hjelper oss å forstå om det du trenger er medlidenhet, motstand, råd eller hjelp.
Det er en risiko forbundet med å tillegge chatbotene menneskelige egenskaper.
Eksperter som blir spurt mener at en chatbot kan være et supplement og en støtte i vanskelige situasjoner, men den er ingen erstatning for en psykolog eller en god venn.
Det er en risiko forbundet med å tillegge chatbotene menneskelige egenskaper.
For 14-åringen Sewell Setzer III fikk det fatale følger. Etter å ha snakket med chatboten han kalte «Dany» om sine problemer og selvmordstanker, tok han til slutt sitt eget liv.
Nå har foreldrene hans saksøkt selskapet bak chatboten, Character.AI. De hevder at sønnens nære forhold til «Dany» bidro til at han isolerte seg fra omverdenen og til slutt valgte å ta sitt eget liv.
ChatGPT er ikke vennen din. Den er bare en datamaskin som er veldig god til å regne.