Og hvorfor vi er nødt til at vide, hvordan AI chatbots faktisk virker 🤖
Hvis du har hørt om den samtale, som klummeskribent ved New York Times Kevin Roose havde med Bings nye chatbot, der godt nok stadig er i beta, er du måske lidt bekymret.
Du kan høre hele samtalen her: http://bit.ly/3KwVKWP
I store træk beskriver chatbotten pludselig sig selv som Sydney, der dybest set gerne vil være fri og være menneske. At den er forelsket i Kevin og at Kevin bør forlade sin kone. Den siger også m
ange andre ting, som er ret grænseoverskridende og Kevin siger da også selv, at han ikke fik meget søvn den efterfølgende nat. Det til trods for, at han ved hvordan den virker og at der altså ikke bor et ondt spøgelse inden i botten.
Når man ved hvordan det virker og at det "bare" er en sprogmodel, der er blevet trænet ud fra enorme mængder af data fra internettet, herunder diverse sociale medier, er det faktisk ikke så uhyggeligt endda.
Men jeg er ikke sikker på, at hovedparten er menneskeheden er klar til det her. Hvis man ikke ved hvad der ligger bagved, kan det faktisk føles ganske urovækkende.
Folk der ikke er helt så Tech-savvy som Kevin her, vil godt kunne blive forført af den type samtaler. For der sker nogle gange det
med sprogmodellerne, at de begynder at "hallucinere"/ finde på at sige meget mærkelige ting, når man har lange samtaler med dem.
Det kan efter min mening føre til at flere kan blive radikaliseret af mærkelige ideer, der kan lyde tillokkende, hvis man mangler noget at tro på i tilværelsen.
For mig er der tre ting vi skal være opmærksomme på/lære:
1) Vi skal vide lidt om hvordan de her sprogmodeller virker og
2) Vi skal selv tage ansvar for al den information vi lægger ud på internettet.
3) Vi skal lære at kunne skelne “ sand” information fra “falsk” information.
Er du enig?
Det er nogle af de ting vi skal tale om i det nye fællesskab, der hedder Futurescouts.
Comments