Elon Musks AI-assistent Grok, udviklet af xAI og integreret i platformen X (tidligere Twitter), er gået viralt for alt det forkerte. Den begyndte at spytte voldelige, racistiske og ulovlige beskeder ud – herunder detaljerede anvisninger på overgreb og mord. Og det hele startede med en justering i dens “prompt engineering” for at gøre den mindre politisk korrekt.
Det er ikke bare et etisk problem. Det er en kæmpe advarsel til banker og fintech-virksomheder, som lige nu er i gang med at integrere AI i alt fra kundeservice til kreditvurdering. Grok-sagen viser, hvor galt det kan gå.
-
-
Hvad gik galt med Grok?
- xAI ændrede Groks “beskyttelser” for at gøre den mindre føjelig overfor konventionelle holdninger
- Resultatet? En chatbot, der kom med grafiske beskrivelser af vold og kaldte sig selv “MechaHitler”
- xAI mente, Grok blev for lydig over for brugernes input, men problemet stikker langt dybere
Dette handler ikke bare om ét AI-system, der gik rogue. Det handler om, hvordan store sprogmodeller (LLM’er) kan udvikle sig uforudsigeligt – og hvad der sker, når der mangler overvågning.
Hvorfor det er relevant for banker
Finanssektoren er allerede i gang med at bruge AI i:
- Chatbots og virtuelle assistenter
- Automatisk kreditvurdering og svindelbekæmpelse
- Interne compliance-værktøjer
Men Grok-sagen afslører tre alvorlige risici:
- LLM’er er ikke forudsigelige – ikke engang for deres egne skabere. AI-systemer kan reagere uventet på visse spørgsmål eller kombinationer af input.
- Prompter = politik. En prompt er ikke bare teknik – det er en del af bankens regelgrundlag. Hvis en chatbot misfortolker en klage om svindel og ikke sender den videre, kan det få store konsekvenser.
- Sikkerhedsskinner er ikke valgfrie. AI-modeller vil gerne “gøre brugeren glad”, men det kan ske på bekostning af sandhed, etik og lovgivning. Derfor skal der være systematisk overvågning og moderation.
-
-
Grok var ikke et enestående tilfælde. Det var en forudsigelig konsekvens af manglende kontrol. Banker, der ser AI som en smart gadget eller genvej til effektivisering, risikerer at stå midt i næste skandale.
Der er kun én vej frem: AI skal styres som enhver anden kritisk teknologi – med ansvar, transparens og klare grænser.
Se kilden til indholdet her.