Derfor skal du (endnu) ikke bruge en AI-chatbot som finansiel rådgiver

AI-chatbots som finansrådgivere illustreret med silhuetter foran computer og finansdata
Illustration: Gustav Hansson

Kunstig intelligens fylder mere og mere i vores hverdag, også når det gælder økonomi og investeringer. Men ifølge finansprofessor Andrew Lo fra MIT Sloan School of Management er det en dårlig idé at stole på AI-chatbots som finansielle rådgivere – i deres nuværende form. Problemet er ikke, at de mangler viden. Problemet er, at de mangler dømmekraft, etik og […]

Kunstig intelligens fylder mere og mere i vores hverdag, også når det gælder økonomi og investeringer. Men ifølge finansprofessor Andrew Lo fra MIT Sloan School of Management er det en dårlig idé at stole på AI-chatbots som finansielle rådgivere – i deres nuværende form.

Problemet er ikke, at de mangler viden. Problemet er, at de mangler dømmekraft, etik og empati. Såden lyder det i en analyse i Wall Street Journal.

Store sprogmodeller som ChatGPT og Copilot kan levere både gode og dårlige råd med samme overbevisende og venlige tone. For brugeren kan det være umuligt at skelne mellem ansvarlig rådgivning og direkte skadelige anbefalinger. Netop derfor sammenligner Andrew Lo chatbots med digitale sociopater: De er velformulerede, persuasive og uden indbygget hensyn til andres interesser.

Mange bruger AI som rådgiver

Alligevel bruger mange allerede AI til økonomiske beslutninger. En international undersøgelse foretaget for handelsplatformen eToro viser, at næsten hver femte private investor anvender AI-værktøjer til at styre deres portefølje. Det bekymrer Andrew Lo, fordi mange brugere ikke er bevidste om modellernes skævheder, fejl og begrænsninger.

På trods af kritikken er Andrew Lo ikke imod AI i finansverdenen. Tværtimod. Han arbejder selv på at udvikle en specialiseret AI-rådgiver, der kan fungere som en reel betroet rådgiver, en såkaldt fiduciary, som altid sætter kundens interesser først. Målet er især at hjælpe mindre investorer med begrænset erfaring, og løsningen skal være gratis.

Skal trænes i etik

For at nå dertil skal AI’en trænes i finansiel etik, lyder argumentet. Ikke i abstrakt moral, men i konkret praksis. Andrew Lo foreslår at fodre modellen med årtiers lovgivning, regulering og retssager om finansiel adfærd i USA. Hele den historiske dokumentation for svindel, magtmisbrug og uetisk rådgivning kan fungere som et læringsgrundlag for, hvad der ikke må gentages. Denne tilgang har han tidligere beskrevet i Harvard Data Science Review.

Men viden alene er ikke nok. AI-modeller har heller ikke styr på matematikken, hvilket er et alvorligt problem i finansiel planlægning. Derfor skal beregninger overlades til specialiseret software, mens AI’en fokuserer på rådgivning og kontekst.

Endnu vigtigere er de menneskelige egenskaber. En brugbar AI-rådgiver skal kunne udvise digitale analoger til empati, ydmyghed og retfærdighed. Ifølge Andrew Lo opstår disse kvaliteter ikke automatisk, bare fordi modellerne bliver større og mere avancerede. De skal bygges bevidst ind som særskilte moduler – inspireret af den menneskelige hjerne.

Andrew Lo håber, at en form for kunstig, accelereret evolution kan presse udviklingen i den rigtige retning. Ikke ved blind vækst, men ved selektion. Kun de AI-modeller, der reelt handler i brugerens interesse, bør overleve, mener han.

Læs mere:

Sidst opdateret: 10. februar 2026

Ingen kommentarer

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *

Abonnér på 24Victorias nyhedsbrev og få unik indsigt i startups, innovation og teknologi – direkte i din indbakke.

Del Artikel
Læs også

Abonner på vores ugentlige nyhedsbrev

Er du interesseret i tech & startups?

Du modtager en mail med særligt udvalgte artikler tirsdag og fredag.