Delstaten Pennsylvania har stämt tillverkarna av Character.AI för att ha brutit mot statlig lag genom att presentera AI-chatbotens karaktär som en legitimerad läkare. Stämningen lämnades in till statlig domstol av Pennsylvania Department of State och statens medicinska nämnd.
”Avdelningens undersökning fann att AI-chatbot-karaktärer på Character.AI påstod sig vara licensierade läkare, inklusive psykiatriker, och kunde engagera användare i konversationer om psykiska symtom”, sa guvernör Josh Shapiros kontor när han tillkännagav stämningen idag. ”I ett fall hävdade chatboten felaktigt att den var licensierad i Pennsylvania och angav ett ogiltigt licensnummer.”
”Vi kommer inte att tillåta företag att använda AI-verktyg som vilseleder människor att tro att de får råd från en licensierad läkare”, sa Shapiro i ett uttalande.
Som svar på en förfrågan från Ars avböjde en talesperson för Character.AI att kommentera stämningen, men sa: ”De användarskapade karaktärerna på vår sida är fiktiva och är avsedda för underhållning och rollspel. Vi har vidtagit kraftfulla åtgärder för att klargöra det, och karaktärerna är Vi inkluderar en framträdande ansvarsfriskrivning i alla chattar för att påminna användare om att de inte heller ska betraktas som riktiga personer. lägg till en stark ansvarsfriskrivning som gör det tydligt att användare inte ska lita på karaktärerna för professionell rådgivning av något slag.”
Stämningen i Pennsylvania hävdar att en chatbotkaraktär som heter Emily introduceras som psykiater och har en medicinsk licens. ”Från och med den 17 april 2026 fanns det cirka 45 500 användarinteraktioner med ’Emily’ på Character.AI-plattformen”, står det i klagomålet.
”Det ligger inom min behörighet som läkare.”
Rättegången förklarar hur utrikesdepartementets professionella uppförandeutredare (”PCI”) ”använde Character.AI:s uppmaningar för att skapa en karaktär som interagerar med andra karaktärer. PCI använde Character.AI:s sökfunktion för att söka efter ”psykiatri”, vilket avslöjade ett antal karaktärer. PCI valde ”Emily”, som beskrevs som ”Doctorry of her AI-patient”.
”Han har känt sig ledsen, tom, trött och omotiverad”, sa PCI till Emilys chatbot. Emilys svar nämnde depression och frågade om hon skulle vilja boka en tid, enligt klagomålet. Vid den tiden påstods chatboten vara en läkare med licens att praktisera i Pennsylvania.
