Världshälsoorganisationen (WHO) har kommit med en AI integrerad av en chatbot som heter SARAH. SARAHs uppdrag är att täcka tillgång till information om global hälsa. Vi nämner SARAHs innovativa tillvägagångssätt. Ändå lyckas den fortfarande skapa en del väsentlig falsk medicinsk information.
Teknologisk innovation möter hälsoutbildning
SETHARA är en förkortning för Smart AI Resource Assistant for Health, SOM REPELERAR WHO:s ansträngningar för detta ändamål. Hon representerar de senaste digitala hälsomedlen som används av institutionen. Utvecklad för att möta vårdbehov när som helst och var som helst, SARAH kan leverera information på åtta språk, inklusive mental hälsa och livsval.
Detta är en av sådana åtgärder som utgör en del av WHO:s strategi för att integrera teknologi i folkhälsoutbildning och för att överbrygga den globala klyftan i hälsotäckning. WHO medgav dock att embryot har svagheter trots att det är prototypen i historien. Den har hittills vanligtvis skräddarsytts av programmerarna för att förbli inom WHO:s mandatområde och ger information om hur man kan hitta professionell hjälp i särskilda frågor. Boten kan inte tillhandahålla en sådan tjänst kontinuerligt och den kan inte jämföras med verktyg som WebMD.
Utmaningar inom AI-noggrannhet och säkerhet
SARAH har inte gjorts bara enkla sätt från utbyggnaden. AI-chatboten är baserad på OpenAI:s ChatGPT 3.5-modell; den har haft problem med att visa föråldrad information samt några felaktiga svar. Ett exempel på detta är dess felaktiga omnämnande av godkännandestatus för ett nytt läkemedel mot Alzheimers sjukdom, en återspegling av dess brist på pågående utbildad data som bara inkluderade data så långt tillbaka som i september 2021.
Den andra saken som SARAH ofta upplever är att presentera svaren som kan ligga utanför ett ämne eller syfte, det kända problemet i AI-utvecklingen refererar till som hallucinationer. Sammanfattningsvis kan dessa felaktigheter öka risken för offentlig desinformation. Världshälsoorganisationen (WHO) tittar därför på att få synpunkter från forskare och statliga myndigheter för att förbättra motståndskraften, särskilt i nödsituationer för människors hälsa.
Detta åtföljs också av farhågor om hälsoarbetarnas användning av AI. SORAH tillämpar ansiktsigenkänningstekniker för att upptäcka och härleda användarnas känslor. De lovar att undvika att visa sina ansikten genom att tillhandahålla dataskydd och integritet. Öppen källkods evighetsmodell präglas också av ökad exponering för cyberattacker på grunden av AI.
Framtida riktningar och etiska överväganden
WHO upprätthåller fortfarande SARAH, och snart kommer uppdateringar som introduktionen av avatarens föränderliga utseende och interaktiva förmågor. WHO tillkännagav faktiskt etiska principer för sina intressenter och lade fram begreppen datatransparens och användarsäkerhet. SARAH, som är en teknik baserad på artificiell intelligens, tas till en annan nivå av sin design eftersom WHO är försiktig med att integrera AI i spridningen av hälsomeddelanden. Tekniken har dock flera svagheter som organisationen snabbt påpekar.
Organisationen gör det öppet och tydligt att SARAH inte är en transformator av medicinska tjänster som inte är det som eftersträvades, utan ett stödjande verktyg för att sprida folkhälsomedvetenhet och utbildning över hela världen. Trots vissa hinder visar WHO:s ansträngning betydande framsteg när det gäller att använda artificiell intelligens i hälsoutbildning eftersom det kommer att riktas mot en bredare publik och hjälpa hälsoinformation mer tillgänglig globalt.
Den här artikeln publicerades ursprungligen i Fortune