Kardiologer trænede en stor AI-model til at vurdere hjertets struktur og funktion
Sidst revideret: 14.06.2024
Alt iLive-indhold gennemgås medie eller kontrolleres for at sikre så meget faktuel nøjagtighed som muligt.
Vi har strenge sourcing retningslinjer og kun link til velrenommerede medie websteder, akademiske forskningsinstitutioner og, når det er muligt, medicinsk peer reviewed undersøgelser. Bemærk at tallene inden for parentes ([1], [2] osv.) Er klikbare links til disse undersøgelser.
Hvis du mener, at noget af vores indhold er unøjagtigt, forældet eller på anden måde tvivlsomt, skal du vælge det og trykke på Ctrl + Enter.
Eksperter i kunstig intelligens fra Cedars-Sinai og Smidt Heart Institute skabte et datasæt med mere end 1 million ekkokardiogrammer (videoultralyd af hjertet) og deres tilsvarende kliniske fortolkninger. Ved hjælp af denne database udviklede de EchoCLIP, en kraftfuld maskinlæringsalgoritme, der kan "fortolke" ekkokardiogrambilleder og evaluere nøgleindikatorer.
Designet og evalueringen af EchoCLIP, beskrevet i et papir offentliggjort i Nature Medicine, tyder på, at fortolkning af en patients ekkokardiogram ved hjælp af EchoCLIP giver kliniske vurderinger på specialistniveau, bl.a. Vurdering af hjertefunktion, resultater af tidligere operationer og implanterede anordninger og kan også hjælpe læger med at identificere patienter med behov for behandling.
Den grundlæggende EchoCLIP-model kan også identificere den samme patient på tværs af flere videoer, undersøgelser og tidspunkter og genkende klinisk vigtige ændringer i patientens hjerte.
"Så vidt vi ved, er dette den største model, der er trænet på ekkokardiografibilleder," sagde hovedforfatter af undersøgelsen David Ouyang, MD, medlem af Cardiology Division-fakultetet på Smidt Heart Institute og Institut for Kunstig Intelligens i Medicin.
"Mange tidligere AI-modeller til ekkokardiogrammer er kun trænet på titusindvis af eksempler. I modsætning hertil er EchoCLIPs unikke høje ydeevne inden for billedfortolkning resultatet af træning på næsten ti gange flere data end eksisterende modeller."
"Vores resultater viser, at store, peer-reviewede medicinske billeddannelses- og fortolkningsdatasæt kan tjene som grundlag for træning af grundlæggende medicinske modeller, som er en form for generativ kunstig intelligens," tilføjede Ouyang.
EchoCLIP arbejdsgang. Kilde: Nature Medicine (2024). DOI: 10.1038/s41591-024-02959-y
Han bemærkede, at denne avancerede basismodel snart kunne hjælpe kardiologer med at evaluere ekkokardiogrammer ved at generere foreløbige estimater af hjertemålinger, identificere ændringer over tid og almindelige sygdomme.
Forskerholdet oprettede et datasæt med 1.032.975 hjerte-ultralydsvideoer og tilhørende ekspertfortolkninger for at udvikle EchoCLIP. Nøgleresultater fra undersøgelsen omfatter:
- EchoCLIP har demonstreret høj ydeevne ved vurdering af hjertefunktion ud fra hjertebilleder.
- Den grundlæggende model var i stand til at identificere implanterede intrakardiale anordninger såsom pacemakere, implanterede mitral- og aortaklapper fra ekkokardiogrambilleder.
- EchoCLIP identificerede nøjagtigt unikke patienter på tværs af undersøgelser, identificerede klinisk vigtige ændringer, såsom tidligere hjertekirurgi, og tillod udviklingen af foreløbige tekstfortolkninger af ekkokardiogrambilleder.
"Basismodeller er et af de nyeste områder inden for generativ AI, men de fleste modeller har ikke nok medicinske data til at være nyttige i sundhedsvæsenet," sagde Christina M. Albert, MD, MPH, formand for afdelingen for kardiologi ved Smidt Hjerteinstitut.
Albert, som ikke var involveret i undersøgelsen, tilføjede: "Denne nye basismodel integrerer computersyn til ekkokardiogram billedfortolkning med naturlig sprogbehandling for at forbedre kardiologernes fortolkninger."