Imaginile radiologice false, create cu ajutorul inteligenţei artificiale pentru a imita cazuri reale, pot păcăli atât medicii specialişti, cât şi sistemele AI, potrivit unui studiu publicat în revista Radiology şi citat de Reuters. Concluziile ridică semne de întrebare serioase privind siguranţa diagnosticelor şi securitatea sistemelor medicale digitale. Studiul a implicat 17 radiologi din 12 spitale din şase ţări, care au analizat 264 de radiografii, jumătate dintre acestea fiind generate de inteligenţă artificială, inclusiv cu ajutorul ChatGPT.
Rezultatele arată că: doar 41% dintre radiologi au identificat corect imaginile false atunci când nu cunoşteau scopul studiului; precizia a crescut la 75% după ce au fost informaţi că există imagini sintetice în setul analizat. Aceste date indică dificultatea majoră de a distinge între imagini reale şi cele generate artificial, chiar şi pentru specialişti experimentaţi.
• Inteligenţa artificială, vulnerabilă la propriile creaţii
Testele au inclus şi evaluarea capacităţii unor modele AI de a detecta imaginile false. Printre acestea: GPT-4o, GPT-5, Gemini 2.5 Pro, Llama 4 Maverick. Precizia acestora a variat între 57% şi 85%, iar chiar modelul care a generat imaginile nu a reuşit să le detecteze pe toate.
• Riscuri majore: fraude medicale şi atacuri cibernetice
Autorul principal al studiului, Mickael Tordjman de la Icahn School of Medicine at Mount Sinai, avertizează asupra unor riscuri semnificative: fraude medicale: radiografii falsificate ar putea fi utilizate în litigii, simulând afecţiuni inexistente;
securitate cibernetică: atacatori ar putea introduce imagini false în sistemele spitalelor; subminarea încrederii: integritatea dosarului medical digital ar putea fi compromisă. „Există radiografii suficient de realiste pentru a-i înşela pe radiologi, ceea ce creează o vulnerabilitate cu mize mari”, a declarat Tordjman.
• Următorul nivel de risc: CT şi RMN
Cercetătorii avertizează că fenomenul ar putea deveni şi mai grav: imaginile de tip CT şi RMN ar putea fi falsificate; manipularea ar putea deveni mai greu de detectat; impactul clinic ar putea fi semnificativ. „Potenţial, vedem doar vârful aisbergului”, a subliniat Tordjman. Studiul subliniază nevoia urgentă de: dezvoltare a unor instrumente de detectare a imaginilor sintetice; crearea de seturi de date educaţionale pentru medici; implementarea unor protocoale de securitate mai stricte în spitale.


















































Opinia Cititorului