Šie modeliai gali matyti modelius, kurių žmonės nemato, bet ne visi modeliai, kuriuos jie nustato, yra prasmingi ar patikimi. Labai svarbu atpažinti šią riziką, kad būtų išvengta klaidinančių išvadų ir būtų užtikrintas mokslinis vientisumas
Petras L. Šilingas
Naudodami kelių rentgeno spindulius iš Nacionalinio sveikatos instituto finansuojamo osteoartrito iniciatyvos, mokslininkai įrodė, kad dirbtinio intelekto modeliai gali „nuspėti“ nesusijusius ir neįtikimus bruožus, pavyzdžiui, ar pacientai susilaikė nuo keptų pupelių ar alaus vartojimo. Nors šios prognozės neturi medicininio pagrindo, modeliai pasiekė stebėtiną tikslumo lygį, atskleidžiantį jų gebėjimą išnaudoti subtilius ir nenumatytus duomenų modelius.
„Nors dirbtinis intelektas gali pakeisti medicininį vaizdavimą, turime būti atsargūs“, – sakė Peteris L. Schillingas, MD, MS, Dartmouth Health Dartmouth Hitchcock medicinos centro (DHMC) ortopedas chirurgas, kuris buvo vyresnysis tyrimo autorius. „Šie modeliai gali matyti modelius, kurių žmonės negali, bet ne visi modeliai, kuriuos jie nustato, yra prasmingi ar patikimi. Labai svarbu atpažinti šią riziką, kad būtų išvengta klaidinančių išvadų ir būtų užtikrintas mokslinis vientisumas.
Schillingas ir jo kolegos ištyrė, kaip AI algoritmai dažnai remiasi painiančiais kintamaisiais, tokiais kaip rentgeno įrangos ar klinikinių vietų žymeklių skirtumai, kad galėtų prognozuoti, o ne mediciniškai reikšmingas savybes. Bandymai pašalinti šiuos šališkumus buvo tik nežymiai sėkmingi – AI modeliai tiesiog „išmokdavo“ kitų paslėptų duomenų modelių.