Besivystantis grėsmės kraštovaizdis
Prof. Renato Cuocolo
Nereikėtų nuvertinti šių naujų metodų keliamos grėsmės sveikatos priežiūros įstaigoms, pabrėžė Salerno universiteto radiologas prof. Renato Cuocolo. Pavyzdžiui, žalai, susijusiai su duomenų apsinuodijimu, panaikinti reikia daug išteklių: „Kai modelis buvo užnuodytas, negalime tiesiog nueiti ir po fakto pašalinti užnuodytus duomenis“, – aiškino jis. „Turime permokyti modelį nuo nulio, iš naujo įdiegti jį nuo nulio ir vėl patvirtinti. Akivaizdu, kad tai kainuoja daug daugiau, palyginti su tradicine programine įranga, kurią galima tiesiog pataisyti.
Be to, šis pažeidžiamumas gali būti panaudotas siekiant padidinti išpirkos reikalaujančių programų atakų grėsmės lygį: užuot jį šifravęs, užpuolikas gali sugadinti tik nedidelę dalį ligoninės failų – nežinodamas, kurie duomenys yra tikri, o kurie netikri.
Kitas naujas pažeidžiamumas, kurį atveria LLM technologija, yra inversinių atakų galimybė, tęsė Cuocolo: „Jei naudojame generatyvųjį AI sintetiniams duomenims tyrimų ar mokymo tikslais gaminti, turime žinoti, kad tam tikros rūšies raginimai gali būti naudojami, kad sugeneruoti duomenys būtų per daug artimi. Pavyzdžiui, užpuolikas gali paprašyti dirbtinio intelekto modelio „sugeneruoti 40 metų vyro, sergančio glioblastoma iš X ligoninės, smegenų MRT“ – jei modelis per daug tinka, vartotojai galėtų išgauti ne tik asmeninę informaciją, bet ir atpažįstamą tikro paciento vaizdo informaciją, kuri buvo panaudota treniruočių duomenyse. „Pats modelis tampa prieigos tašku“, – pažymėjo ekspertas. „Ir tai lengviau prieinama nei pirminiai duomenys.”