Semne ale vremurilor din urma | Noiembrie 2024
Pag. 329 of 368 Alerta primită de Beebe a fost creată de AI pe baza unui număr crescut de globule albe observat la pacientul respectiv, pe care l-a corelat cu o infecție septică. Ceea ce sistemul AI nu a reușit să recunoască este că pacientul în cauză avea și leucemie, care poate provoca, de asemenea, un număr crescut similar de globule albe. „Algoritmul, care s-a bazat pe inteligența artificială, declanșează alerta atunci când detectează modele care se potrivesc pacienților anteriori cu diagnostic similar”, a raportat Jurnalul. „Algoritmul nu și-a explicat decizia.” A fi internat într-un spital în epoca AI și care folosește rezultatele dat de AI este o rețetă pentru moarte timpurie . Regulile de la spitalul în care lucrează Beebe prevăd că ea și toate celelalte asistente trebuie să urmeze anumite protocoale ori de câte ori un pacient este semnalat pentru sepsis (n.t. = o complicație gravă a septicemiei) chiar dacă alarma este o greșeală bazată pe presupuneri greșite făcute de AI. Singura modalitate de a trece peste decizia AI este de a obține aprobarea unui medic – deși, dacă decizia modificată ajunge să fie greșită, asistentele se pot confrunta cu măsuri disciplinare. Amenințarea cu aceasta îi face pe cei mai mulți dintre ei să urmeze pur și simplu ordinele, chiar și atunci când știu că acele ordine sunt greșite. „Nu demonizez tehnologia”, a adăugat ea, remarcând că, în cazul pacientului cu cancer menționat mai sus, ea a avut dreptate, iar AI a greșit. „Dar simt o suferință morală când știu ce trebuie să fac și nu pot să fac asta .” Deși există, fără îndoială, unele lucruri pe care AI le poate face, eventual, mai bine decât o ființă umană, bazarea pe sistemele AI pentru a controla direcția medicinii și îngrijirii în spitale este o afacere periculoasă. Cine poate spune că aparatele AI nu vor începe brusc să vizeze anumiți pacienți pentru eliminarea lor timpurie dacă numele lor apar pe o listă de „suprimare” creată de un anume guvern, ca un rezultat distopic ipotetic? Dar atunci când aparatele AI sunt pur și simplu greșite, iar personalul spitalului este prea obosit, ambivalent sau chiar apatic pentru a încerca să o depășească și să-și riște propria carieră în acest proces? „ AI ar trebui folosit ca suport de decizie clinică și nu pentru a înlocui expertul ”, avertizează Kenrick Cato, profesor de
RkJQdWJsaXNoZXIy Mjc3NjY=