Risiko Kemajuan Pesat AI dalam Perawatan Kesehatan

Data pribadi kita dikumpulkan dan dijual untuk melatih AI yang bahkan pembuatnya sering tidak mengerti

Conna Craig

Kecerdasan buatan (AI) menjadi berita utama, dan ulasannya beragam.

Meskipun Amerika Serikat memimpin dunia dalam investasi AI, orang Amerika tetap skeptis. Menurut survei global oleh Ipsos, “Hanya 35 persen sampel orang Amerika yang setuju bahwa produk dan layanan yang menggunakan AI memiliki lebih banyak manfaat daripada kerugian.” Di antara negara-negara yang disurvei, Amerika Serikat memiliki salah satu persentase terendah dari mereka yang setuju dengan pernyataan tersebut.

Industri swasta telah mengalahkan akademisi dalam memproduksi sistem AI yang canggih; pada saat yang sama, jumlah insiden penyalahgunaan etika AI telah meningkat secara dramatis—dari 10 pada tahun 2012 menjadi lebih dari 250 pada tahun 2021.

Bidang ini berkembang dalam apa yang bisa disebut “Wild West” (wilayah liar) AI. Menurut Laporan Indeks AI Universitas Stanford, “AI telah memasuki era penerapannya; sepanjang 2022 dan awal 2023, model AI skala besar baru telah dirilis setiap bulan.”

Model-model ini termasuk Difusi Stabil, Whisper, DALL-E 2, dan ChatGPT yang ada di mana-mana. Daerah dengan investasi terbanyak? Kesehatan.

Kemungkinan terkait AI dalam perawatan kesehatan sepertinya tidak ada habisnya. Namun, apakah AI menawarkan janji atau bahaya masih menjadi pertanyaan.

Kecerdasan Buatan (AI) 101

Meskipun ada banyak desas-desus tentang AI, itu bukanlah hal baru. Pekerjaan teoretis tentang “pembelajaran mesin” dikreditkan ke penelitian Alan Turing yang dimulai pada 1935. Istilah “kecerdasan buatan” muncul pada awal 1950-an dan digunakan dalam proposal tahun 1955 untuk proyek penelitian musim panas di Dartmouth College. Musim panas berikut- nya, 10 ilmuwan bertemu untuk mempelajari apakah mesin dapat mensimulasikan pembelajaran dan kreativitas manusia. Temuan mereka akan mengubah arah ilmu pengetahuan.

Definisi dasar AI adalah “perangkat lunak yang digunakan oleh komputer untuk meniru aspek kecerdasan manusia”. Di bawah payung AI terdapat spesialisasi seperti “pembelajaran mesin” dan “pembelajaran mendalam” yang dapat membuat keputusan tanpa manusia.

Para ilmuwan telah menggunakan AI dalam penelitian medis sejak tahun 1970- an. Teknologi ini dapat menganalisis data dalam jumlah besar untuk memberikan rekomendasi perawatan yang dipersonalisasi dan mengidentifikasi pola dan risiko yang mungkin tidak langsung terlihat oleh manusia. Di tangan kanan, AI dapat merevolusi perawatan medis.

Perkenalkan Sybil, AI Pendeteksi Kanker Paru-paru 

Tim  peneliti  Institut  Teknologi  Massachusetts bermitra dengan Rumah Sakit Umum Massachusetts (MGH) di Boston dan Rumah Sakit Memorial Chang Gung di Taiwan untuk membuat alat AI yang menilai risiko kanker paru-paru. Diperkenalkan pada Januari 2023, “Sybil” menggunakan pemindaian CT dosis rendah tunggal untuk memprediksi kanker yang akan muncul dalam satu hingga enam tahun, dengan akurasi yang sangat tinggi—hingga 94 persen dalam uji klinis.

Dalam Journal of Clinical Oncology, para peneliti menyimpulkan kesuksesan awal Sybil: “Sybil mampu meramalkan risiko kanker paru-paru jangka pendek dan jangka panjang” dan “mempertahankan akurasinya di berbagai kelompok pasien dari Amerika Serikat dan Taiwan.”

Kanker paru-paru adalah kanker paling mematikan di dunia “karena relatif umum dan relatif sulit diobati, terutama setelah mencapai stadium lanjut,” kata Dr. Florian Fintelmann, ahli radiologi-ilmuwan di MGH, profesor radiologi di Harvard Fakultas Kedokteran, dan bagian dari tim peneliti. Fintelmann mencatat bahwa tingkat kelangsungan hidup 5 tahun adalah 70 persen untuk deteksi dini tetapi turun menjadi 10 persen untuk deteksi lanjutan.

Kemampuan Sybil untuk memprediksi hasil kanker dapat mengarah pada skrining yang lebih luas, terutama pada populasi yang kurang terlayani, yang sejalan dengan panduan dari Food and Drug Administration (FDA) A.S. tentang peningkatan pendaftaran uji klinis di antara anggota komunitas minoritas.

Pertumbuhan Eksponensial dalam Persetujuan FDA untuk Aplikasi AI Meskipun Sybil menunggu persetujuan FDA, 521 algoritme AI telah disetujui.

Tiga perempatnya dalam pencitraan medis, dan 56 lainnya adalah aplikasi terkait kardiologi.

Karena pembelajaran mesin berkem- bang dengan data baru, FDA akan meminta aplikasi AI untuk menyertakan rencana kontrol perubahan yang telah ditentukan sebelumnya (PCCP). 

Oleh karena itu, baru- baru ini telah dikeluarkan draf panduan tentang PCCP. Ini untuk memastikan AI “dapat dimodifikasi, diperbarui, dan ditingkatkan dengan aman, efektif, dan cepat sebagai respons terhadap data baru,” ujar Brendan O’Leary, wakil direktur Digital Health Centre of Excellence di FDA’s Center for Devices and Radiological Health.

Jika panduan disetujui, pengembangdapat memperbarui perangkat AI tanpa mengajukan aplikasi baru ke FDA.

Kemungkinan, bahkan dengan persyaratan data yang meningkat dari FDA, tidak akan ada yang memperlambat pengembangan perangkat dan algoritme AI.

Apa yang Mungkin Salah?

AI diciptakan untuk meniru cara manusia berpikir, bernalar, dan memecahkan masalah. Manusia bisa salah dan memiliki bias, dan AI mungkin tidak lebih baik.

Data yang Tidak Dapat Diandalkan Menghasilkan Risiko

Penilaian AI didasarkan pada data yang diberikannya. “Bias data” terjadi saat algoritme dilatih dengan data yang buruk atau tidak lengkap, yang mengarah ke prediksi yang salah.

Meskipun banyak penelitian mengklaim bahwa AI dapat menilai  kanker kulit lebih akurat daripada yang dapat dilakukan oleh dokter manusia, namun satu kelompok peneliti memutuskan untuk menantang kemampuan AI dalam mengidentifikasi kondisi kulit.

Para peneliti mulai dengan 25.331 gambar pelatihan dari dua set data—satu dari Wina dan satu lagi dari Barcelona— termasuk delapan penyakit kulit. Kemu- dian, mereka menambahkan gambar—dari Turki, Selandia Baru, Swedia, dan Argentina—yang tidak digunakan dalam data pelatihan dan menyertakan penyakit kulit tambahan.

AI salah mengklasifikasikan hampir setengah (47,1 persen) gambar dari luar kumpulan data pelatihan. Menurut para peneliti, ini akan “menyebabkan sejumlah besar biopsi yang tidak perlu jika teknologi AI canggih saat ini digunakan secara klinis.” Bahkan  AI  yang   paling   menjanjikan pun memerlukan uji klinis dunia nyata sebelum dapat diadopsi.

Masa Lalu Tidak Selalu Prolog

Bagaimana pengembang AI mengukur keberhasilan algoritme mereka? Biasanya, mereka melakukan studi dengan dataset dari masa lalu.

Seperti yang ditulis oleh Eugenio Santoro dari Mario Negri Institute of Pharmacological Research, “Banyak di antaranya bersifat retrospektif dan berdasarkan kumpulan data yang dikumpulkan sebelumnya, sementara sedikit yang prospektif dilakukan dalam pengaturan klinis nyata, dan sangat sedikit yang didasarkan pada uji klinis terkontrol acak.”

Dengan kata lain, mungkin ada perbedaan penting antara data yang digunakan untuk mengevaluasi apakah AI berfungsi dengan baik dan data yang harus digunakan AI dalam pengaturan klinis. Itu bisa menyebabkan masalah dalam kemanjuran AI.

Robot Berbisik di Telinga Anda

Manusia dapat dipengaruhi oleh data yang dihasilkan komputer atau AI—meskipun data tersebut salah. Jadi, sejauh mana, jika ada, AI dapat membiaskan profesional medis?

Dalam percobaan yang dilakukan oleh peneliti Jerman dan Belanda, 27 ahli radiologi membaca 50 mammogram. Ahli radiologi diberi kategorisasi buatan AI (palsu) untuk mammogram, setengahnya salah. (Kategorisasi menyarankan langkah selanjutnya dalam perawatan)

“Ahli radiologi berpengalaman, mereka yang rata-rata memiliki pengalaman lebih dari 15 tahun, melihat akurasi mereka turun dari 82 persen menjadi 45,5 persen ketika AI yang diklaim menyarankan kategori yang salah,” tulis penulis penelitian.

Para peneliti menulis bahwa pengamanan diperlukan untuk menghindari bias semacam ini, dan salah satu pengamanannya adalah kita harus mengetahui “proses penalaran” AI—yaitu, apa yang terjadi dalam apa yang disebut “kotak hitam”.

Misteri Di Dalam Kotak Hitam

Tempat teoretis yang berisi kejadian antara input (data) dan output disebut “kotak hitam”.

Karena pembelajaran mesin dapat mengajarkan dirinya sendiri, beberapa hal yang terjadi di dalam kotak hitam tetap misterius, bahkan bagi pencipta AI.

Dalam AI, akurasi adalah segalanya. Ide yang berlaku adalah bahwa untuk mencapai akurasi ini, AI harus rumit dan tidak dapat diinterpretasikan. Namun, para ilmuwan mulai menantang gagasan itu.

Menurut sebuah makalah yang diterbitkan di Harvard Data Science Review,“Yang disebut pertukaran akurasi-interpretabilitas terungkap sebagai kekeliruan: Model yang lebih dapat ditafsirkan sering- kali menjadi lebih (dan tidak kurang) akurat.”

Lebih lanjut, penulis menulis, “Ketika para ilmuwan memahami apa yang mereka lakukan saat membuat model, mereka dapat menghasilkan sistem AI yang lebih mampu melayani manusia yang mengandalkannya.”

Karena keburamannya, kotak hitam juga berkontribusi terhadap ketidakpercayaan.

Dalam buku putih yang diterbitkan oleh Italian Society of Medical and Interventional Radiology edisi Mei ini, penulis mencatat, “Bahkan para ahli di tingkat tertinggi mungkin kesulitan untuk memahami sepenuhnya apa yang disebut model ‘kotak hitam’.”

Penulis buku putih merujuk pada “AI yang dapat dijelaskan” sebagai aspek penting dari adopsi AI, menyerukan pengem- bang untuk beralih dari model “kotak hitam” ke model “kotak kaca”.

Dan bukan hanya apa yang terjadi di dalam kotak yang tersembunyi; data pela- tihan yang dimasukkan ke dalam algoritme AI mungkin mengejutkan Anda.

Siapa yang Memiliki Datanya?

Kita belajar, sejak bayi, dari orang-orang di sekitar kita. Demikian pula, AI tidak ada dalam ruang hampa. Sebelum dapat melakukan keajaibannya, ia membutuhkan data.

Dan data itu berasal dari Anda dan saya.Jika Anda menggunakan aplikasi kesehatan online atau memakai perangkat “pintar”, pelacak kebugaran Anda mungkin melacak setiap langkah yang Anda ambil dan mengirimkan informasi tersebut ke perusahaan yang menggabungkan dan menjualnya.

Jika Anda memeriksa cuaca lokal di ponsel cerdas, kemungkinan besar Anda telah mengaktifkan pelacakan lokasi ponsel Anda. Tahukah Anda bahwa aplikasi melacak ke mana pun Anda pergi dan berapa banyak waktu yang Anda habiskan di sana dan dapat menyimpulkan dari data tersebut agama apa yang Anda praktikkan, apakah Anda memilih atau tidak, dan bahkan usia Anda?

Bagaimana dengan data medis? Kebanyakan orang Amerika akrab dengan Undang-Undang Portabilitas dan Akuntabilitas Asuransi Kesehatan (HIPAA), yang melindungi privasi kita terkait dengan informasi kesehatan.

Namun, ada celah dalam HIPAA. “Banyak aplikasi dan situs web di luar ruang lingkup ‘entitas tertutup’ HIPAA yang sempit sepenuhnya bebas untuk secara legal mengumpulkan, mengumpulkan, dan menjual, melisensikan, dan berbagi informasi kesehatan orang Amerika di pasar terbuka,” Justin Sherman, peneliti senior dan pemimpin penelitian di Proyek pialang data Sekolah Kebijakan Publik Duke University Sanford, dinyatakan dalam kesaksian tertulisnya kepada Komite Energi dan Perdagangan DPR AS.

Beberapa data datang langsung dari rumah sakit. Menurut VentureBeat, “Google mempertahankan kemitraan penelitian 10 tahun dengan Mayo Clinic yang memberi perusahaan akses terbatas ke data anonim yang dapat digunakan untuk melatih algoritme.”

Dalam apa yang disebutnya “langkah untuk mendemokratisasi penelitian tentang kecerdasan buatan dan obat-obatan,” Universitas Stanford mempertahankan “gudang gratis terbesar di dunia untuk kumpulan data pencitraan medis beranotasi AI.”

“Apa yang mendorong teknologi ini, baik Anda seorang ahli bedah ataupun dokter kandungan, adalah data,” kata Dr. Matthew Lungren, salah satu direktur Pusat Kecerdasan Buatan Stanford dalam Kedokteran dan Pencitraan dan asisten profesor radiologi di Stanford, dalam sebuah artikel di situs Stanford’s Institute for Human-Centered AI.

“Kami ingin menggandakan gagasan bahwa data medis adalah barang publik dan harus terbuka untuk bakat peneliti di mana pun di dunia.”

Apakah itu yang benar-benar kita inginkan—agar data medis kita menjadi “barang publik”? (ajg)

Conna Craig, seorang peneliti dan penulis yang berfokus pada kebijakan publik, kesehatan, dan masalah anak-anak. Dia telah menjadi penasihat para pembuat keputusan di dua administrasi Gedung Putih dan memegang gelar sarjana dari Harvard College.