Dalam krisis yang semakin mengerikan selama dekade terakhir dilansir dalam HBR (Harvard Business Review) solusi digital banyak digunakan dengan pengembangan kecerdasan buatan (AI) yang
mana menawarkan harapan untuk membantu kesehatan mental kita. Alat-alat baru
sedang dikembangkan oleh perusahaan teknologi dan universitas dengan kemampuan
diagnostik dan perawatan yang kuat yang dapat digunakan untuk melayani populasi
besar dengan biaya yang masuk akal pula.
Solusi AI datang pada waktu yang tepat. Dimana dunia masih
menghadapi kekurangan kritis dalam psikiater dan spesialis kesehatan mental
lainnya, yang mana memperburuk krisis kesehatan. Hampir 40% orang Amerika
tinggal di daerah yang ditetapkan oleh pemerintah federal sebagai kekurangan
profesional kesehatan mental; lebih dari 60% wilayah AS tidak memiliki
psikiater tunggal di dalam perbatasan mereka. Mereka yang cukup beruntung untuk
tinggal di daerah dengan akses yang memadai ke layanan kesehatan mental
seringkali tidak mampu membelinya karena banyak terapis tidak menerima
asuransi.
Sementara beberapa orang mungkin menganggap digitalisasi layanan kesehatan mental tidak bersifat pribadi, anonimitas yang melekat pada AI ternyata positif dalam beberapa kasus. Pasien, yang sering malu mengungkapkan masalah kepada terapis yang belum pernah mereka temui sebelumnya. Biaya perawatan AI yang lebih rendah dibandingkan menemui psikiater atau psikolog adalah nilai tambah lainnya.
Seperti semua upaya digitalisasi dalam perawatan kesehatan dan industri lainnya, alat baru ini menimbulkan risiko, terutama terhadap privasi pasien. Perawatan kesehatan telah menjadi target utama peretas karena semakin banyak catatan yang telah didigitalkan. Tapi meretas data klaim adalah satu hal; mendapatkan akses ke setiap detail paling intim dari setiap pasien menghadirkan jenis risiko yang benar-benar baru terutama ketika detail tersebut terkait dengan data konsumen dan login media sosial. Penyedia/Vendor AI harus merancang solusi mereka sejak awal untuk menggunakan teknik mitigasi seperti menyimpan data identitas pribadi seminimal mungkin, secara teratur vendor dapat menghapus transkrip sesi setelah analisis, dan mengenkripsi data di server itu sendiri.
Vendor AI juga harus berurusan dengan batasan AI yang diakui, seperti kecenderungan pembelajaran mesin untuk mendiskriminasi berdasarkan ras, jenis kelamin, atau usia. Misalnya, jika alat AI yang menggunakan pola ucapan untuk mendeteksi penyakit mental dilatih menggunakan sampel ucapan hanya dari satu kelompok demografis, bekerja dengan pasien dari luar kelompok tersebut dapat mengakibatkan peringatan palsu dan diagnosis yang salah. Demikian pula, terapis virtual yang dilatih terutama pada wajah karyawan perusahaan teknologi mungkin kurang efektif membaca isyarat non-verbal dari wanita, orang kulit berwarna, atau manula, beberapa di antaranya bekerja di bidang teknologi. Untuk menghindari risiko ini, vendor AI harus mengenali kecenderungan dan mengembangkan alat AI menggunakan standar ketat yang sama dengan dokter riset yang dengan rajin mencari perwakilan kelompok uji dari seluruh komunitas.
Seperti halnya semua terobosan potensial, peringatan tetap
ada dan pengamanan harus dikembangkan. Namun, tidak diragukan lagi kita berada
di puncak revolusi AI yang dikembangkan untuk memberikan fasilitas terhadap
seseorang tanpa harus menguras kantong bank.
---
by: Ari Putra

Komentar
Posting Komentar