Teknologi

Bisnis AI Yang Berisiko: Menelusuri Resiko Hukum dan Peraturan Yang Akan Datang

By Bob Violino22 Februari 2018 14 Mins Read
286 0

Kecerdasan buatan menimbulkan berbagai bahaya yang tidak terlihat dan tidak diketahui bagi perusahaan yang menerapkan teknologinya. Inilah cara menjaga risiko legal dan kepatuhan AI.

Kecerdasan buatan (AI) berkembang di mana-mana dalam lingkup bisnis, karena perusahaan menerapkan teknologi untuk mendapatkan wawasan tentang pelanggan, pasar dan pesaing, dan untuk memudahkan proses di hampir semua aspek operasi.

Tapi AI menyajikan berbagai bahaya tersembunyi bagi perusahaan, terutama di bidang-bidang seperti kepatuhan terhadap peraturan, hukum, privasi dan etika. Ada sedikit keterlihatan tentang bagaimana teknologi pembelajaran AI dan mesin sampai pada kesimpulan mereka dalam memecahkan masalah atau mengatasi kebutuhan, membiarkan praktisi di berbagai industri terbang buta menjadi risiko bisnis yang signifikan.

Perhatian utama relevan bagi perusahaan di industri seperti layanan kesehatan dan keuangan, yang harus mematuhi sejumlah peraturan pemerintah dan industri.

"Konteks, etika, dan kualitas data adalah isu yang mempengaruhi nilai dan keandalan AI, terutama di industri yang sangat ketat," kata Dan Farris, ketua praktik teknologi di firma hukum Fox Rothschild, dan seorang mantan insinyur perangkat lunak yang fokus pada  Praktik hukum tentang teknologi, privasi, keamanan data, dan masalah infrastruktur. "Menyebarkan AI dalam industri yang sangat diatur dapat menciptakan masalah kepatuhan peraturan."

Resiko bisnis AI

Perusahaan teknologi keuangan banyak berinvestasi di AI, namun kerugian dan / atau tindakan administratif yang mungkin timbul berpotensi menjadi bencana bagi perusahaan jasa keuangan, Farris mengatakan. "Jika sebuah malfungsi algoritma, atau bahkan berfungsi dengan baik, namun dalam konteks yang salah, misalnya, ada risiko kerugian signifikan bagi perusahaan dagang atau investor," katanya.

Kesehatan juga memberikan contoh yang sangat menarik dimana segala sesuatunya bisa bermasalah dengan AI. "Teknologi pengenalan yang dapat membantu mengidentifikasi pola atau bahkan mendiagnosa kondisi dalam pencitraan medis, misalnya, adalah salah satu cara AI digunakan di industri perawatan kesehatan," kata Farris. "Sementara pemindaian gambar mungkin lebih akurat bila dilakukan oleh komputer versus mata manusia, ini juga cenderung menjadi tugas tersendiri."

Tidak seperti dokter, yang mungkin memiliki nilai informasi kontekstual lain tentang pasien, atau bahkan intuisi yang dikembangkan selama bertahun-tahun praktik, hasil dari program pembelajaran AI dan mesin dapat menjadi sempit dan tidak lengkap. "Ketergantungan pada hasil seperti itu tanpa manfaat penilaian medis sebenarnya dapat menyebabkan hasil pasien yang buruk," kata Farris.

Dan seperti manusia, mesin akan membuat kesalahan, "tapi bisa berbeda dengan jenis kesalahan buatan manusia seperti yang disebabkan oleh kelelahan, kemarahan, emosi, atau penglihatan terowongan," kata Vasant Dhar, profesor sistem informasi di New York University. dan ahli AI dan machine learning.

"Jadi, apa peran dan tanggung jawab manusia dan mesin di dunia AI yang baru, di mana mesin membuat keputusan dan belajar mandiri untuk menjadi lebih baik?" Kata Dhar. "Jika Anda melihat AI sebagai 'pabrik' di mana hasilnya [atau] keputusan dipelajari dan dibuat berdasarkan masukan, peran manusia adalah merancang pabrik sehingga menghasilkan tingkat biaya yang dapat diterima terkait dengan kesalahannya."

Ketika machine learning memperbaiki diri mereka sendiri, manusia bertanggung jawab untuk memastikan kualitas proses pembelajaran ini, kata Dhar. "Kita seharusnya tidak mempercayai mesin dengan keputusan saat biaya kesalahan terlalu tinggi," katanya.

Pertanyaan pertama untuk regulator, kata Dhar, apakah sistem AI mutakhir - terlepas dari domain aplikasi - mengakibatkan biaya kesalahan yang dapat diterima? Misalnya, regulator transportasi mungkin menentukan bahwa karena kendaraan otonom akan menghemat 20.000 jiwa per tahun, teknologinya bermanfaat bagi masyarakat. "Tapi untuk pasar asuransi yang akan muncul, kita mungkin perlu mempertimbangkan peraturan yang akan membatasi kerugian karena kesalahan," katanya.

Di arena perawatan kesehatan, tantangan peraturan akan bergantung pada penerapannya. Daerah tertentu seperti operasi katarak sudah dilakukan oleh mesin yang cenderung mengungguli manusia, kata Dhar, dan studi terbaru menemukan bahwa mesin juga dapat mengalahkan ahli radiologi dan ahli patologi.

"Tapi mesin masih akan melakukan kesalahan, dan biaya untuk ini perlu dipertanggungjawabkan dalam membuat keputusan untuk menyebarkan AI," kata Dhar. "Ini merupakan perhitungan nilai yang diharapkan, namun dengan tekanan pada 'kasus terburuk' dibandingkan dengan hasil kasus rata-rata."

Di masa depan, karena mesin menjadi lebih baik melalui akses ke data individual genomik dan mampu membuat keputusan sendiri, "Kita juga harus mempertimbangkan jenis kesalahan apa yang mereka buat dan konsekuensinya untuk merancang yang sesuai dengan peraturan, "kata Dhar.

Masalah hukum yang perlu dipertimbangkan

Selain pertimbangan peraturan, ada konsekuensi hukum untuk penggunaan AI.

"Masalah utamanya adalah siapa yang akan bertanggung jawab jika mesin mencapai kesimpulan yang ‘Salah' atau merekomendasikan tindakan yang terbukti berbahaya," kata Matt Scherer, seorang associate dengan firma ketenagakerjaan internasional dan firma ketenagakerjaan Littler Mendelson, di mana dia adalah anggota kelompok industri robotika, AI, dan otomasi.

Misalnya, dalam kasus masalah terkait perawatan kesehatan, apakah itu dokter atau pusat kesehatan yang menggunakan teknologi, atau perancang atau pemrogram aplikasi yang bertanggung jawab? "Bagaimana jika pasien secara khusus meminta agar sistem AI menentukan jalannya pengobatan?" Kata Scherer. "Bagi saya, ketakutan terbesar adalah manusia cenderung percaya bahwa mesin secara inheren lebih baik dalam membuat keputusan daripada manusia, dan secara membabi buta akan mempercayai keputusan sistem AI yang dirancang khusus untuk tujuan itu."

Seseorang di organisasi yang menggunakan AI perlu mengambil pertanggungjawaban, kata Duc Chu, perwira inovasi teknologi di firma hukum Holland & Hart "Isu pertama yang muncul dalam pikiran ketika kecerdasan buatan atau pembelajaran mesin mencapai kesimpulan dan membuat keputusan adalah bukti, otentikasi, pengesahan, dan tanggung jawab," katanya.

Di industri keuangan misalnya, jika sebuah organisasi menggunakan AI untuk membantu mengumpulkan informasi untuk laporan keuangan, manusia diharuskan untuk menandatangani dan membuktikan bahwa informasi yang disajikan akurat dan sesuai isinya, dan bahwa ada kontrol yang sesuai di tempat yang beroperasi secara efektif untuk memastikan informasi tersebut dapat diandalkan, kata Chu.

"Kami kemudian tahu siapa manusia yang membuat pernyataan itu dan bahwa mereka adalah orang yang berwenang untuk melakukannya," kata Chu. "Di arena perawatan kesehatan, penyedia layanan dapat menggunakan [AI] untuk menganalisis daftar gejala terhadap penyakit dan kecenderungan yang diketahui untuk membantu diagnosis dan untuk mengembangkan rencana perawatan. Dalam kedua kasus tersebut, manusia membuat keputusan akhir, menandatangani pada jawaban akhir, dan yang terpenting, bertanggung jawab atas konsekuensi kesalahan. "

Karena AI - dan khususnya jaringan syaraf tiruan - tidak dapat diprediksi "Ini menimbulkan tantangan yang signifikan terhadap [tort law] tradisional, karena sulit menghubungkan sebab dan akibat secara tradisional, karena banyak program AI tidak mengizinkan pihak ketiga untuk menentukan bagaimana kesimpulannya digunakan, "kata Mark Radcliffe, seorang partner di DLA Piper, sebuah firma hukum global yang mengkhususkan diri dalam membantu klien memahami dampak dari teknologi yang muncul dan mengganggu.

"Teori tort tradisional membutuhkan 'penyebab langsung' untuk pertanggungjawaban," kata Radcliffe. "Kelalaian ‘malpraktek’ tersebut menerapkan standar manusia yang masuk akal, yang sangat tidak jelas dalam konteks perancangan perangkat lunak. Masalah lainnya adalah apakah algoritma AI mengenalkan 'bias' ke dalam hasill berdasarkan pemrograman.

Praktik terbaik untuk AI yang aman

Organisasi dapat melakukan sejumlah hal untuk menjaga terhadap pemenuhan resiko dan hukum yang terkait dengan AI.

Salah satu persyaratan utama adalah memiliki pemahaman menyeluruh tentang bagaimana mesin membuat keputusan mereka. Itu berarti memahami bahwa legislatif, pengadilan, dan dewan juri cenderung mengerutkan kening pada penciptaan dan penerapan sistem yang keputusannya tidak dapat dipahami dengan benar bahkan oleh perancang mereka, Scherer mengatakan.

"Saya cenderung berpikir bahwa masalah kotak hitam dapat diatasi dengan memastikan bahwa sistem diuji secara ekstensif sebelum diterapkan, seperti yang kita lakukan dengan teknologi lain - seperti obat-obatan tertentu - yang tidak kita mengerti sepenuhnya," kata Scherer. "Saya pikir dalam praktek, dan dalam skala makro, itu akan menjadi proses trial and error. Kita akan tahu dari waktu ke waktu mana keputusan lebih baik diserahkan kepada manusia dan mana yang lebih baik dilakukan oleh komputer. "

Perusahaan perlu mempertimbangkan apakah mereka dapat merancang sebuah sistem untuk "melacak" penalaran pada tingkat yang akan memuaskan regulator dan ambang hukum, kata Radcliffe. "Regulator dapat mendorong transparansi tersebut melalui peraturan pertanggungjawaban dan pendekatan lainnya," katanya.

Perusahaan harus berpartisipasi dalam pembuatan peraturan dengan badan pengatur terkait yang sedang mengembangkan peraturan yang mengatur operasi mereka, untuk memastikan secara realistis. "Instansi pemerintah tidak bisa membuat peraturan praktis tanpa masukan dari dunia nyata," kata Radcliffe.

Keterlibatan juga harus mencakup partisipasi dalam organisasi industri dalam mengembangkan peraturan spesifik industri untuk AI. "Pemerintah akan bersikap reaktif dan mungkin membuat peraturan yang tidak praktis berdasarkan satu kejadian atau serangkaian kejadian," kata Radcliffe. "Perusahaan perlu bekerja sama dengan organisasi industri dan badan pengatur pemerintah untuk menghindari tanggapan spontan tersebut."

Organisasi juga harus berpengalaman dalam mengetahui kapan hal paling aman untuk mengandalkan kesimpulan AI vs pengambilan keputusan manusia ketika kewajiban merupakan faktor. "Kekhawatiran ini akan bervariasi menurut industri dan bahkan di dalam industri," kata Radcliffe.

Misalnya, penggunaan AI oleh internis untuk membantu diagnosis pasien adalah risiko yang jauh lebih rendah daripada penggunaan AI dalam mengoperasikan ahli bedah robotik, Radcliffe mengatakan. "Untuk kegiatan berisiko tinggi, seperti obat-obatan, yang juga memiliki peraturan peraturan hukum yang matang, perusahaan perlu bekerja sama dengan regulator untuk memperbarui peraturan agar diterapkan pada pendekatan baru ini."

Selain itu, perusahaan perlu mempertimbangkan bagaimana mengalokasikan kewajiban antara mereka dan pelanggan mereka dan mitra bisnis untuk penggunaan AI.

"Misalnya, jika sebuah perusahaan mengembangkan aplikasi AI untuk sebuah bank, para pihak akan mempertimbangkan siapa yang akan bertanggung jawab jika program AI menciptakan masalah peraturan, seperti 'redlining', atau membuat kesalahan [seperti salah perhitungan pembayaran], karena masalah tersebut tidak memiliki preseden dan para pihak dapat merancang alokasi tanggung jawab di antara mereka dalam kontrak, "kata Radcliffe.

AI membaik ketika berhubungan dengan jaringan syaraf tiruan, namun perusahaan yang ingin mengendalikan risiko peraturan dan hukum harus terus mengandalkan AI sebagai salah satu faktor di antara banyak proses pengambilan keputusan manusia, Farris mengatakan.

"AI adalah alat, yang dikendalikan manusia dan harus terus digunakan dengan cara yang bijaksana," kata Farris. "Perusahaan yang ingin berhasil menyebarkan AI harus terlebih dahulu berinvestasi di kumpulan data dan kualitas data. Mengevaluasi kualitas dan kebugaran data untuk aplikasi AI merupakan langkah awal yang penting. Menguraikan tugas dan keputusan yang matang untuk pembelajaran mesin, dan hal-hal yang terus membutuhkan masukan manusia, merupakan rintangan utama berikutnya. "

 

Sumber: cio.com







 

Comments
Write Comment