Agar AI menjadi efektif, itu harus dipercaya dan bermakna – Bayangkan Kembali Masa Depan dengan Percaya Diri
Reimagine the Future with Confidence

Agar AI menjadi efektif, itu harus dipercaya dan bermakna – Bayangkan Kembali Masa Depan dengan Percaya Diri

Terlepas dari semua kegembiraan tentang kecerdasan buatan (AI), ia memiliki kesuksesan yang beragam dalam bisnis dan pemerintahan – sedemikian rupa sehingga Gartner sebelumnya memperkirakan hanya 20 persen proyek yang akan memberikan hasil bisnis hingga tahun 2022.

Namun, organisasi Australia terus memanfaatkan AI sebagai tanggapan atas meningkatnya ekspektasi konsumen dan untuk membantu memungkinkan proyek digital yang lebih cepat dan lebih besar.

Bagaimana mereka bisa menggunakan AI dengan lebih sukses?

Banyak yang telah dikatakan tentang pentingnya mendapatkan kepercayaan pengguna dalam sistem AI. Ini adalah salah satu aspek dari cerita yang lebih luas, menurut Jon Stone, Mitra dengan praktik Delta Digital KPMG di Australia.

Dia berpendapat organisasi sering lebih fokus pada aspek teknis AI, daripada mengembangkan AI dengan cara yang tepercaya dan bermakna. Dia mengatakan proses pengembangan AI harus dimulai dengan organisasi yang mengidentifikasi nilai yang mereka inginkan dari AI. Mereka juga harus mempertimbangkan faktor manusia dan penggunaan AI saat mulai merancang algoritme, kata Stone. Ini bukan topik yang biasanya dia dengar di diskusikan oleh organisasi ketika mereka pertama kali melihat penggunaan AI.

“Hal pertama yang sering kita lihat organisasi katakan ketika memulai perjalanan ini adalah, ‘kita membutuhkan strategi AI’, atau ‘kita perlu menunjuk seseorang untuk bertanggung jawab atas AI’, seolah-olah AI adalah hasil itu sendiri,” Stone mengatakan.

“Tapi tidak. AI hanya menciptakan nilai saat digunakan – untuk mengubah keputusan, meningkatkan proses, mengambil tindakan, atau membentuk pengalaman. Anda seharusnya bertanya ‘bagaimana kami merancang proses, kebijakan, dan kemampuan yang kami perlukan untuk menggunakan keluaran algoritme dengan cara yang bermakna, tepercaya, dan efektif?’.”

Landasan kepercayaan

Sebuah survei tahun 2020 oleh KPMG menemukan bahwa 45 persen responden Australia mengatakan mereka tidak akan bersedia membagikan data mereka dengan sistem AI. Dan 40 persen mengatakan mereka tidak akan mempercayai output dari sistem AI.

Alasan untuk ini mungkin lebih bernuansa daripada yang diperkirakan beberapa orang.

Kami belajar lebih banyak tentang mereka ketika University of Queensland menerbitkan makalah tentang tantangan kepercayaan AI pada Januari 2021. Ini menunjukkan berbagai masalah, mulai dari transparansi, akurasi, dan keandalan, hingga apakah membuat AI terlalu mirip manusia dapat membuat orang menjadi berlebihan. memperkirakan kemampuannya, serta risiko dan manfaat dari berbagai tingkat otomatisasi AI.

Pemahaman tentang masalah ini berkembang.

Misalnya, cara agen AI bertindak dapat memengaruhi kepercayaan. Makalah University of Queensland menyebutkan sebuah studi yang menemukan peserta lebih bersedia untuk berbagi data pribadi dengan agen AI dan lebih yakin bahwa agen akan menghormati privasi mereka ketika dapat bergerak “secara alami” dan berbicara, dibandingkan dengan agen statis yang dapat berbicara.

Sebuah studi juga menemukan bahwa investor keuangan lebih mempercayai penasihat buatan yang sepenuhnya otomatis daripada penasihat manusia. Penelitian lain menunjukkan bahwa ketergantungan yang berlebihan pada sistem AI cenderung dialami oleh pemula.

Teori telah berkembang tentang tingkat transparansi yang diperlukan.

“Untuk aplikasi tertentu di mana risikonya rendah, penjelasannya mungkin tidak terlalu sulit,” kata Nicole Gillespie, profesor manajemen dan pemimpin tim University of Queensland yang bertanggung jawab atas makalah kepercayaan AI.

“Tetapi ketika AI digunakan untuk membuat keputusan yang memiliki konsekuensi, ada kewajiban moral untuk memahami hal ini sebelum menempatkan mereka dalam situasi di mana jika mereka salah, itu akan merugikan pemangku kepentingan,” katanya.

Tim Gillespie telah memeriksa bagaimana organisasi dapat menangani masalah ini.

“Kami telah memetakan apa yang perlu terjadi, tetapi lebih mudah untuk memetakannya daripada melakukannya dalam praktik,” kata Gillespie. “Anda perlu memastikan bahwa semua ini terjadi secara terintegrasi dalam organisasi, dan bahwa orang yang tepat dilibatkan.”

Ini mungkin memerlukan tim lintas fungsi, dewan etika AI, dan struktur serta peran baru untuk memastikan berbagai risiko dan kerentanan dipahami, menurut Gillespie.

Dia melihat langkah-langkah ini memberi organisasi keunggulan kompetitif dan membantu mereka menghindari “kegagalan kepercayaan”.

Toleransi rendah untuk ambiguitas

Organisasi perawatan kesehatan di seluruh dunia termasuk di antara mereka yang bergulat dengan masalah ini.

“Anda tidak bisa hanya mengatur perangkat lunak di depan seseorang dan mengatakan ‘percayalah’,” Christina Silcox, seorang rekan kebijakan untuk kesehatan digital dengan Duke-Margolis Center for Health Policy, mencatat selama sesi panel CES 2021, “terutama jika hasilnya mungkin untuk membuat keputusan berdasarkan informasi yang akan menjadi penting bagi pasien.”

“Pasien bergantung pada tenaga kesehatan untuk memastikan bahwa alat ini memenuhi kebutuhan mereka, dan itu bermuara pada masalah transparansi,” Jesse Ehrenfeld, ketua dewan pengawas American Medical Association, setuju.

“Memahami bagaimana teknologi ini dikembangkan, pasien dan populasi apa yang kami tahu mereka bekerja, dan di mana mereka mungkin tidak bekerja atau belum terbukti bekerja, adalah akar dari itu. Ini menjadi kabur dengan sangat cepat ketika Anda berbicara tentang AI.”

Isu-isu ini hampir tidak unik untuk perawatan kesehatan: organisasi di setiap sektor menghadapi tantangan yang terkait dengan kepercayaan pada teknologi dan kepercayaan pelanggan.

Memecahkannya sangat penting untuk penerimaan AI jangka panjang dan untuk membuka nilainya, kata Pat Baird, spesialis regulasi senior Philips.

Dia berpendapat bahwa sebagian besar perusahaan memiliki alat untuk melakukan ini – ini termasuk proses untuk hal-hal seperti jaminan kualitas, audit terhadap peraturan internasional, mengelola masalah privasi data, dan aktivitas manajemen risiko lainnya.

“Kami hanya belum memikirkan cara menyesuaikannya untuk AI,” katanya.

Menemukan makna

Stone percaya bahwa AI yang bermakna paling baik dicapai dengan ‘pendekatan berbasis konsumsi’ – pertama-tama mengidentifikasi masalah bisnis, lalu mempertimbangkan “apakah ini proses atau aktivitas yang lebih cocok untuk AI atau ML daripada manusia, bukan hanya membangun beberapa algoritma berharap mereka mungkin relevan atau berguna.

“Pendekatan kami adalah memulai dengan hasil dan nilai dan bekerja kembali ke algoritme dan data,” katanya. “Anda perlu menanamkan hasil AI, ML, atau analitik ke dalam proses Anda, karena di situlah nilai diciptakan – jadi penting untuk merancang bagaimana Anda akan melakukannya.”

Pendekatan ini dapat memberikan lebih banyak konteks untuk penggunaan AI, memungkinkan keputusan mikro tentang bagaimana AI digunakan. Misalnya, pemilik kartu kredit mungkin dengan senang hati menerima pemberitahuan otomatis tentang transaksi mencurigakan kapan saja sepanjang hari. Tapi mereka bisa jauh lebih pemilih tentang seberapa sering dan pada jam berapa mereka bersedia menerima pesan pemasaran otomatis.

Upaya untuk merancang sistem AI untuk mempertimbangkan lebih banyak faktor kontekstual semakin meningkat, kata Stone. “Tetapi jika Anda memulai dengan algoritme, daripada penggunaannya, risikonya adalah mereka menjadi tidak selaras, dan kurang efektif,” katanya.

Perusahaan juga dapat memperoleh tingkat kontrol dengan memilih untuk menerapkan AI untuk aplikasi terpisah dengan cakupan yang lebih sempit – seperti dalam rekonsiliasi bank atau proses pengeluaran.

Penting juga untuk menetapkan harapan pelanggan tentang AI, terutama untuk aplikasi yang lebih luas di mana lebih banyak pembelajaran AI akan diperlukan.

“Kita perlu mendidik orang untuk memahami bahwa, ketika kita menggunakan AI, itu akan membuat kesalahan. Dan faktanya, itulah cara itu menjadi lebih baik. AI harus belajar, itu harus diajarkan. Dan saya pikir itu tidak dipahami dengan baik.

Merancang cara untuk memungkinkan pembelajaran yang aman, dalam batas-batas hukum dan peraturan, adalah sebuah tantangan – daripada mencoba membuat semua algoritme AI atau bot atau teknologi baru ini menjadi sempurna sejak hari pertama, ”kata Stone.

Langkah kecil ke arah ini mungkin merancang chatbots untuk memberi tahu pengguna bahwa mereka sedang belajar dan untuk “bersabarlah dengan saya”. “Itu hanya hal kecil, tapi saya pikir itu adalah pola pikir yang harus kita serap di area lain – bahwa hal-hal ini tidak akan sempurna sejak hari pertama,” kata Stone.

“Pada akhirnya, ketika orang mulai merasakan hasil dari AI menambah nilai hidup mereka, secara konsisten dan berulang kali , itu membangun kepercayaan dan menjadi lebih bermakna,” katanya.

Posted By : data hk hari ini 2021