Polisi Federal Australia membatasi uji coba perangkat lunak gratis setelah Clearview AI – Keamanan – Perangkat Lunak
Technology

Polisi Federal Australia membatasi uji coba perangkat lunak gratis setelah Clearview AI – Keamanan – Perangkat Lunak

Uji coba yang dilakukan oleh Polisi Federal Australia atas basis data pengenalan wajah yang kontroversial Clearview AI secara efektif ‘membayangi IT’, secara resmi tidak disetujui dan dilakukan tanpa penilaian privasi formal.

Investigasi oleh Kantor Komisioner Informasi Australia [pdf] menemukan 10 “anggota” Australian Centre to Counter Child Exploitation (ACCCE) terdaftar untuk akun percobaan setelah mengetahui keberadaan alat dari otoritas lain.

Mereka kemudian mengunggah berbagai gambar – beberapa tersedia untuk umum, beberapa “berasal dari gambar yang didistribusikan menggunakan pasar bawah tanah”, dan beberapa anggota ACCCE – ke Clearview AI.

Tidak ada catatan akses ke Clearview AI, atau “banyak” file yang diunggah ke layanan, yang disimpan.

OAIC mengatakan bahwa “di luar komando operasional ACCCE, tidak ada visibilitas uji coba terbatas ini” dari alat tersebut.

Itu menyebabkan juru bicara media untuk AFP pada awalnya menyangkal alat itu digunakan, hanya untuk itu kemudian ditandai secara internal sebagai tidak benar.

Bahkan di dalam ACCCE, tampaknya tidak semua orang mengetahui persidangan; mengikuti laporan media, OAIC mencatat bahwa “koordinator operasi ACCCE mengirim email yang meminta informasi tentang penggunaan alat pengenalan wajah oleh ACCCE”.

Email tersebut mencari “rincian siapa yang telah menyetujui penggunaan perangkat lunak, dan proses validasi apa yang diikuti untuk memastikan keamanan informasi,” kata OAIC.

“Email tersebut menyatakan: ‘Untuk kejelasan tidak boleh ada perangkat lunak yang digunakan tanpa izin yang sesuai untuk digunakan’.”

AFP mengatakan sejak itu telah memperketat tata kelola seputar “penggunaan uji coba gratis di lingkungan online” dan “menunjuk posisi khusus dalam ACCCE, yang bertanggung jawab untuk melakukan evaluasi perangkat lunak dari jenis aplikasi serupa di masa depan.”

Pasukan tersebut mengatakan anggota ACCCE juga telah mempertimbangkan dampak privasi dari penggunaan Clearview AI “melalui mekanisme penilaian risiko lainnya” alih-alih penilaian dampak privasi (PIA).

“Para peserta uji coba menganggap bahwa risiko dapat dikelola dalam konteks ‘percobaan terbatas’, dan tidak sebanding dengan kebutuhan untuk berbagi intelijen dan informasi untuk mengidentifikasi pelanggar terbaik dan menjauhkan anak-anak dari bahaya, dan untuk menanggapi hal-hal seperti itu secara tepat waktu. cara,” kata OAIC dalam laporannya.

OAIC tidak menerima argumen ini, bagaimanapun, dan mengatakan bahwa PIA seharusnya dilakukan.

Selain itu, Komisioner Informasi dan Privasi Australia Angelene Falk juga mengatakan dia “tidak puas” bahwa langkah-langkah yang diambil AFP sejak persidangan akan mencegah terulangnya kembali.

Akibatnya, dia mengatakan AFP akan menjadi sasaran tinjauan independen atas perubahan yang telah dibuat.

Clearview AI ditemukan bulan lalu telah melanggar aturan privasi Australia dalam cara layanan dioperasikan.

Posted By : pengeluaran hk hari ini 2021