WASHINGTON — Seorang psikiater anak mengubah foto hari pertama sekolah yang dilihatnya di Facebook untuk menunjukkan sekelompok gadis telanjang. Seorang tentara Angkatan Darat AS didakwa membuat gambar yang menggambarkan anak-anak yang dia tahu telah mengalami pelecehan seksual. Insinyur perangkat lunak yang bertanggung jawab menghasilkan pornografi anak yang nyata.
Badan-badan penegak hukum di seluruh Amerika Serikat sedang memerangi penyebaran gambar-gambar pelecehan seksual terhadap anak-anak yang meresahkan yang dibuat melalui teknologi kecerdasan buatan—mulai dari foto anak-anak asli yang dipotret hingga gambar grafis anak-anak yang dihasilkan komputer. Para pejabat Departemen Kehakiman mengatakan mereka secara agresif mengejar para penjahat yang mengeksploitasi alat-alat kecerdasan buatan, sementara negara-negara berlomba untuk memastikan bahwa mereka yang membuat “deepfake” dan gambar-gambar berbahaya lainnya tentang anak-anak dapat dituntut berdasarkan hukum.
“Kami harus memberi isyarat sejak dini dan sering bahwa ini adalah kejahatan,” Steven Grocki, kepala Bagian Eksploitasi Anak dan Kecabulan di Departemen Kehakiman, mengatakan kepada The Support, kami akan menyelidiki dan mengadili pada dasarnya salah. Hanya masalah waktu sebelum seseorang meminta pertanggungjawaban Anda.
Departemen Kehakiman mengatakan undang-undang federal yang ada jelas berlaku untuk konten semacam itu, dan baru-baru ini mereka mengajukan kasus federal pertama yang melibatkan gambar yang murni dihasilkan oleh kecerdasan buatan, yang berarti anak-anak yang digambarkan tidak nyata melainkan virtual. Dalam kasus terpisah, otoritas federal pada bulan Agustus menangkap seorang tentara AS yang ditempatkan di Alaska yang dituduh menyebarkan foto-foto polos anak-anak asli yang ia kenal melalui chatbot kecerdasan buatan, sehingga menjadikan gambar-gambar tersebut eksplisit secara seksual.
Mencoba mengejar ketertinggalan teknologi
Dakwaan ini muncul ketika para aktivis anak berupaya mengekang penyalahgunaan teknologi untuk mencegah membanjirnya gambar-gambar mengganggu yang dikhawatirkan para pejabat akan mempersulit penyelamatan korban sebenarnya. Aparat penegak hukum khawatir para penyelidik akan membuang-buang waktu dan sumber daya untuk mencoba mengidentifikasi dan melacak anak-anak yang dieksploitasi padahal sebenarnya tidak ada.
Sementara itu, anggota parlemen sedang meloloskan sejumlah undang-undang untuk memastikan bahwa jaksa setempat dapat menuntut “deepfake” yang dihasilkan oleh AI dan gambar pornografi anak lainnya berdasarkan undang-undang negara bagian. Para gubernur di lebih dari selusin negara bagian telah menandatangani undang-undang tahun ini untuk menindak gambar-gambar pelecehan seksual terhadap anak-anak yang dibuat atau diubah secara digital, menurut sebuah tinjauan oleh Pusat Nasional untuk Anak Hilang dan Tereksploitasi.
“Sebagai penegak hukum, kita berupaya mengejar ketinggalan dengan teknologi yang, sejujurnya, berkembang jauh lebih cepat dibandingkan saat ini,” kata Erik Nasarenko, Jaksa Wilayah Ventura County, California.
Nasarenko mendorong undang-undang yang ditandatangani oleh Gubernur Gavin Newsom bulan lalu yang secara eksplisit menjadikan materi pelecehan seksual terhadap anak-anak yang dihasilkan oleh kecerdasan buatan menjadi ilegal menurut hukum California. Nasarenko mengatakan kantornya tidak dapat menuntut delapan kasus yang melibatkan konten yang dihasilkan oleh kecerdasan buatan antara bulan Desember dan pertengahan September karena undang-undang California mengharuskan jaksa untuk membuktikan bahwa gambar tersebut benar-benar menggambarkan anak-anak.
Pejabat penegak hukum mengatakan gambar pelecehan seksual terhadap anak yang dihasilkan oleh kecerdasan buatan dapat digunakan untuk memikat anak-anak. Meskipun mereka tidak mengalami kekerasan fisik, anak-anak dapat terkena dampak yang sangat besar jika gambar menjadi eksplisit.
“Saya merasa ada bagian dari diri saya yang diambil. Meskipun saya tidak diserang secara fisik,” kata Kaylin Hayman, 17 tahun. Dia membintangi acara Disney Channel “Just Roll with It” dan membantu mendorong RUU California setelah menjadi korban gambar “deepfake”.
Hyman bersaksi dalam persidangan federal tahun lalu bahwa pria tersebut secara digital menempelkan wajahnya dan wajah aktor cilik lainnya ke tubuh yang melakukan tindakan seks. Dia dijatuhi hukuman lebih dari 14 tahun penjara pada bulan Mei.
Para ahli mengatakan model kecerdasan buatan sumber terbuka yang dapat diunduh pengguna di komputer mereka populer di kalangan penjahat, yang selanjutnya dapat melatih atau memodifikasi alat tersebut untuk menghasilkan gambaran eksplisit tentang anak-anak. Para pejabat mengatakan para pelaku kekerasan bertukar tip di komunitas darknet tentang cara memanipulasi alat kecerdasan buatan untuk membuat konten semacam itu.
Sebuah laporan tahun lalu oleh Stanford Web Observatory menemukan bahwa kumpulan data penelitian dari pembuat gambar kecerdasan buatan terkemuka seperti Stable Diffusion berisi tautan ke gambar anak-anak yang eksplisit secara seksual, sehingga memungkinkan beberapa alat untuk dengan mudah membuat gambar yang eksplisit secara seksual. . Kumpulan data tersebut telah dihapus, dan para peneliti kemudian mengatakan bahwa mereka menghapus lebih dari 2.000 tautan ke gambar-gambar yang diduga berisi pelecehan seksual terhadap anak-anak.
Perusahaan teknologi ternama termasuk Google, OpenAI, dan Stability AI telah setuju untuk bermitra dengan organisasi anti pelecehan seksual terhadap anak-anak, Thorn, untuk memerangi penyebaran gambar pelecehan seksual terhadap anak-anak.
Namun para ahli mengatakan bahwa sebelum teknologi ini tersedia secara luas, lebih banyak upaya harus dilakukan untuk mencegah penyalahgunaan. Jaksa Departemen Kehakiman mencatat dalam pengajuan pengadilan baru-baru ini bahwa langkah-langkah yang diambil perusahaan untuk mempersulit penyalahgunaan alat kecerdasan buatan versi masa depan “akan menjadi penting dalam mencegah” penjahat berjalan di komputer “tanpa terdeteksi.” tidak banyak berguna.
“Alih-alih meluangkan waktu untuk membuat produk aman, kami menghabiskan waktu untuk membuat produk lebih efisien, yang sulit dilakukan setelah kejadian tersebut – seperti yang telah kita lihat,” kata David Thiel, kepala teknologi di Stanford Internet Observatory. menjelaskan.
Gambar AI menjadi lebih realistis
CyberTipline Pusat Nasional untuk Anak Hilang dan Tereksploitasi menerima sekitar 4.700 laporan yang melibatkan teknologi kecerdasan buatan tahun lalu, hanya sebagian kecil dari lebih dari 36 juta laporan dugaan eksploitasi seksual terhadap anak. Yiota Souras, ketua juri organisasi tersebut, mengatakan bahwa hingga Oktober tahun ini, organisasi tersebut menyerahkan sekitar 450 laporan yang melibatkan konten kecerdasan buatan setiap bulannya.
Namun, para ahli mengatakan angka-angka ini mungkin terlalu rendah karena gambar-gambar tersebut sangat realistis sehingga seringkali sulit untuk mengetahui apakah gambar-gambar tersebut dihasilkan oleh kecerdasan buatan.
“Penyelidik menghabiskan waktu berjam-jam untuk mencoba menentukan apakah sebuah gambar benar-benar menggambarkan anak di bawah umur atau apakah itu dihasilkan oleh kecerdasan buatan,” kata Rikole Kelly, wakil jaksa Ventura County yang membantu menyusun rancangan undang-undang California masa lalu… Seiring dengan kemajuan teknologi AI, hal tersebut tidak lagi terjadi. “
Pejabat Departemen Kehakiman mengatakan mereka sudah memiliki alat berdasarkan undang-undang federal untuk melacak pelaku gambar-gambar tersebut.
Pada tahun 2002, Mahkamah Agung AS membatalkan larangan federal terhadap konten pelecehan seksual terhadap anak-anak secara virtual. Namun undang-undang federal yang ditandatangani pada tahun berikutnya melarang produksi penggambaran visual, termasuk lukisan, yang menampilkan perilaku seksual eksplisit oleh anak-anak yang dianggap “cabul”. Undang-undang tersebut, yang menurut Departemen Kehakiman pernah digunakan di masa lalu untuk mendakwa gambar kartun pelecehan seksual terhadap anak-anak, secara khusus menyatakan bahwa tidak ada persyaratan bahwa “anak di bawah umur yang digambarkan benar-benar ada.”
Departemen Kehakiman pada bulan Mei mendakwa seorang insinyur perangkat lunak Wisconsin yang dituduh menggunakan alat AI Stable Diffusion untuk membuat gambar realistis dari anak-anak yang terlibat dalam perilaku seksual eksplisit dan ditangkap setelah dia mengirimkan beberapa gambar langsung ke 15 tahun- anak tua. Pengacara pria tersebut mendorong agar dakwaan tersebut dibatalkan berdasarkan Amandemen Pertama namun menolak memberikan komentar lebih lanjut mengenai dakwaan tersebut melalui email ke The Associated Press.
Juru bicara Stability AI mengatakan pria tersebut dituduh menggunakan alat versi sebelumnya yang dirilis oleh perusahaan lain, Runway ML. Stability AI mengatakan bahwa sejak mengambil alih pengembangan eksklusif model tersebut, mereka telah “berinvestasi pada fitur-fitur proaktif untuk mencegah penyalahgunaan kecerdasan buatan untuk membuat konten berbahaya.” Juru bicara Runway ML tidak segera menanggapi permintaan komentar dari The Associated Press.
Dalam kasus-kasus yang melibatkan “deepfakes”, yaitu foto anak-anak asli diubah secara digital agar terlihat eksplisit secara seksual, Departemen Kehakiman akan mengajukan tuntutan berdasarkan undang-undang pornografi anak federal. Dalam satu kasus, seorang psikiater anak di Carolina Utara ditangkap tahun lalu karena menggunakan aplikasi kecerdasan buatan untuk mendigitalkan pakaian seorang gadis yang berpose pada hari pertama sekolah dalam foto berusia puluhan tahun yang dibagikan di Facebook dihukum.
“Undang-undang ini ada. Mereka akan digunakan. Kami punya kemauan. Kami punya sumber daya,” kata Grocchi. “Ini tidak akan menjadi prioritas rendah yang kita abaikan karena tidak ada anak-anak yang benar-benar terlibat di dalamnya.”