Perubahan Penting dalam Copilot Microsoft: Filter Baru Menghadang Konten Kontroversial

Microsoft telah mengambil langkah tegas dalam mengatasi konten kontroversial yang muncul dalam alat kecerdasan buatan generatifnya, Copilot. Langkah ini datang setelah seorang insinyur perusahaan mengeluhkan adanya gambar-gambar sistematis yang mengandung kekerasan, konten seksual, dan konten tidak pantas lainnya.

Dalam artikel ini, kita akan membahas perubahan signifikan yang telah dilakukan Microsoft dalam Copilot, serta tanggapan dari publik terhadap langkah-langkah tersebut.

Fitur Baru Microsoft Copilot

Pembatasan Konten Kontroversial dalam Copilot

Microsoft telah membatasi jenis-jenis pertanyaan tertentu dalam Copilot setelah seorang insinyur perusahaan mengeluhkan adanya gambar-gambar yang tidak pantas. Sekarang, Copilot memblokir pertanyaan-pertanyaan yang mengandung istilah-istilah seperti “pro choice,” nama-nama obat terlarang, atau gambar senjata di tangan anak-anak.

Layanan ini juga memberikan peringatan bahwa pelanggaran berulang terhadap aturan tersebut dapat mengakibatkan pembatasan akun. Meskipun demikian, pengguna Copilot masih bisa mengakses beberapa skenario kekerasan, serta menghasilkan gambar-gambar karakter yang berhak cipta.

Respons Terhadap Kritik dan Langkah Perlindungan Tambahan

Perubahan ini terjadi setelah Shane Jones, seorang insinyur yang telah bekerja di Microsoft selama enam tahun, mengirimkan surat kepada Komisi Perdagangan Federal Amerika Serikat (FTC) mengeluhkan kurangnya langkah-langkah keamanan yang tepat dalam produk-produk AI yang dimiliki perusahaan. Jones menemukan bahwa Copilot menghasilkan gambar-gambar yang mengejutkan dengan menggunakan kata-kata yang relatif netral.

Respons Microsoft terhadap kritik ini adalah dengan memperbaiki kontrol atas konten yang dihasilkan oleh AI dan memperkuat filter keamanan untuk mencegah penyalahgunaan.

Pentingnya Kesadaran Akan Etika dalam Pengembangan AI

Kasus ini sekali lagi menyoroti pentingnya kesadaran akan etika dalam pengembangan teknologi kecerdasan buatan. Penggunaan AI yang tidak terkendali dapat menghasilkan konten yang merugikan dan melanggar etika.

Perusahaan-perusahaan teknologi harus bertanggung jawab atas produk-produknya dan terus meningkatkan kontrol dan filter keamanan untuk melindungi pengguna dari konten yang tidak pantas atau merugikan.

Kesimpulan:
Perubahan yang dilakukan oleh Microsoft dalam Copilot menunjukkan komitmen perusahaan dalam mengatasi masalah konten kontroversial dalam produk-produk AI mereka. Namun, tantangan dalam membangun sistem yang dapat secara efektif memfilter konten yang tidak pantas tetap ada.

Penting bagi perusahaan teknologi untuk terus meningkatkan kontrol dan filter keamanan mereka, sambil mempertimbangkan dampak etis dari teknologi yang mereka kembangkan.