Terobosan Baru! OpenAI Siapkan Tim Khusus untuk Cegah Risiko AI yang Mengancam

Updated
December 20, 2023
Gambar Terobosan Baru! OpenAI Siapkan Tim Khusus untuk Cegah Risiko AI yang Mengancam

Dalam dunia yang semakin bergantung pada kecerdasan buatan AI" class="news-token" style="display:inline-block" href="/market/ai">(AI), OpenAI mengambil langkah besar dengan membentuk tim khusus. Tim ini bertugas untuk mengawasi dan mengevaluasi risiko yang mungkin timbul dari pengembangan AI tingkat tinggi. Langkah ini diambil untuk memastikan bahwa setiap teknologi yang dirilis aman bagi masyarakat.

Tim Siaga AI: Pengawal Keamanan Teknologi Masa Depan

Melalui sebuah postingan blog pada 18 Desember 2023, OpenAI mengumumkan pembentukan ā€œTim Siaga AIā€ yang akan berfungsi sebagai penghubung antara tim keamanan dan kebijakan. Tim ini akan meninjau laporan keamanan dan memberikan rekomendasi kepada eksekutif perusahaan serta dewan direksi.

model baru openai
Sumber: OpeanAI Blog

Baca juga: Sam Altman Ungkap Rencana Besar untuk Revolusi OpenAI!

Dengan sistem semacam sistem checks-and-balances, OpenAI berkomitmen untuk mencegah ā€œrisiko bencanaā€ yang mungkin ditimbulkan oleh model AI yang semakin canggih. Dewan direksi OpenAI kini memiliki wewenang untuk membatalkan keputusan yang berkaitan dengan keamanan AI.

Hal ini merupakan langkah baru yang memberikan dewan kekuatan untuk memastikan bahwa setiap pengembangan teknologi tidak akan membahayakan masyarakat. Keputusan ini diambil setelah serangkaian perubahan besar di OpenAI, termasuk pergantian CEO yang mengejutkan pada November lalu.

Kerangka Kerja Baru untuk AI yang Bertanggung Jawab

OpenAI tidak hanya membentuk tim baru, tetapi juga mengadopsi ā€œKerangka Kerja Kesiapanā€ yang baru. Kerangka kerja ini dirancang untuk melacak, mengevaluasi, meramalkan, dan melindungi dari risiko bencana yang mungkin ditimbulkan oleh model AI yang semakin kuat.

Tim ā€œSuperalignmentā€ juga akan mengawasi pengembangan model-model ā€œsuperintelligentā€, yang masih berada dalam ranah teori. Setiap model yang dikembangkan akan dinilai berdasarkan empat kategori risiko: keamanan siber, persuasi (kebohongan dan disinformasi), otonomi model (bertindak sendiri), dan CBRN (ancaman kimia, biologi, radiologi, dan nuklir). Jika risiko dianggap kritis, pengembangan akan dihentikan, sementara risiko tinggi akan mencegah penyebaran teknologi tersebut.

Baca juga: Melalui Converge 2, OpenAI Siapkan Dana Investasi Senilai $1 Juta untuk Startup AI!

Transparansi dan Akuntabilitas: Kunci Kepercayaan Publik

dalle 3 openai

OpenAI berjanji akan transparan dalam proses pengambilan keputusan terkait risiko AI. Jika terdapat masalah, pihak ketiga independen akan diajak untuk mengaudit teknologi dan memberikan umpan balik. Ini adalah bagian dari upaya OpenAI untuk membangun kepercayaan publik dan memastikan bahwa pengembangan AI berlangsung dengan tanggung jawab.

Meskipun OpenAI telah menetapkan kerangka kerja yang ketat, masih ada pertanyaan tentang seberapa efektif dewan direksi dalam menggunakan kekuatan vetonya. Transparansi dan akuntabilitas akan menjadi kunci untuk memastikan bahwa teknologi AI yang dikembangkan tidak hanya canggih, tetapi juga aman dan bertanggung jawab.

Pada akhirnya, langkah OpenAI dalam membentuk tim khusus dan memberikan kekuatan veto kepada dewan direksi menunjukkan keseriusan dalam menghadapi risiko AI. Ini merupakan langkah penting dalam perjalanan menuju pengembangan AI yang aman dan bertanggung jawab, yang pada akhirnya akan membawa manfaat bagi seluruh umat manusia.

Ikuti kami diĀ Google NewsĀ untuk mendapatkan berita-berita terbaru seputarĀ crypto. Nyalakan notifikasi agar tidak ketinggalan beritanya.


*Disclaimer

Konten ini bertujuan memperkaya informasi pembaca. Selalu lakukan riset mandiri dan gunakan uang dingin sebelum berinvestasi. Segala aktivitas jual beli dan investasi aset crypto menjadi tanggung jawab pembaca.

Referensi:

Bagikan

Berita Terbaru

Lihat Semua Berita ->