Mantan Kepala Ilmuwan OpenAI Bikin Gebrakan dengan Mendirikan Perusahaan AI Terbaru

HomeTECHNOLOGY

Mantan Kepala Ilmuwan OpenAI Bikin Gebrakan dengan Mendirikan Perusahaan AI Terbaru

XYZonemedia.com - Ilya Sutskever, salah satu pendiri dan mantan kepala ilmuwan di OpenAI, telah meluncurkan perusahaan kecerdasan buatan (AI) baru. Ya

UPKPBB Setu Babakan Latih Masyarakat Bikin Pantun Betawi untuk Merayakan HUT Jakarta ke-497
Hasil Euro 2024: Pemain Real Madrid Bikin Gol saat Turki Kalahkan Georgia dengan Skor 3-1
Snapchat Siapkan Fitur Revolusioner, Bikin Filter AR dengan Bantuan AI

XYZonemedia.com – Ilya Sutskever, salah satu pendiri dan mantan kepala ilmuwan di OpenAI, telah meluncurkan perusahaan kecerdasan buatan (AI) baru. Yakni yang diberi nama Safe Superintelligence Inc. (SSI).

Perusahaan ini secara eksklusif fokus pada menciptakan sistem AI yang aman dan kuat.

Pengumuman dilakukan pada Rabu, seperti yang dilaporkan oleh The Verge pada Kamis (20/6/2024), waktu setempat.

SSI dijelaskan sebagai startup yang memadukan pendekatan terhadap keamanan. Serta kapabilitas AI, memungkinkan mereka untuk mengembangkan sistem AI dengan cepat sambil memprioritaskan keamanan.

Sutskever menyoroti bahwa fokus tunggal perusahaan ini memungkinkan mereka untuk menghindari gangguan. Yaitu yang mungkin disebabkan oleh tekanan komersial jangka pendek atau siklus produk yang terlalu sering.

Ilya Sutskever mendirikan SSI bersama Daniel Gross, mantan pimpinan AI di Apple, dan Daniel Levy. Yakni yang sebelumnya berada di staf teknis OpenAI.

Langkah ini terjadi setelah Sutskever memimpin upaya internal untuk menggulingkan CEO OpenAI, Sam Altman, tahun lalu, dan meninggalkan OpenAI pada bulan Mei.

Kepergian Sutskever dari OpenAI juga diikuti oleh pengunduran diri beberapa peneliti lain yang mengutarakan keprihatinan terhadap prioritas keamanan di perusahaan tersebut.

Dalam wawancara dengan Bloomberg, Sutskever menjelaskan bahwa produk pertama yang akan dikembangkan oleh SSI adalah superintelligence yang aman.

SSI berkomitmen untuk tidak melakukan langkah apa pun hingga mereka yakin bisa menghasilkan AI superintelligent yang aman.

Langkah Sutskever dan pendirian SSI menandai upaya konkret untuk memprioritaskan keamanan dalam pengembangan AI, sebuah isu yang semakin memperoleh perhatian di kalangan peneliti dan industri teknologi mengingat potensi dampak besar yang dimiliki oleh kecerdasan buatan di masa depan.

COMMENTS

WORDPRESS: 0