OpenAI formon një ekip për të studiuar rreziqet katastrofike që vinë nga inteligjenca artificiale

OpenAI liston disa prej hapësirave me rrezik të lartë si kërcënimet biologjike, radiologjike dhe nukleare që mund të vinë nga modelet AI.

OpenAI ditën e Enjte njoftoi formimin e një ekipi të ri që do të vlerësojë dhe konsiderojë rreziqet që vinë nga modelet AI përballë situatave që kompania i përshkruan si “rreziqe katastrofike.”

Ekipi, quajtur Gatishmëria, do të udhëhiqet nga Aleksander Madry, drejtor i Qendrës për Implementimin e Machine Learning pranë MIT. Përgjegjësitë e tij do të jenë gjurmimi, parashikimi dhe mbrojtja nga rreziqet që mund të sjellin në të ardhmen sistemet AI siç është aftësia e tyre për të mashtruar njerëzit tek potenciali për gjenerimin e maluerëve.

OpenAI liston disa prej hapësirave me rrezik të lartë si kërcnimet biologjike, radiologjike dhe nukleare që mund të vinë nga modelet AI.

CEO i OpenAI, Sam Atlman, është prej atyre që kanë shprehur shqetësim për rrezikun që inteligjenca artificiale sjell për njerëzimin. Madje ai ka thënë se mund të çojë në zhdukjen e njerëzimit.

Kompania tha se ekipi i Gatishmërisë do të ngarkohet me formulimin e një politike zhvillimi të informuar për rrezikun e cila do të udhëheqë qasjen e OpenAI në ndërtimin dhe vlerësimin e modeleve AI për zbutjen e rrezikut.