Înainte ca Sam Altman să fie, timp de patru zile, înlăturat de la șefia OpenAI, câțiva cercetători din companie au trimis board-ului de conducere o scrisoare despre o descoperire capitală în AI care ar putea fi un „pericol pentru umanitate”, scrie Reuters, citând două surse apropiate discuțiilor. Proiectul se numește Q*.

Open AIFoto: Peter Kováč | Dreamstime.com

Este vorba despre o descoperire în cadrul unui proiect derulat de OpenAI și numit Q*, pronunțat Q-Star. Această descoperire este, se pare, importantă în țelul OpenAI de a dezvolta o super-inteligență, ceea ce în termeni de specialitate se numește artificial general intelligence (AGI).

Știm că acest nou model a putut rezolva probleme complexe de matematică pe care modele anterioare – și foarte sofisticate – dezvoltate de OpenAI nu le-a putut rezolva, scrie Reuters. Cercetătorii care lucrau la Q*’ erau foarte optimiști, pornind de la descoperirile făcute, dar și fiindcă OpenAI are resurse mari de computing, dat fiind că a primit multe fonduri. Nu știm exact care este partea cu „pericolul pentru umanitate”, fiindcă nu se cunosc multe detalii despre proiect.

Sam Altman declarase că OpenAI vrea să ajungă să dezvolte o „superinteligență”. AGI (Inteligenta Artificială Generală), care se referă la un nivel de dezvoltare în domeniul inteligenței artificiale în care un sistem este capabil să desfășoare orice sarcină intelectuală pe care o poate…



Citește mai mult pe Hotnews.ro

Sursa https://www.hotnews.ro

Lasă un răspuns