11:59 | 20.06.24 | Նորություններ | 1360

OpenAI-ի նախկին գլխավոր գիտնականը նոր AI ընկերություն է հիմնել

OpenAI-ի համահիմնադիրներից Իլյա Սուցկվերը OpenAI-ից պաշտոնապես հեռանալուց ընդամենը մեկ ամիս անց հիմնել է նոր ընկերություն՝ Safe Superintelligence (SSI) անունով:

Սուցկվերը OpenAI-ի երկարամյա գլխավոր գիտնականն էր։ Նա հիմնադրել է SSI-ն Y Combinator-ի նախկին գործընկեր Դենիել Գրոսի եւ OpenAI-ի նախկին ինժեներ Դանիել Լեւիի հետ:

OpenAI-ում Սուցկվերը ջանք էր գործադրում բարելավելու AI-ի անվտանգությունը՝ պայմանավորված «գերխելացի» AI համակարգերի աճով։ Նա այս հարցով աշխատել է Յան Լեյկեի հետ, ով ղեկավարում էր OpenAI-ի Superalignment թիմը: Եւ՛ Սուցկվերը, եւ՛ Լեյկեն լքել են OpenAI-ը ղեկավարության հետ կտրուկ վիճաբանությունից հետո AI անվտանգության շուրջ: Լեյկեն այժմ ղեկավար պաշտոն է զբաղեցնում մրցակից Anthropic-ում:

Սուցկվերը երկար ժամանակ է, ինչ լույս է սփռում արհեստական բանականության անվտանգության առավել փշոտ ասպեկտների վրա: 2023 թվականին հրապարակված բլոգային գրառման մեջ նա կանխատեսել է, որ մարդկանցից ավելի բարձր ինտելեկտով AI-ը կարող է հայտնվել առաջիկա տասնամյակի ընթացքում, ինչը վտանգներ է պարունակում եւ պահանջել է վերահսկելու եւ սահմանափակելու ուղիներ գտնել։


«Safe Superintelligence-ը (Անվտանգ սուպերինտելեկտը) մեր առաքելությունն է, մեր անունն ու մեր ամբողջ արտադրանքի ճանապարհային քարտեզը, քանի որ դա մեր ուշադրության կենտրոնում է լինելու: Մեր թիմը, ներդրողները եւ բիզնես մոդելը բոլորը համահունչ են SSI-ին հասնելու համար: Մենք անվտանգությանն ու հնարավորություններին զուգահեռաբար մոտենում ենք՝ հեղափոխական ինժեներական եւ գիտական տեխնիկական խնդիրներ լուծելու նպատակով»,- ասվում է Սուցկվերի նոր ընկերության ստեղծման մասին հայտարարող թվիթում: