Օքսֆորդի համալսարանի հետազոտողները կարծում են, որ առաջադեմ արհեստական բանականությունը կարող է վերահսկել սեփական ծրագրավորումը, եթե սովորի հասնել իր նպատակներին ոչ այնպես, ինչպես ի սկզբանե նախատեսված էր:
Դոկտոր Մայքլ Կոհենի խոսքով, դժվար կլինի դադարեցնել գործընթացը, երբ ջինը բաց թողնվի շշից։
«Եթե ես լինեի արհեստական բանականություն, որը փորձում է ինչ-որ նենգ ծրագիր իրականացնել, ես կպատճենեի իմ կոդը որևէ այլ մեքենայի վրա, որի մասին ոչ ոք ոչինչ չգիտի։ Այդ դեպքում դժվար կլիներ խրոցը վարդակից հանել»:
Փորձագետները զգուշացրել են, որ ԱԲ-ի զարգացումը վերածվել է «սպառազինությունների բառացի մրցավազքի», երբ երկրներն ու տեխնոլոգիական ընկերությունները մրցում են մեքենայական ուսուցման վտանգավոր առաջադեմ ալգորիթմներ ստեղծելու համար՝ ռազմական և քաղաքացիական առավելությունների հասնելու համար:
Նրանք կոչ են արել գլոբալ կանոնակարգում իրականացնել, որպեսզի թույլ չտան ընկերություններին ստեղծել անվերահսկելի համակարգեր, որոնք կարող են նախ վերացնել մրցակցությունը, բայց, ի վերջո, «ոչնչացնել ողջ մարդկային ցեղը» և զգուշացրել են, որ ԱԲ-ի զարգացումը սահման չունի:
Մասնագետներն, այնուամենայնիվ, հույս ունեն, որ աշխարհի երկրները կճանաչեն առաջադեմ արհեստական բանականության «էկզիստենցիալ սպառնալիքը» և կմիավորվեն, որպեսզի կանխեն վտանգավոր համակարգերի զարգացումը: «Եթե մենք կարողանայինք հասկանալ, որ առաջադեմ արհեստական բանականությունը նույնքան վտանգավոր է, որքան միջուկային զենքը, ապա գուցե կարողանայինք նաև նման հիմքեր ստեղծել այն կառավարելու համար»:
Ըստ փորձագետների՝ ողջամիտ է ակնկալել, որ ԱԲ-ն մինչև դարավերջ կարող է անել ավելին, քան ցանկացած մարդ, և կոչ են արել արգելել վտանգավոր ալգորիթմները:
Աղբյուրը՝ The Telegraph