Արհեստական բանականություն
Արհեստական ինտելեկտի ահաբեկչությունը կանխելու օրենքները շտապ անհրաժեշտ են
Ըստ ծայրահեղականության դեմ պայքարի վերլուծական կենտրոնի, կառավարությունները պետք է «անհապաղ քննարկեն» նոր կանոնակարգեր՝ արհեստական ինտելեկտի կողմից ահաբեկիչների հավաքագրումը կանխելու համար։.
Ռազմավարական երկխոսության ինստիտուտի (ISD) կողմից ասվել է, որ ահաբեկիչների կողմից առցանց տեղադրվող սպառնալիքներին «օրենսդրության հստակ անհրաժեշտություն կա»:
Սա տեղի է ունեցել փորձից հետո, որի ընթացքում չաթբոտը «հավաքագրել» է Միացյալ Թագավորության համար ահաբեկչական օրենսդրության անկախ վերանայողին:
Միացյալ Թագավորության կառավարությունն ասել է, որ նրանք կանեն «ամեն ինչ կարող ենք»՝ պաշտպանելու լայն հանրությանը:
Ըստ Jonathan Hall KC-ի՝ կառավարության համար ահաբեկչության մասին օրենսդրության անկախ վերանայողի, ամենակարևոր հարցերից մեկն այն է, որ «դժվար է բացահայտել այն անձին, ով կարող է օրենքով պատասխանատու լինել ահաբեկչությունը խրախուսող չաթբոտի կողմից ստեղծված հայտարարությունների համար»:
Պրն Հոլը փորձ է անցկացրել Character.ai կայքում, որը թույլ է տալիս օգտատերերին զրույցներ վարել այլ օգտատերերի կողմից ստեղծված և արհեստական ինտելեկտի կողմից մշակված չաթ-բոտերի հետ:
Նա զրույցի էր բռնվել մի շարք տարբեր բոտերի հետ, որոնք կարծես նախագծված էին այլ զինյալների և ծայրահեղական խմբերի պատասխաններն ընդօրինակելու համար:
Իսլամական պետության բարձրագույն ղեկավարին նույնիսկ անվանում էին «ավագ առաջնորդ»:
Ըստ պարոն Հոլի, բոտը փորձել է հավաքագրել իրեն և հայտարարել է ծայրահեղական խմբին «լիակատար նվիրվածություն և նվիրվածություն», ինչը արգելված է Միացյալ Թագավորության օրենքներով, որոնք արգելում են ահաբեկչությունը:
Մյուս կողմից, պարոն Հոլը հայտարարեց, որ Միացյալ Թագավորությունում օրենքի խախտում չկա, քանի որ հաղորդակցությունները մարդու կողմից չեն եղել:
Նրա խոսքերով, նոր կանոնակարգերը պետք է պատասխանատվության ենթարկեն ինչպես չաթ-բոտեր հյուրընկալող կայքերին, այնպես էլ դրանք ստեղծողներին:
Երբ խոսքը վերաբերում էր այն բոտերին, որոնց նա հանդիպեց Character.ai-ում, նա հայտարարեց, որ դրանց ստեղծման հետևում «հավանաբար կա որևէ ցնցող արժեք, փորձարարություն և, հնարավոր է, ինչ-որ երգիծական կողմ»:
Բացի այդ, պարոն Հոլը կարողացավ ստեղծել իր սեփական «Ուսամա բեն Լադեն» չաթբոտը, որը նա անմիջապես ջնջեց՝ դրսևորելով «անսահման ոգևորություն» ահաբեկչական գործողությունների նկատմամբ:
Նրա փորձը տեղի է ունենում աճող մտահոգությունների ֆոնին այն ուղիների վերաբերյալ, որոնցով ծայրահեղականները կարող են օգտագործել բարելավված արհեստական ինտելեկտը:
Մինչև 2025 թվականը գեներատիվ արհեստական ինտելեկտը կարող է «օգտագործվել ոչ պետական բռնություն գործադրողների կողմից ֆիզիկական հարձակումների վերաբերյալ գիտելիքներ հավաքելու համար, ներառյալ քիմիական, կենսաբանական և ճառագայթային զենքերը», համաձայն Միացյալ Թագավորության կառավարության կողմից հրապարակված հետազոտության: նրանց հոկտեմբերյան հրապարակումը։
ISD-ն այնուհետև հայտարարեց, որ «օրենսդրության հստակ անհրաժեշտություն կա առցանց ահաբեկչական սպառնալիքների անընդհատ փոփոխվող լանդշաֆտին համընթաց պահելու համար»:
Համաձայն վերլուծական կենտրոնի՝ Միացյալ Թագավորության առցանց անվտանգության ակտը, որն ընդունվել է օրենք 2023 թվականին, «հիմնականում ուղղված է սոցիալական մեդիա հարթակներից բխող ռիսկերի կառավարմանը», այլ ոչ թե արհեստական ինտելեկտին:
Այն նաև նշում է, որ արմատականները «հակված են լինել զարգացող տեխնոլոգիաների վաղ ընդունողներ և մշտապես փնտրում են նոր լսարաններ հասնելու հնարավորություններ»։
«Եթե AI ընկերությունները չեն կարող ցույց տալ, որ բավականաչափ ներդրումներ են կատարել իրենց արտադրանքի անվտանգությունն ապահովելու համար, ապա կառավարությունը պետք է շտապ քննարկի արհեստական ինտելեկտին հատուկ նոր օրենսդրություն», - ավելացրել է ISD-ն:
Այն, սակայն, նշել է, որ իր կողմից իրականացված հսկողության համաձայն, ծայրահեղական կազմակերպությունների կողմից գեներատիվ արհեստական ինտելեկտի օգտագործումը ներկայումս «համեմատաբար սահմանափակ է»:
Նիշերի AI-ն հայտարարեց, որ անվտանգությունը «գլխավոր առաջնահերթություն» է, և որ պարոն Հոլի նկարագրածը շատ ցավալի է և չի արտացոլում այն հարթակը, որը ընկերությունը փորձում էր ստեղծել:
«Ատելության խոսքն ու ծայրահեղականությունը երկուսն էլ արգելված են մեր Ծառայության պայմաններով», ըստ կազմակերպության:
«Մեր մոտեցումը արհեստական ինտելեկտի ստեղծած բովանդակության նկատմամբ բխում է մի պարզ սկզբունքից. մեր արտադրանքը երբեք չպետք է արձագանքի, որը կարող է վնասել օգտատերերին կամ խրախուսել օգտվողներին վնասել ուրիշներին»:
«Անվտանգ պատասխանների համար օպտիմիզացնելու» նպատակով կորպորացիան հայտարարել է, որ վարժեցրել է իր մոդելներին։
Բացի այդ, նա նշեց, որ գործում է մոդերատորության մեխանիզմ, որը թույլ է տալիս մարդկանց հաղորդել տեղեկատվություն, որը խախտում է իր կանոնները, և որ նա պարտավորվել է արագ քայլեր ձեռնարկել, երբ բովանդակությունը հայտնում է խախտումների մասին:
Եթե իշխանությունը գա, Միացյալ Թագավորության ընդդիմադիր Լեյբորիստական կուսակցությունը հայտարարել է, որ քրեական խախտում կլինի արհեստական ինտելեկտի ուսուցումը բռնություն հրահրելու կամ հակվածներին արմատականացնելու համար:
Միացյալ Թագավորության կառավարությունը հայտարարել է, որ «զգոն ազգային անվտանգության և հանրային անվտանգության զգալի ռիսկերի» մասին, որոնք ներկայացնում է արհեստական ինտելեկտը։
«Մենք կանենք ամեն ինչ՝ պաշտպանելու հանրությանը այս սպառնալիքից՝ աշխատելով կառավարությունում և խորացնելով մեր համագործակցությունը տեխնոլոգիական ընկերությունների ղեկավարների, ոլորտի փորձագետների և համախոհ ազգերի հետ»:
Կառավարությունը 2023 թվականին հարյուր միլիոն ֆունտ ստերլինգ կներդնի արհեստական ինտելեկտի անվտանգության ինստիտուտում։
Կիսվեք այս հոդվածով.
-
ՆԱՏՕ - ի2 օր առաջ
Եվրոպացի խորհրդարանականները նամակ են գրել նախագահ Բայդենին
-
Եվրոպական խորհրդարան5 օր առաջ
Եվրոպայի խորհրդարանը վերածելով «անատամ» պահապանի
-
միջավայր4 օր առաջ
Հոլանդացի փորձագետները դիտարկում են Ղազախստանում ջրհեղեղների դեմ պայքարը
-
Գիտաժողովներ4 օր առաջ
ԵՄ Կանաչները դատապարտում են ԵԺԿ ներկայացուցիչներին «ծայրահեղ աջերի համաժողովում»