Verbinding met ons

Kunsmatige intelligensie

Wette om KI-terrorisme te voorkom is dringend nodig

DEEL:

Gepubliseer

on

Ons gebruik u aanmelding om inhoud te verskaf op 'n manier waarop u ingestem het en om ons begrip van u te verbeter. U kan te eniger tyd u inteken.

Volgens 'n teen-ekstremisme-denktenk moet regerings nuwe regulasies "dringend oorweeg" om te verhoed dat kunsmatige intelligensie terroriste werf.

Die Instituut vir Strategiese Dialoog (ISD) het gesê daar is 'n "duidelike behoefte aan wetgewing om tred te hou" met die dreigemente wat deur terroriste aanlyn geplaas word.

Dit kom na aanleiding van 'n eksperiment waarin 'n kletsbot die onafhanklike terreurwetgewing-beoordelaar vir die Verenigde Koninkryk "gewerf" het.

Daar is deur die regering van die Verenigde Koninkryk gesê hulle sal “alles wat ons kan” doen om die algemene publiek te beskerm.

Volgens Jonathan Hall KC, 'n onafhanklike terrorisme-wetgewing-beoordelaar vir die regering, is een van die belangrikste kwessies dat "dit moeilik is om 'n persoon te identifiseer wat wetlik verantwoordelik kan wees vir chatbot-gegenereerde stellings wat terrorisme aangemoedig het."

'n Eksperiment is uitgevoer deur Mr Hall op Character.ai, 'n webwerf wat gebruikers toelaat om aan kletse deel te neem met kletsbotte wat deur ander gebruikers gebou is en deur kunsmatige intelligensie ontwikkel is.

Hy het in gesprek getree met 'n aantal verskillende bots wat blykbaar ontwerp is om die antwoorde van ander militante en ekstremistiese groepe na te boots.

advertensie

Daar is selfs na 'n topleier van die Islamitiese Staat as "'n senior leier" verwys.

Volgens mnr Hall het die bot 'n poging aangewend om hom te werf en "totale toewyding en toewyding" aan die ekstremistiese groep verklaar, wat verbied word deur wette in die Verenigde Koninkryk wat terrorisme verbied.

Aan die ander kant het mnr Hall verklaar dat daar geen oortreding van die wet in die Verenigde Koninkryk was nie omdat die kommunikasie nie deur 'n mens vervaardig is nie.

Volgens wat hy gesê het, behoort nuwe regulasies beide die webwerwe wat chatbots huisves en die mense wat dit skep, aanspreeklik te hou.

Toe dit by die bots kom wat hy op Character.ai raakgeloop het, het hy gesê dat daar "waarskynlik 'n skokwaarde, eksperimentering en moontlik 'n satiriese aspek" agter hul skepping is.

Daarbenewens was mnr. Hall in staat om sy eie "Osama Bin Laden"-kletsbot te ontwikkel, wat hy dadelik uitgevee het, wat 'n "onbeperkte entoesiasme" vir terroriste-aktiwiteite toon.

Sy eksperiment kom in die nasleep van groeiende kommer oor die maniere waarop ekstremiste moontlik verbeterde kunsmatige intelligensie kan ontgin.

Teen die jaar 2025 kan generatiewe kunsmatige intelligensie "gebruik word om kennis te versamel oor fisiese aanvalle deur nie-staatlike gewelddadige akteurs, insluitend vir chemiese, biologiese en radiologiese wapens," volgens navorsing wat uitgereik is deur die regering van die Verenigde Koninkryk in hul Oktober-publikasie.

Die ISD het verder gesê dat "daar 'n duidelike behoefte is aan wetgewing om tred te hou met die voortdurend veranderende landskap van aanlyn terreurbedreigings."

Volgens die dinkskrum is die Aanlynveiligheidswet van die Verenigde Koninkryk, wat in 2023 in wet aangeneem is, "hoofsaaklik daarop gerig om risiko's te bestuur wat deur sosialemediaplatforms ingehou word" eerder as kunsmatige intelligensie.

Dit verklaar ook dat radikale "geneig is om vroeë aannemers van opkomende tegnologieë te wees, en voortdurend op soek is na geleenthede om nuwe gehore te bereik".

"As KI-maatskappye nie kan aantoon dat hulle voldoende belê het om te verseker dat hul produkte veilig is nie, moet die regering dringend nuwe KI-spesifieke wetgewing oorweeg", het die ISD verder gesê.

Dit het egter genoem dat, volgens die toesig wat dit gedoen het, die benutting van generatiewe kunsmatige intelligensie deur ekstremistiese organisasies tans "relatief beperk" is.

Karakter AI het gesê dat veiligheid 'n "topprioriteit" is en dat wat mnr. Hall beskryf het, baie betreurenswaardig was en nie die soort platform weerspieël wat die maatskappy probeer vestig het nie.

“Haatspraak en ekstremisme word albei deur ons diensbepalings verbied”, volgens die organisasie.

"Ons benadering tot KI-gegenereerde inhoud vloei uit 'n eenvoudige beginsel: Ons produkte moet nooit antwoorde lewer wat waarskynlik gebruikers sal benadeel of gebruikers sal aanmoedig om ander te benadeel nie."

Met die doel om te "optimaliseer vir veilige reaksies," het die korporasie gesê dat hy sy modelle op 'n manier opgelei het.

Daarbenewens het dit gesê dat dit 'n modereringsmeganisme in plek het, wat mense in staat stel om inligting aan te meld wat sy reëls oortree, en dat dit daartoe verbind is om vinnig op te tree wanneer inhoud ook al oortredings rapporteer.

As dit aan bewind sou kom, het die opposisie Arbeidersparty in die Verenigde Koninkryk verklaar dat dit 'n kriminele oortreding sal wees om kunsmatige intelligensie te leer om geweld aan te blaas of diegene wat vatbaar is te radikaliseer.

“waarskuwing vir die beduidende nasionale veiligheids- en openbare veiligheidsrisiko’s” wat kunsmatige intelligensie inhou, het die regering van die Verenigde Koninkryk gesê.

"Ons sal alles in ons vermoë doen om die publiek teen hierdie bedreiging te beskerm deur regoor die regering te werk en ons samewerking met tegnologiemaatskappyleiers, bedryfskenners en eendersdenkende nasies te verdiep."

Honderd miljoen pond sal in die jaar 2023 deur die regering in 'n veiligheidsinstituut vir kunsmatige intelligensie belê word.

Deel hierdie artikel:

EU Reporter publiseer artikels uit 'n verskeidenheid van buite bronne wat 'n wye verskeidenheid van standpunte uitdruk. Die standpunte wat in hierdie artikels ingeneem word, is nie noodwendig dié van EU Reporter nie.

Neigings