Verbinding met ons

rekenaartegnologie

OASI, die eerste soekenjin wat die algoritmes vind wat regerings en maatskappye op burgers gebruik

DEEL:

Gepubliseer

on

Ons gebruik u aanmelding om inhoud te verskaf op 'n manier waarop u ingestem het en om ons begrip van u te verbeter. U kan te eniger tyd u inteken.

  • Die Observatory of Algorithms with Social Impact, wat deur Eticas Foundation opgerig is, versamel inligting van tientalle algoritmes wat deur openbare administrasies en ondernemings regoor die wêreld gebruik word om meer te wete te kom oor hul sosiale impak.
  • Die doel is om aan die publiek toegang te gee tot inligting oor regerings en algoritmes van die onderneming, en om te weet wie dit gebruik, wie dit ontwikkel, watter bedreigings dit verteenwoordig en of dit geoudit is, onder andere kenmerke.
  • Algoritme vooroordeel en diskriminasie vind gewoonlik plaas op grond van ouderdom, geslag, ras of gestremdheid, onder andere waardes, maar as gevolg van die algemene gebrek aan deursigtigheid, is dit steeds nie moontlik om al die gevolge daarvan op die geaffekteerde groepe te ken nie.

Eticas Foundation, 'n organisasie sonder winsbejag wat die verantwoordelike gebruik van algoritmes en kunsmatige intelligensie (AI) stelsels bevorder, het die Observatory of Algorithms with Social Impact (OASI) gestig. Hierdie sterrewag stel 'n soekenjin bekend om meer te weet oor die instrumente wat belangrike outomatiese besluite oor burgers, verbruikers en gebruikers regoor die wêreld neem.

Tans outomatiseer besighede sowel as openbare administrasies besluite danksy algoritmes. Maar, die ontwikkeling en inbedryfstelling daarvan volg nie eksterne kwaliteitskontroles nie, en dit is ook nie so deursigtig as wat dit behoort te wees nie, wat die bevolking onbeskermd laat. Met hierdie soekenjin kan almal meer te wete kom oor hierdie algoritmes: wie dit ontwikkel het, wie dit gebruik, hul toepassingsomvang, of dit geoudit is, hul doelwitte of hul sosiale impak en die bedreigings wat dit verteenwoordig.

Op die oomblik, OASI versamel 57 algoritmes, maar verwag om die 100 in die daaropvolgende maande te bereik. Onder hulle word 24 reeds deur die regering en Big Tech -ondernemings in die VSA toegepas. Byvoorbeeld, ShotSpotter, 'n algoritme-instrument wat deur die polisiekantoor in Oakland ontplooi is om geweergeweld te beveg en te verminder deur middel van klankmoniterende mikrofone, en 'n algoritme om moontlike kindermishandeling en verwaarlosing wat deur Allegheny County, Pennsylvania, gebruik word, te voorspel. 'N Ander voorbeeld van 'n onderneming is Rekognition, die gesigsherkenningstelsel van Amazon, wat vroeg in 2019 deur die MIT Media Lab geoudit is, en dit het aansienlik slegter gevaar by die identifisering van 'n individu se geslag as dit vroulik of donkerder is.

Die algemeenste diskriminasie is op grond van ouderdom, geslag, ras of gestremdheid, onopsetlik vervaardig deur ontwikkelaars wat nie sosio -ekonomiese vaardighede het om die impak van hierdie tegnologie te verstaan ​​nie. In hierdie sin ontwerp hierdie ingenieurs die algoritmes wat slegs op tegniese vaardighede gebaseer is, en aangesien daar geen eksterne kontroles is nie en dit lyk asof dit werk soos verwag, leer die algoritme steeds uit gebrekkige data.

Gegewe die gebrek aan deursigtigheid oor die werking van sommige van hierdie algoritmes, ontwikkel Eticas Foundation, afgesien van die bekendstelling van OASI, 'n projek van eksterne oudits. Die eerste is VioGén, die algoritme wat die Spaanse ministerie van binnelandse sake gebruik het om risiko's toe te ken aan vroue wat beskerming soek nadat hulle gevalle van gesinsgeweld opgedoen het. Eticas sal 'n eksterne oudit doen deur middel van reverse engineering en administratiewe data, onderhoude, verslae of ontwerpskrifte om resultate op groot skaal te versamel. Dit alles met die doel om geleenthede vir verbetering in die beskerming van hierdie vroue op te spoor.

"Ondanks die bestaan ​​van algoritmiese beheer- en ouditmetodes om te verseker dat tegnologie die huidige regulasies en fundamentele regte respekteer, hou die administrasie en baie maatskappye steeds 'n doof oor vir versoeke om deursigtigheid van burgers en instansies," het Gemma Galdon, stigter van Eticas Foundation, gesê . 'Benewens OASI, na 'n paar jaar waarin ons meer as 'n dosyn oudits ontwikkel het vir maatskappye soos Alpha Telefónica, die Verenigde Nasies, Koa Health of die Inter-Amerikaanse Ontwikkelingsbank, het ons ook 'n Guide to Algorithmic Audit gepubliseer dat enigiemand dit kan uitvoer. Die doel is altyd om bewustheid te verhoog, deursigtigheid te bied en vertroue in tegnologie te herstel, wat op sigself nie skadelik hoef te wees nie. ”

In hierdie sin, algoritmes wat opgelei word in masjienleertegnieke deur 'n groot hoeveelheid historiese data te gebruik om hulle te "leer" om te kies op grond van besluite uit die verlede. Gewoonlik is hierdie gegewens nie verteenwoordigend van die sosio -ekonomiese en kulturele realiteit waarop dit toegepas word nie, maar weerspieël dit by baie geleenthede 'n onregverdige situasie wat nie bedoel is om te bly voortbestaan ​​nie. Op hierdie manier sou die algoritme tegnies volgens die opleiding 'korrekte' besluite neem, alhoewel die werklikheid is dat die aanbevelings of voorspellings bevooroordeeld of diskriminerend is.

advertensie

Oor Eticas Foundation

Eticas Foundation werk om die beginsels wat die samelewing rig, in tegniese spesifikasies om te sit, soos gelyke geleenthede, deursigtigheid en nie-diskriminasie in die tegnologie wat outomatiese besluite oor ons lewens neem. Dit soek 'n balans tussen veranderende sosiale waardes, die tegniese moontlikhede van die nuutste vordering en die wetlike raamwerk. Vir hierdie doel kontroleer dit algoritmes, verifieer dit dat regswaarborge toegepas word op die digitale wêreld, veral op kunsmatige intelligensie, en werk dit intensief om bewustheid te verhoog en die behoefte aan verantwoordelike kwaliteitstegnologie te versprei.

Deel hierdie artikel:

EU Reporter publiseer artikels uit 'n verskeidenheid van buite bronne wat 'n wye verskeidenheid van standpunte uitdruk. Die standpunte wat in hierdie artikels ingeneem word, is nie noodwendig dié van EU Reporter nie.

Neigings