Tämä voisi olla sääntelykehys tekoälyn turvallisuuden lisäämiseksi

Aikakautemme tekniikka etenee harppauksin kuten koskaan ennen. Joka hetki syntyy uusia variantteja, parannuksia ja innovaatioita, joista tulee vähitellen osa yhteiskuntaa.

Vaikka tällä teknologisen kasvun ajanjaksolla on suuria etuja, se, että se kehittyy ilman hallintaa, voi myös olla erittäin huolestuttava. Siksi, kun tekniikat kasvavat ja muuttuvat niitä sääteleviä lakeja, niitä tulisi myös noudattaa jatkuvassa evoluutio- ja mutaatioprosessissa.

Tutkijoiden ehdotus

Tämän hyvin läsnä ollessa Lontoon, Englannin, Imperial-yliopiston tutkijat ryhtyivät kehittämään sitä, mitä he pitivät sopivana sääntelykehyksenä. Sen tarkoituksena on luoda perustan tulevaisuudelle, eikä sitä voida antaa lain monoliittisena asiana, jota ei voida muuttaa myöhemmin.

Teknologiaan kohdistuvien vaikutusten arviointi ihmisille

https://hausratversicherung.tech/wp-content/uploads/2020/03/1583553905_582_Tama-voisi-olla-saantelykehys-tekoalyn-turvallisuuden-lisaamiseksi.jpg

He ovat tunnistaneet ehdotuksensa sääntelykehyksen perusteella. Espanjan kielellä hänen nimensä voisi olla teknologian ihmisen vaikutusten arviointi. Mutta todennäköisimmin, jos siitä tulee virallinen, se tunnetaan lyhenteellä englanniksi (HIAT).

Inspiraatio tämän lakikehyksen luomiseen syntyi hankkeista, jotka hyväksyttiin ympäristövaikutusten sääntelemiseksi uuden ympäristövaikutusten arvioinnin (YVA) mukaan. Tämä johtuu siitä, että ilmastomuutoksen seurausten tapaan AI: n mahdollisia reaktioita ja seurauksia on vaikea ennustaa kokonaan.

Kuinka tämä lakikehys toimisi?

Sen potentiaalin hyödyntämiseksi tutkijat ehdottavat sen yhdenmukaistamista asiaan liittyvien viimeaikaisten lakiehdotusten kanssa. Toisin sanoen ne, jotka Euroopan unioni on äskettäin hyväksynyt. He ovat myös sanoneet, että myös sen hyväksymät käyttäjätietoja koskevat säännökset (GDPR) voitaisiin ottaa huomioon.

Tällä tavalla sääntelykehyksellä olisi jo vahva teoreettinen ja oikeudellinen perusta. Tämän lisäksi he ehdottavat yhteiskuntatieteiden käyttöä ymmärtää ja säädellä ihmisen osaa, joka on jatkuvassa vuorovaikutuksessa uuden tekniikan kanssa.

Kuinka säännöksiä sovellettaisiin?

https://miro.medium.com/max/13802/1* DBYP3XvhvuJwleBrIi7UhA.jpegTällä hetkellä on jo olemassa joitain menetelmiä, jotka auttavat yrityksiä tunnistamaan, minkä tyyppiset AI-ohjelmat voivat olla hyödyllisiä ja jotka eivät vastaa niiden arvoja tai vaatimuksia, kuten algoritmisen vaikutuksen arviointi (AIA).

Nämä ovat kuitenkin prosessin loppua, kun tekniikka on jo kehitetty. Tätä mahdollisuutta varten, mitä Imperial College-tutkijat ehdottavat, on, että HIAT-kehys on läsnä AI-kehityksen aikana.

Tällä tavoin asetus pystyy olemaan suoraan yhteydessä kehittäjiin ja varmistamaan, että kaikkia näitä noudatetaan turvallisuuden vähimmäisstandardilla. Se, mitä tällä alalla yritetään, perspektiivin kannalta, on samanlainen kuin mitä maailman lääketeollisuudessa on jo olemassa.

Ne ovat tiukkojen säädösten alaisia, mutta niillä ei ole tarkoitus rajoittaa kehitystä tai tutkimusta. Itse asiassa he vastaavat vain läsnäolosta varmistaakseen, että kaikki käytännöt suoritetaan turvallisesti.