Nieuws van GroenLinks inzichtelijk

92 documenten

Drijvend zonnepark Beetseplas - bericht uit eerdere fase | Westerwolde

GroenLinks GroenLinks Westerwolde 08-05-2020 00:00

Dit bericht van 29 januari 2020 had wel op de Facebookpagina gestaan, maar nog niet op de website. In de aanloop naar een volgend bericht hierover is dit alsnog geplaatst

Drijvend zonnepark Beetseplas

Voor GroenLinks géén gemakkelijke afweging! Aan de ene kant de ondernemer die zich enorm inspant om zijn bedrijf energieneutraal te maken én daarbij keer op keer probeert om aan alle wensen van zowel de gemeente als de omwonenden te voldoen. Zandtransporten per vrachtauto en lawaaierige ‘zandfabriek’ verdwijnen uit de omgeving, wat zou je nog meer willen als GroenLinks.

Aan de andere kant de landschappelijke kwaliteiten en ecologische waarden van de Beetseplas, een bijzonder plekje met de uitstraling van Zweden. En de grote groep mensen die dit hier écht niet willen, omdat ze enorm van deze mooie plek houden. Precies zoals GroenLinks dat graag wil in Westerwolde.

Tijdens de info-avonden over het plan is vooral uitleg gegeven. Mensen die echt tégen de plannen waren konden hier hun mening niet kwijt... alleen direct omwonenden (en organisaties zoals SBB) waren uitgenodigd voor de info-avonden terwijl de Beetseplas als recreatie- en natuurgebied een veel grotere reikwijdte heeft! Uit de reacties op een kort geleden gestarte petitie blijkt dit wel! Die komen uit het hele land en zelfs van daar buiten. Vanuit de direct omwonenden (de ‘klankbordgroep’) krijgen we juist weer signalen dat zij de plannen (met eventueel wat aanpassingen) wél zien zitten.

Onduidelijk is dus in hoeverre er nu wel of geen draagvlak is.

Het is de eerste keer dat we de maatwerkmethode voor zonneparken toepassen en gelijk op een bijzonder project op een bijzondere plek. Is dit wel goed en volledig gebeurd? Het begrip draagvlak blijft moeilijk.

Helaas is er ook veel onjuiste of onvolledige informatie gedeeld door uitgesproken tegenstanders via (sociale) media. Het is dan ook moeilijk in te schatten in hoeverre ondertekenaars van de petitie over de juiste en volledige informatie beschikken! Hoe zwaar weeg je hun input dan?

Dat de omgeving maar 15 jaar lang een financiele compensatie zou krijgen terwijl er 30 jaar lang energie wordt gewonnen op de plas vinden wij niet juist. Ook willen we weten welke gevolgen de aanleg van het drijvende zonnepark zal hebben voor de grote groep overwinterende toendrarietganzen die op de zuidplas overnacht. Onderzoek hiernaar loopt nog. En natuurlijk willen we dat de zwemveiligheid op deze recreatieplas niet in het geding komt! We hebben richting de initiatiefnemers en de wethouder de suggestie gedaan een drijvende rietkraag rondom het ‘paneleneiland’ te leggen. Dit levert wellicht zowel een veel fraaier beeld op als ook de gewenste afscherming voor veiligheid.

Uit een gesprek met de heer Kremer konden we opmaken dat de panelen waarschijnlijk anders gesitueerd kunnen worden zodat er minder hinder van zal zijn. Dit zou kunnen door een nieuw te graven stuk plas aan de noordoost-zijde. Ook dit aspect moet nog worden uitgewerkt in het definitieve voorstel!

Het ‘stoplicht’ staat op dit moment wat ons betreft op ORANJE voor Groenleven. We zijn op 22 januari jl. weliswaar akkoord gegaan met de ontwerpverklaring van geen bedenkingen maar zijn nog niet tevreden met het plan zoals het er nu ligt, dat hebben we wel duidelijk gemaakt!

De bal ligt nu bij de tegenstanders die hun mening middels een zienswijze kenbaar kunnen maken. We nemen ze beslist serieus mee in onze overwegingen! Maar ook de initiatiefnemers zullen met aanpassingen komen op het plan, we gaan er van uit dat ze goed naar ons hebben geluisterd...

Of we uiteindelijk akkoord zullen gaan met het definitieve voorstel op 15 april a.s. zal hiervan afhangen!

#westerwolde #groenlinks #sellingerbeetse

Uiteindelijk is over het definitieve voorstel op 28 april 2020 gestemd. Binnenkort een update hierover!

 

Hoe gaan we slim om met kunstmatige intelligentie? | GroenLinks

GroenLinks GroenLinks Rotterdam Charlois 19-02-2020 00:00

Kunstmatige intelligentie, artificial intelligence, of simpelweg AI is hot. De berichten met daarin de nieuwste innovaties die ons leven makkelijker maken, het fileprobleem oplossen of de klimaatcrisis aanpakken, vliegen je om de oren. Toepassingen op basis van kunstmatige intelligentie zijn geen toekomstmuziek. Ze zitten vandaag al in de vertaalapp in onze smartphone en de slimme thermostaat in onze woning. Kunstmatige intelligentie is er en gaat niet weg.

Taken en beslissingen worden steeds meer uitgevoerd door zelflerende machines die niet altijd onder goede menselijke controle staan. Dat AI ook risico’s met zich meebrengt, is echter de laatste jaren duidelijk geworden. Deze technologieën lijken neutraal omdat ze de subjectieve menselijke factor uitsluiten in hun beslissingen. Echter, heel wat vooroordelen en discriminatie zijn ingebakken in de datasets op basis waarvan beslissingen worden genomen.

Apple kwam in opspraak toen bleek dat er systematisch hogere limieten werden toegestaan aan mannen dan aan vrouwen bij de creditcard die het bedrijf vorig jaar lanceerde. De Nederlandse overheid werd teruggefloten door de rechter die oordeelde dat het Systeem Risico Indicatie (SyRI), dat wordt gebruikt om uitkeringsfraude op te sporen, in strijd is met het Europees Verdrag voor de Rechten van de Mens en de privacywet. Van digitale burgerrechtenorganisatie Bits of Freedom kreeg het systeem eind vorig jaar al de Big Brother award. Zij oordeelden dat door koppeling van verschillende datasets en geheime algoritmes buurten worden gestigmatiseerd, en personen tot verdachte worden gemaakt zonder dat zij de mogelijkheid hebben hiertegen in verweer te gaan. Ontslagen door een geautomatiseerd systeem

Kunstmatige intelligentie kan ook een grote impact hebben op de relatie tussen werknemer en werkgever. Afgelopen zomer liet Amazon in enkele Amerikaanse magazijnen werknemers ontslaan door volledig geautomatiseerde AI-systemen. Daarbij stuurde het systeem de minst productieve werknemers automatisch hun ontslagbrief. Ook de prestaties van de maaltijdbezorgers in onze steden worden constant gemonitord, ze concurreren met elkaar en hebben geen menselijk contact met hun werkgever. 

Als consument worden we geconfronteerd met het feit dat de algoritmes een zwarte doos zijn waar we niet in kunnen kijken. De prijzen van producten in advertenties en in webshops kunnen variëren, afhankelijk van het profiel van wie er naar kijkt. Het is vaak onduidelijk of je met een chatbot of een echt persoon van de klantendienst aan het praten bent. Manipulatie ten koste van de consument ligt op de loer. Tenslotte is er ook onduidelijkheid over de aansprakelijkheid en veiligheid van slimme producten: ligt die bij de ontwikkelaar van het product of bij de ontwikkelaar van het algoritme?

No-brainer voor Europa

De vraag is hoe de Europese Unie zich tot dit vraagstuk moet verhouden. We hebben één interne markt waarin producten (digitaal of fysiek) vrij verkocht kunnen worden. En als markt van 450 miljoen consumenten kunnen we beter samen optrekken tegen de techgiganten als Amazon en Facebook. Dat we kunstmatige intelligentie ook op Europees niveau moeten reguleren is een no-brainer.

Ursula von der Leyen, de voorzitter van de de Europese Commissie, beloofde eerst om in de eerste honderd dagen van haar mandaat met wetgeving te komen om ‘de menselijke en ethische implicaties van kunstmatige intelligentie’ te beheersen. Die ambitie is nu alweer teruggeschroefd. Hoe sterk het regelgevend wordt, is nog voer voor discussie. Woensdag presenteerde de Europese Commissie wel haar plannen op vlak van kunstmatige intelligentie in de vorm van een zogenaamd witboek.

Hierin staan verschillende opties voor Europese regels over kunstmatige intelligentie, waarbij een opdeling wordt gemaakt tussen toepassingen met hoge en lage risico’s.

Een vrijwillig label voor toepassingen met een ’laag risico’. Het aanpassen van bestaande regels voor productveiligheid en -aansprakelijkheid om ook producten en diensten op basis van kunstmatige intelligentie te dekken. Nieuwe regelgeving voor toepassingen met ‘hoge risico’s’ met onder andere voorschriften op vlak van menselijk toezicht en transparantie. Vestager vs Breton

Er lijken nog steeds verschillende visies te bestaan binnen de Europese Commissie. Aan de ene kant staat Margrete Vestager. Zij wees onlangs in haar speech voor de Tweede Kamer nog op het belang van een sterk ethisch kader voor AI en het belang van menselijke controle. Aan de andere kant staat Thierry Breton, tot voor kort CEO van IT-bedrijf Atos. Hij stelt zich erg terughoudend op als het om bindende regels gaat. 

Volgens Breton zijn we op vlak van kunstmatige intelligentie verwikkeld in een race met de VS en China. Maar een ‘race’ met de digitale totalitaire staat in China of het surveillancekapitalisme in de VS is een riskante voorstelling van zaken. Als we Europese waarden zoals privacy, duurzaamheid en sociale rechten serieus nemen, zetten we die niet op het spel omdat we anders de ‘wedstrijd’ zouden verliezen.

Het dilemma dat achter deze tweespalt schuilgaat: gaan we reguleren om de risico’s voor mensen te beperken, innovatie te sturen en laten we ethische toepassingen bij twijfel niet op de markt toe? Of laten we de markt zoveel mogelijk vrij om zich te ontwikkelen en proberen we achteraf in te grijpen als het nodig is? 

Ik ben ervan overtuigd dat we de ontwikkeling van kunstmatige intelligentie niet aan de markt alleen kunnen overlaten. Kunstmatige intelligentie kan zowel worden ingezet voor de ontwikkeling van autonome wapens én voor de efficiëntere opwekking en verdeling van hernieuwbare energie; voor betere medische diagnoses én voor automatische beurstransacties die het financieel flitskapitalisme verder versterken. We weten al lang dat technologie niet neutraal is. 

Voorzorgsprincipe

We moeten ervoor zorgen dat kunstmatige intelligentie ons helpt om de grote vraagstukken van deze tijd op te lossen, in plaats van nieuwe problemen te creëren. Dit doen we door het voorzorgsprincipe voorop te stellen en de mogelijke langetermijnimpact op ethisch, sociaal en milieuvlak mee te nemen in een vroege fase van de ontwikkeling van nieuwe technologieën. Zo sturen we deze technologische revolutie in de juiste richting. Krachtige regels op ethisch vlak voor kunstmatige intelligentie zorgen ook voor wettelijke zekerheid en een stabiel investeringsklimaat. Een actieve industriepolitiek die inzet op toepassingen die goed zijn voor mens en planeet is hoe een succesvolle Europese benadering van kunstmatige intelligentie er voor mij moet uitzien. 

Dit is nou net niet de positie die Nederland tot nu toe inneemt in het debat over kunstmatige intelligentie. Het kabinet zegt dat de mens centraal moet staan bij de ontwikkeling van kunstmatige intelligentie, maar bepleit tegelijkertijd bij de Europese Commissie een ‘learning approach’ waarbij tijdens de ontwikkeling van de technologie wordt gemonitord en er dus pas later wordt gekeken of regelgeving nodig is. Ik vrees dat we ons met deze houding te veel uitleveren aan de goodwill van bedrijven die uiteindelijk winsten boven maatschappelijk belang stellen.  

Hoe gaan we slim om met kunstmatige intelligentie? | GroenLinks

GroenLinks GroenLinks Rotterdam Delfshaven 19-02-2020 00:00

Kunstmatige intelligentie, artificial intelligence, of simpelweg AI is hot. De berichten met daarin de nieuwste innovaties die ons leven makkelijker maken, het fileprobleem oplossen of de klimaatcrisis aanpakken, vliegen je om de oren. Toepassingen op basis van kunstmatige intelligentie zijn geen toekomstmuziek. Ze zitten vandaag al in de vertaalapp in onze smartphone en de slimme thermostaat in onze woning. Kunstmatige intelligentie is er en gaat niet weg.

Taken en beslissingen worden steeds meer uitgevoerd door zelflerende machines die niet altijd onder goede menselijke controle staan. Dat AI ook risico’s met zich meebrengt, is echter de laatste jaren duidelijk geworden. Deze technologieën lijken neutraal omdat ze de subjectieve menselijke factor uitsluiten in hun beslissingen. Echter, heel wat vooroordelen en discriminatie zijn ingebakken in de datasets op basis waarvan beslissingen worden genomen.

Apple kwam in opspraak toen bleek dat er systematisch hogere limieten werden toegestaan aan mannen dan aan vrouwen bij de creditcard die het bedrijf vorig jaar lanceerde. De Nederlandse overheid werd teruggefloten door de rechter die oordeelde dat het Systeem Risico Indicatie (SyRI), dat wordt gebruikt om uitkeringsfraude op te sporen, in strijd is met het Europees Verdrag voor de Rechten van de Mens en de privacywet. Van digitale burgerrechtenorganisatie Bits of Freedom kreeg het systeem eind vorig jaar al de Big Brother award. Zij oordeelden dat door koppeling van verschillende datasets en geheime algoritmes buurten worden gestigmatiseerd, en personen tot verdachte worden gemaakt zonder dat zij de mogelijkheid hebben hiertegen in verweer te gaan. Ontslagen door een geautomatiseerd systeem

Kunstmatige intelligentie kan ook een grote impact hebben op de relatie tussen werknemer en werkgever. Afgelopen zomer liet Amazon in enkele Amerikaanse magazijnen werknemers ontslaan door volledig geautomatiseerde AI-systemen. Daarbij stuurde het systeem de minst productieve werknemers automatisch hun ontslagbrief. Ook de prestaties van de maaltijdbezorgers in onze steden worden constant gemonitord, ze concurreren met elkaar en hebben geen menselijk contact met hun werkgever. 

Als consument worden we geconfronteerd met het feit dat de algoritmes een zwarte doos zijn waar we niet in kunnen kijken. De prijzen van producten in advertenties en in webshops kunnen variëren, afhankelijk van het profiel van wie er naar kijkt. Het is vaak onduidelijk of je met een chatbot of een echt persoon van de klantendienst aan het praten bent. Manipulatie ten koste van de consument ligt op de loer. Tenslotte is er ook onduidelijkheid over de aansprakelijkheid en veiligheid van slimme producten: ligt die bij de ontwikkelaar van het product of bij de ontwikkelaar van het algoritme?

No-brainer voor Europa

De vraag is hoe de Europese Unie zich tot dit vraagstuk moet verhouden. We hebben één interne markt waarin producten (digitaal of fysiek) vrij verkocht kunnen worden. En als markt van 450 miljoen consumenten kunnen we beter samen optrekken tegen de techgiganten als Amazon en Facebook. Dat we kunstmatige intelligentie ook op Europees niveau moeten reguleren is een no-brainer.

Ursula von der Leyen, de voorzitter van de de Europese Commissie, beloofde eerst om in de eerste honderd dagen van haar mandaat met wetgeving te komen om ‘de menselijke en ethische implicaties van kunstmatige intelligentie’ te beheersen. Die ambitie is nu alweer teruggeschroefd. Hoe sterk het regelgevend wordt, is nog voer voor discussie. Woensdag presenteerde de Europese Commissie wel haar plannen op vlak van kunstmatige intelligentie in de vorm van een zogenaamd witboek.

Hierin staan verschillende opties voor Europese regels over kunstmatige intelligentie, waarbij een opdeling wordt gemaakt tussen toepassingen met hoge en lage risico’s.

Een vrijwillig label voor toepassingen met een ’laag risico’. Het aanpassen van bestaande regels voor productveiligheid en -aansprakelijkheid om ook producten en diensten op basis van kunstmatige intelligentie te dekken. Nieuwe regelgeving voor toepassingen met ‘hoge risico’s’ met onder andere voorschriften op vlak van menselijk toezicht en transparantie. Vestager vs Breton

Er lijken nog steeds verschillende visies te bestaan binnen de Europese Commissie. Aan de ene kant staat Margrete Vestager. Zij wees onlangs in haar speech voor de Tweede Kamer nog op het belang van een sterk ethisch kader voor AI en het belang van menselijke controle. Aan de andere kant staat Thierry Breton, tot voor kort CEO van IT-bedrijf Atos. Hij stelt zich erg terughoudend op als het om bindende regels gaat. 

Volgens Breton zijn we op vlak van kunstmatige intelligentie verwikkeld in een race met de VS en China. Maar een ‘race’ met de digitale totalitaire staat in China of het surveillancekapitalisme in de VS is een riskante voorstelling van zaken. Als we Europese waarden zoals privacy, duurzaamheid en sociale rechten serieus nemen, zetten we die niet op het spel omdat we anders de ‘wedstrijd’ zouden verliezen.

Het dilemma dat achter deze tweespalt schuilgaat: gaan we reguleren om de risico’s voor mensen te beperken, innovatie te sturen en laten we ethische toepassingen bij twijfel niet op de markt toe? Of laten we de markt zoveel mogelijk vrij om zich te ontwikkelen en proberen we achteraf in te grijpen als het nodig is? 

Ik ben ervan overtuigd dat we de ontwikkeling van kunstmatige intelligentie niet aan de markt alleen kunnen overlaten. Kunstmatige intelligentie kan zowel worden ingezet voor de ontwikkeling van autonome wapens én voor de efficiëntere opwekking en verdeling van hernieuwbare energie; voor betere medische diagnoses én voor automatische beurstransacties die het financieel flitskapitalisme verder versterken. We weten al lang dat technologie niet neutraal is. 

Voorzorgsprincipe

We moeten ervoor zorgen dat kunstmatige intelligentie ons helpt om de grote vraagstukken van deze tijd op te lossen, in plaats van nieuwe problemen te creëren. Dit doen we door het voorzorgsprincipe voorop te stellen en de mogelijke langetermijnimpact op ethisch, sociaal en milieuvlak mee te nemen in een vroege fase van de ontwikkeling van nieuwe technologieën. Zo sturen we deze technologische revolutie in de juiste richting. Krachtige regels op ethisch vlak voor kunstmatige intelligentie zorgen ook voor wettelijke zekerheid en een stabiel investeringsklimaat. Een actieve industriepolitiek die inzet op toepassingen die goed zijn voor mens en planeet is hoe een succesvolle Europese benadering van kunstmatige intelligentie er voor mij moet uitzien. 

Dit is nou net niet de positie die Nederland tot nu toe inneemt in het debat over kunstmatige intelligentie. Het kabinet zegt dat de mens centraal moet staan bij de ontwikkeling van kunstmatige intelligentie, maar bepleit tegelijkertijd bij de Europese Commissie een ‘learning approach’ waarbij tijdens de ontwikkeling van de technologie wordt gemonitord en er dus pas later wordt gekeken of regelgeving nodig is. Ik vrees dat we ons met deze houding te veel uitleveren aan de goodwill van bedrijven die uiteindelijk winsten boven maatschappelijk belang stellen.  

Hoe gaan we slim om met kunstmatige intelligentie? | GroenLinks

GroenLinks GroenLinks Rotterdam Feijenoord 19-02-2020 00:00

Kunstmatige intelligentie, artificial intelligence, of simpelweg AI is hot. De berichten met daarin de nieuwste innovaties die ons leven makkelijker maken, het fileprobleem oplossen of de klimaatcrisis aanpakken, vliegen je om de oren. Toepassingen op basis van kunstmatige intelligentie zijn geen toekomstmuziek. Ze zitten vandaag al in de vertaalapp in onze smartphone en de slimme thermostaat in onze woning. Kunstmatige intelligentie is er en gaat niet weg.

Taken en beslissingen worden steeds meer uitgevoerd door zelflerende machines die niet altijd onder goede menselijke controle staan. Dat AI ook risico’s met zich meebrengt, is echter de laatste jaren duidelijk geworden. Deze technologieën lijken neutraal omdat ze de subjectieve menselijke factor uitsluiten in hun beslissingen. Echter, heel wat vooroordelen en discriminatie zijn ingebakken in de datasets op basis waarvan beslissingen worden genomen.

Apple kwam in opspraak toen bleek dat er systematisch hogere limieten werden toegestaan aan mannen dan aan vrouwen bij de creditcard die het bedrijf vorig jaar lanceerde. De Nederlandse overheid werd teruggefloten door de rechter die oordeelde dat het Systeem Risico Indicatie (SyRI), dat wordt gebruikt om uitkeringsfraude op te sporen, in strijd is met het Europees Verdrag voor de Rechten van de Mens en de privacywet. Van digitale burgerrechtenorganisatie Bits of Freedom kreeg het systeem eind vorig jaar al de Big Brother award. Zij oordeelden dat door koppeling van verschillende datasets en geheime algoritmes buurten worden gestigmatiseerd, en personen tot verdachte worden gemaakt zonder dat zij de mogelijkheid hebben hiertegen in verweer te gaan. Ontslagen door een geautomatiseerd systeem

Kunstmatige intelligentie kan ook een grote impact hebben op de relatie tussen werknemer en werkgever. Afgelopen zomer liet Amazon in enkele Amerikaanse magazijnen werknemers ontslaan door volledig geautomatiseerde AI-systemen. Daarbij stuurde het systeem de minst productieve werknemers automatisch hun ontslagbrief. Ook de prestaties van de maaltijdbezorgers in onze steden worden constant gemonitord, ze concurreren met elkaar en hebben geen menselijk contact met hun werkgever. 

Als consument worden we geconfronteerd met het feit dat de algoritmes een zwarte doos zijn waar we niet in kunnen kijken. De prijzen van producten in advertenties en in webshops kunnen variëren, afhankelijk van het profiel van wie er naar kijkt. Het is vaak onduidelijk of je met een chatbot of een echt persoon van de klantendienst aan het praten bent. Manipulatie ten koste van de consument ligt op de loer. Tenslotte is er ook onduidelijkheid over de aansprakelijkheid en veiligheid van slimme producten: ligt die bij de ontwikkelaar van het product of bij de ontwikkelaar van het algoritme?

No-brainer voor Europa

De vraag is hoe de Europese Unie zich tot dit vraagstuk moet verhouden. We hebben één interne markt waarin producten (digitaal of fysiek) vrij verkocht kunnen worden. En als markt van 450 miljoen consumenten kunnen we beter samen optrekken tegen de techgiganten als Amazon en Facebook. Dat we kunstmatige intelligentie ook op Europees niveau moeten reguleren is een no-brainer.

Ursula von der Leyen, de voorzitter van de de Europese Commissie, beloofde eerst om in de eerste honderd dagen van haar mandaat met wetgeving te komen om ‘de menselijke en ethische implicaties van kunstmatige intelligentie’ te beheersen. Die ambitie is nu alweer teruggeschroefd. Hoe sterk het regelgevend wordt, is nog voer voor discussie. Woensdag presenteerde de Europese Commissie wel haar plannen op vlak van kunstmatige intelligentie in de vorm van een zogenaamd witboek.

Hierin staan verschillende opties voor Europese regels over kunstmatige intelligentie, waarbij een opdeling wordt gemaakt tussen toepassingen met hoge en lage risico’s.

Een vrijwillig label voor toepassingen met een ’laag risico’. Het aanpassen van bestaande regels voor productveiligheid en -aansprakelijkheid om ook producten en diensten op basis van kunstmatige intelligentie te dekken. Nieuwe regelgeving voor toepassingen met ‘hoge risico’s’ met onder andere voorschriften op vlak van menselijk toezicht en transparantie. Vestager vs Breton

Er lijken nog steeds verschillende visies te bestaan binnen de Europese Commissie. Aan de ene kant staat Margrete Vestager. Zij wees onlangs in haar speech voor de Tweede Kamer nog op het belang van een sterk ethisch kader voor AI en het belang van menselijke controle. Aan de andere kant staat Thierry Breton, tot voor kort CEO van IT-bedrijf Atos. Hij stelt zich erg terughoudend op als het om bindende regels gaat. 

Volgens Breton zijn we op vlak van kunstmatige intelligentie verwikkeld in een race met de VS en China. Maar een ‘race’ met de digitale totalitaire staat in China of het surveillancekapitalisme in de VS is een riskante voorstelling van zaken. Als we Europese waarden zoals privacy, duurzaamheid en sociale rechten serieus nemen, zetten we die niet op het spel omdat we anders de ‘wedstrijd’ zouden verliezen.

Het dilemma dat achter deze tweespalt schuilgaat: gaan we reguleren om de risico’s voor mensen te beperken, innovatie te sturen en laten we ethische toepassingen bij twijfel niet op de markt toe? Of laten we de markt zoveel mogelijk vrij om zich te ontwikkelen en proberen we achteraf in te grijpen als het nodig is? 

Ik ben ervan overtuigd dat we de ontwikkeling van kunstmatige intelligentie niet aan de markt alleen kunnen overlaten. Kunstmatige intelligentie kan zowel worden ingezet voor de ontwikkeling van autonome wapens én voor de efficiëntere opwekking en verdeling van hernieuwbare energie; voor betere medische diagnoses én voor automatische beurstransacties die het financieel flitskapitalisme verder versterken. We weten al lang dat technologie niet neutraal is. 

Voorzorgsprincipe

We moeten ervoor zorgen dat kunstmatige intelligentie ons helpt om de grote vraagstukken van deze tijd op te lossen, in plaats van nieuwe problemen te creëren. Dit doen we door het voorzorgsprincipe voorop te stellen en de mogelijke langetermijnimpact op ethisch, sociaal en milieuvlak mee te nemen in een vroege fase van de ontwikkeling van nieuwe technologieën. Zo sturen we deze technologische revolutie in de juiste richting. Krachtige regels op ethisch vlak voor kunstmatige intelligentie zorgen ook voor wettelijke zekerheid en een stabiel investeringsklimaat. Een actieve industriepolitiek die inzet op toepassingen die goed zijn voor mens en planeet is hoe een succesvolle Europese benadering van kunstmatige intelligentie er voor mij moet uitzien. 

Dit is nou net niet de positie die Nederland tot nu toe inneemt in het debat over kunstmatige intelligentie. Het kabinet zegt dat de mens centraal moet staan bij de ontwikkeling van kunstmatige intelligentie, maar bepleit tegelijkertijd bij de Europese Commissie een ‘learning approach’ waarbij tijdens de ontwikkeling van de technologie wordt gemonitord en er dus pas later wordt gekeken of regelgeving nodig is. Ik vrees dat we ons met deze houding te veel uitleveren aan de goodwill van bedrijven die uiteindelijk winsten boven maatschappelijk belang stellen.  

Hoe gaan we slim om met kunstmatige intelligentie? | GroenLinks

GroenLinks GroenLinks Rotterdam Centrum 19-02-2020 00:00

Kunstmatige intelligentie, artificial intelligence, of simpelweg AI is hot. De berichten met daarin de nieuwste innovaties die ons leven makkelijker maken, het fileprobleem oplossen of de klimaatcrisis aanpakken, vliegen je om de oren. Toepassingen op basis van kunstmatige intelligentie zijn geen toekomstmuziek. Ze zitten vandaag al in de vertaalapp in onze smartphone en de slimme thermostaat in onze woning. Kunstmatige intelligentie is er en gaat niet weg.

Taken en beslissingen worden steeds meer uitgevoerd door zelflerende machines die niet altijd onder goede menselijke controle staan. Dat AI ook risico’s met zich meebrengt, is echter de laatste jaren duidelijk geworden. Deze technologieën lijken neutraal omdat ze de subjectieve menselijke factor uitsluiten in hun beslissingen. Echter, heel wat vooroordelen en discriminatie zijn ingebakken in de datasets op basis waarvan beslissingen worden genomen.

Apple kwam in opspraak toen bleek dat er systematisch hogere limieten werden toegestaan aan mannen dan aan vrouwen bij de creditcard die het bedrijf vorig jaar lanceerde. De Nederlandse overheid werd teruggefloten door de rechter die oordeelde dat het Systeem Risico Indicatie (SyRI), dat wordt gebruikt om uitkeringsfraude op te sporen, in strijd is met het Europees Verdrag voor de Rechten van de Mens en de privacywet. Van digitale burgerrechtenorganisatie Bits of Freedom kreeg het systeem eind vorig jaar al de Big Brother award. Zij oordeelden dat door koppeling van verschillende datasets en geheime algoritmes buurten worden gestigmatiseerd, en personen tot verdachte worden gemaakt zonder dat zij de mogelijkheid hebben hiertegen in verweer te gaan. Ontslagen door een geautomatiseerd systeem

Kunstmatige intelligentie kan ook een grote impact hebben op de relatie tussen werknemer en werkgever. Afgelopen zomer liet Amazon in enkele Amerikaanse magazijnen werknemers ontslaan door volledig geautomatiseerde AI-systemen. Daarbij stuurde het systeem de minst productieve werknemers automatisch hun ontslagbrief. Ook de prestaties van de maaltijdbezorgers in onze steden worden constant gemonitord, ze concurreren met elkaar en hebben geen menselijk contact met hun werkgever. 

Als consument worden we geconfronteerd met het feit dat de algoritmes een zwarte doos zijn waar we niet in kunnen kijken. De prijzen van producten in advertenties en in webshops kunnen variëren, afhankelijk van het profiel van wie er naar kijkt. Het is vaak onduidelijk of je met een chatbot of een echt persoon van de klantendienst aan het praten bent. Manipulatie ten koste van de consument ligt op de loer. Tenslotte is er ook onduidelijkheid over de aansprakelijkheid en veiligheid van slimme producten: ligt die bij de ontwikkelaar van het product of bij de ontwikkelaar van het algoritme?

No-brainer voor Europa

De vraag is hoe de Europese Unie zich tot dit vraagstuk moet verhouden. We hebben één interne markt waarin producten (digitaal of fysiek) vrij verkocht kunnen worden. En als markt van 450 miljoen consumenten kunnen we beter samen optrekken tegen de techgiganten als Amazon en Facebook. Dat we kunstmatige intelligentie ook op Europees niveau moeten reguleren is een no-brainer.

Ursula von der Leyen, de voorzitter van de de Europese Commissie, beloofde eerst om in de eerste honderd dagen van haar mandaat met wetgeving te komen om ‘de menselijke en ethische implicaties van kunstmatige intelligentie’ te beheersen. Die ambitie is nu alweer teruggeschroefd. Hoe sterk het regelgevend wordt, is nog voer voor discussie. Woensdag presenteerde de Europese Commissie wel haar plannen op vlak van kunstmatige intelligentie in de vorm van een zogenaamd witboek.

Hierin staan verschillende opties voor Europese regels over kunstmatige intelligentie, waarbij een opdeling wordt gemaakt tussen toepassingen met hoge en lage risico’s.

Een vrijwillig label voor toepassingen met een ’laag risico’. Het aanpassen van bestaande regels voor productveiligheid en -aansprakelijkheid om ook producten en diensten op basis van kunstmatige intelligentie te dekken. Nieuwe regelgeving voor toepassingen met ‘hoge risico’s’ met onder andere voorschriften op vlak van menselijk toezicht en transparantie. Vestager vs Breton

Er lijken nog steeds verschillende visies te bestaan binnen de Europese Commissie. Aan de ene kant staat Margrete Vestager. Zij wees onlangs in haar speech voor de Tweede Kamer nog op het belang van een sterk ethisch kader voor AI en het belang van menselijke controle. Aan de andere kant staat Thierry Breton, tot voor kort CEO van IT-bedrijf Atos. Hij stelt zich erg terughoudend op als het om bindende regels gaat. 

Volgens Breton zijn we op vlak van kunstmatige intelligentie verwikkeld in een race met de VS en China. Maar een ‘race’ met de digitale totalitaire staat in China of het surveillancekapitalisme in de VS is een riskante voorstelling van zaken. Als we Europese waarden zoals privacy, duurzaamheid en sociale rechten serieus nemen, zetten we die niet op het spel omdat we anders de ‘wedstrijd’ zouden verliezen.

Het dilemma dat achter deze tweespalt schuilgaat: gaan we reguleren om de risico’s voor mensen te beperken, innovatie te sturen en laten we ethische toepassingen bij twijfel niet op de markt toe? Of laten we de markt zoveel mogelijk vrij om zich te ontwikkelen en proberen we achteraf in te grijpen als het nodig is? 

Ik ben ervan overtuigd dat we de ontwikkeling van kunstmatige intelligentie niet aan de markt alleen kunnen overlaten. Kunstmatige intelligentie kan zowel worden ingezet voor de ontwikkeling van autonome wapens én voor de efficiëntere opwekking en verdeling van hernieuwbare energie; voor betere medische diagnoses én voor automatische beurstransacties die het financieel flitskapitalisme verder versterken. We weten al lang dat technologie niet neutraal is. 

Voorzorgsprincipe

We moeten ervoor zorgen dat kunstmatige intelligentie ons helpt om de grote vraagstukken van deze tijd op te lossen, in plaats van nieuwe problemen te creëren. Dit doen we door het voorzorgsprincipe voorop te stellen en de mogelijke langetermijnimpact op ethisch, sociaal en milieuvlak mee te nemen in een vroege fase van de ontwikkeling van nieuwe technologieën. Zo sturen we deze technologische revolutie in de juiste richting. Krachtige regels op ethisch vlak voor kunstmatige intelligentie zorgen ook voor wettelijke zekerheid en een stabiel investeringsklimaat. Een actieve industriepolitiek die inzet op toepassingen die goed zijn voor mens en planeet is hoe een succesvolle Europese benadering van kunstmatige intelligentie er voor mij moet uitzien. 

Dit is nou net niet de positie die Nederland tot nu toe inneemt in het debat over kunstmatige intelligentie. Het kabinet zegt dat de mens centraal moet staan bij de ontwikkeling van kunstmatige intelligentie, maar bepleit tegelijkertijd bij de Europese Commissie een ‘learning approach’ waarbij tijdens de ontwikkeling van de technologie wordt gemonitord en er dus pas later wordt gekeken of regelgeving nodig is. Ik vrees dat we ons met deze houding te veel uitleveren aan de goodwill van bedrijven die uiteindelijk winsten boven maatschappelijk belang stellen.  

Hoe gaan we slim om met kunstmatige intelligentie? | GroenLinks

GroenLinks GroenLinks Rotterdam Rozenburg 19-02-2020 00:00

Kunstmatige intelligentie, artificial intelligence, of simpelweg AI is hot. De berichten met daarin de nieuwste innovaties die ons leven makkelijker maken, het fileprobleem oplossen of de klimaatcrisis aanpakken, vliegen je om de oren. Toepassingen op basis van kunstmatige intelligentie zijn geen toekomstmuziek. Ze zitten vandaag al in de vertaalapp in onze smartphone en de slimme thermostaat in onze woning. Kunstmatige intelligentie is er en gaat niet weg.

Taken en beslissingen worden steeds meer uitgevoerd door zelflerende machines die niet altijd onder goede menselijke controle staan. Dat AI ook risico’s met zich meebrengt, is echter de laatste jaren duidelijk geworden. Deze technologieën lijken neutraal omdat ze de subjectieve menselijke factor uitsluiten in hun beslissingen. Echter, heel wat vooroordelen en discriminatie zijn ingebakken in de datasets op basis waarvan beslissingen worden genomen.

Apple kwam in opspraak toen bleek dat er systematisch hogere limieten werden toegestaan aan mannen dan aan vrouwen bij de creditcard die het bedrijf vorig jaar lanceerde. De Nederlandse overheid werd teruggefloten door de rechter die oordeelde dat het Systeem Risico Indicatie (SyRI), dat wordt gebruikt om uitkeringsfraude op te sporen, in strijd is met het Europees Verdrag voor de Rechten van de Mens en de privacywet. Van digitale burgerrechtenorganisatie Bits of Freedom kreeg het systeem eind vorig jaar al de Big Brother award. Zij oordeelden dat door koppeling van verschillende datasets en geheime algoritmes buurten worden gestigmatiseerd, en personen tot verdachte worden gemaakt zonder dat zij de mogelijkheid hebben hiertegen in verweer te gaan. Ontslagen door een geautomatiseerd systeem

Kunstmatige intelligentie kan ook een grote impact hebben op de relatie tussen werknemer en werkgever. Afgelopen zomer liet Amazon in enkele Amerikaanse magazijnen werknemers ontslaan door volledig geautomatiseerde AI-systemen. Daarbij stuurde het systeem de minst productieve werknemers automatisch hun ontslagbrief. Ook de prestaties van de maaltijdbezorgers in onze steden worden constant gemonitord, ze concurreren met elkaar en hebben geen menselijk contact met hun werkgever. 

Als consument worden we geconfronteerd met het feit dat de algoritmes een zwarte doos zijn waar we niet in kunnen kijken. De prijzen van producten in advertenties en in webshops kunnen variëren, afhankelijk van het profiel van wie er naar kijkt. Het is vaak onduidelijk of je met een chatbot of een echt persoon van de klantendienst aan het praten bent. Manipulatie ten koste van de consument ligt op de loer. Tenslotte is er ook onduidelijkheid over de aansprakelijkheid en veiligheid van slimme producten: ligt die bij de ontwikkelaar van het product of bij de ontwikkelaar van het algoritme?

No-brainer voor Europa

De vraag is hoe de Europese Unie zich tot dit vraagstuk moet verhouden. We hebben één interne markt waarin producten (digitaal of fysiek) vrij verkocht kunnen worden. En als markt van 450 miljoen consumenten kunnen we beter samen optrekken tegen de techgiganten als Amazon en Facebook. Dat we kunstmatige intelligentie ook op Europees niveau moeten reguleren is een no-brainer.

Ursula von der Leyen, de voorzitter van de de Europese Commissie, beloofde eerst om in de eerste honderd dagen van haar mandaat met wetgeving te komen om ‘de menselijke en ethische implicaties van kunstmatige intelligentie’ te beheersen. Die ambitie is nu alweer teruggeschroefd. Hoe sterk het regelgevend wordt, is nog voer voor discussie. Woensdag presenteerde de Europese Commissie wel haar plannen op vlak van kunstmatige intelligentie in de vorm van een zogenaamd witboek.

Hierin staan verschillende opties voor Europese regels over kunstmatige intelligentie, waarbij een opdeling wordt gemaakt tussen toepassingen met hoge en lage risico’s.

Een vrijwillig label voor toepassingen met een ’laag risico’. Het aanpassen van bestaande regels voor productveiligheid en -aansprakelijkheid om ook producten en diensten op basis van kunstmatige intelligentie te dekken. Nieuwe regelgeving voor toepassingen met ‘hoge risico’s’ met onder andere voorschriften op vlak van menselijk toezicht en transparantie. Vestager vs Breton

Er lijken nog steeds verschillende visies te bestaan binnen de Europese Commissie. Aan de ene kant staat Margrete Vestager. Zij wees onlangs in haar speech voor de Tweede Kamer nog op het belang van een sterk ethisch kader voor AI en het belang van menselijke controle. Aan de andere kant staat Thierry Breton, tot voor kort CEO van IT-bedrijf Atos. Hij stelt zich erg terughoudend op als het om bindende regels gaat. 

Volgens Breton zijn we op vlak van kunstmatige intelligentie verwikkeld in een race met de VS en China. Maar een ‘race’ met de digitale totalitaire staat in China of het surveillancekapitalisme in de VS is een riskante voorstelling van zaken. Als we Europese waarden zoals privacy, duurzaamheid en sociale rechten serieus nemen, zetten we die niet op het spel omdat we anders de ‘wedstrijd’ zouden verliezen.

Het dilemma dat achter deze tweespalt schuilgaat: gaan we reguleren om de risico’s voor mensen te beperken, innovatie te sturen en laten we ethische toepassingen bij twijfel niet op de markt toe? Of laten we de markt zoveel mogelijk vrij om zich te ontwikkelen en proberen we achteraf in te grijpen als het nodig is? 

Ik ben ervan overtuigd dat we de ontwikkeling van kunstmatige intelligentie niet aan de markt alleen kunnen overlaten. Kunstmatige intelligentie kan zowel worden ingezet voor de ontwikkeling van autonome wapens én voor de efficiëntere opwekking en verdeling van hernieuwbare energie; voor betere medische diagnoses én voor automatische beurstransacties die het financieel flitskapitalisme verder versterken. We weten al lang dat technologie niet neutraal is. 

Voorzorgsprincipe

We moeten ervoor zorgen dat kunstmatige intelligentie ons helpt om de grote vraagstukken van deze tijd op te lossen, in plaats van nieuwe problemen te creëren. Dit doen we door het voorzorgsprincipe voorop te stellen en de mogelijke langetermijnimpact op ethisch, sociaal en milieuvlak mee te nemen in een vroege fase van de ontwikkeling van nieuwe technologieën. Zo sturen we deze technologische revolutie in de juiste richting. Krachtige regels op ethisch vlak voor kunstmatige intelligentie zorgen ook voor wettelijke zekerheid en een stabiel investeringsklimaat. Een actieve industriepolitiek die inzet op toepassingen die goed zijn voor mens en planeet is hoe een succesvolle Europese benadering van kunstmatige intelligentie er voor mij moet uitzien. 

Dit is nou net niet de positie die Nederland tot nu toe inneemt in het debat over kunstmatige intelligentie. Het kabinet zegt dat de mens centraal moet staan bij de ontwikkeling van kunstmatige intelligentie, maar bepleit tegelijkertijd bij de Europese Commissie een ‘learning approach’ waarbij tijdens de ontwikkeling van de technologie wordt gemonitord en er dus pas later wordt gekeken of regelgeving nodig is. Ik vrees dat we ons met deze houding te veel uitleveren aan de goodwill van bedrijven die uiteindelijk winsten boven maatschappelijk belang stellen.  

Hoe gaan we slim om met kunstmatige intelligentie? | GroenLinks

GroenLinks GroenLinks Rotterdam Pernis 19-02-2020 00:00

Kunstmatige intelligentie, artificial intelligence, of simpelweg AI is hot. De berichten met daarin de nieuwste innovaties die ons leven makkelijker maken, het fileprobleem oplossen of de klimaatcrisis aanpakken, vliegen je om de oren. Toepassingen op basis van kunstmatige intelligentie zijn geen toekomstmuziek. Ze zitten vandaag al in de vertaalapp in onze smartphone en de slimme thermostaat in onze woning. Kunstmatige intelligentie is er en gaat niet weg.

Taken en beslissingen worden steeds meer uitgevoerd door zelflerende machines die niet altijd onder goede menselijke controle staan. Dat AI ook risico’s met zich meebrengt, is echter de laatste jaren duidelijk geworden. Deze technologieën lijken neutraal omdat ze de subjectieve menselijke factor uitsluiten in hun beslissingen. Echter, heel wat vooroordelen en discriminatie zijn ingebakken in de datasets op basis waarvan beslissingen worden genomen.

Apple kwam in opspraak toen bleek dat er systematisch hogere limieten werden toegestaan aan mannen dan aan vrouwen bij de creditcard die het bedrijf vorig jaar lanceerde. De Nederlandse overheid werd teruggefloten door de rechter die oordeelde dat het Systeem Risico Indicatie (SyRI), dat wordt gebruikt om uitkeringsfraude op te sporen, in strijd is met het Europees Verdrag voor de Rechten van de Mens en de privacywet. Van digitale burgerrechtenorganisatie Bits of Freedom kreeg het systeem eind vorig jaar al de Big Brother award. Zij oordeelden dat door koppeling van verschillende datasets en geheime algoritmes buurten worden gestigmatiseerd, en personen tot verdachte worden gemaakt zonder dat zij de mogelijkheid hebben hiertegen in verweer te gaan. Ontslagen door een geautomatiseerd systeem

Kunstmatige intelligentie kan ook een grote impact hebben op de relatie tussen werknemer en werkgever. Afgelopen zomer liet Amazon in enkele Amerikaanse magazijnen werknemers ontslaan door volledig geautomatiseerde AI-systemen. Daarbij stuurde het systeem de minst productieve werknemers automatisch hun ontslagbrief. Ook de prestaties van de maaltijdbezorgers in onze steden worden constant gemonitord, ze concurreren met elkaar en hebben geen menselijk contact met hun werkgever. 

Als consument worden we geconfronteerd met het feit dat de algoritmes een zwarte doos zijn waar we niet in kunnen kijken. De prijzen van producten in advertenties en in webshops kunnen variëren, afhankelijk van het profiel van wie er naar kijkt. Het is vaak onduidelijk of je met een chatbot of een echt persoon van de klantendienst aan het praten bent. Manipulatie ten koste van de consument ligt op de loer. Tenslotte is er ook onduidelijkheid over de aansprakelijkheid en veiligheid van slimme producten: ligt die bij de ontwikkelaar van het product of bij de ontwikkelaar van het algoritme?

No-brainer voor Europa

De vraag is hoe de Europese Unie zich tot dit vraagstuk moet verhouden. We hebben één interne markt waarin producten (digitaal of fysiek) vrij verkocht kunnen worden. En als markt van 450 miljoen consumenten kunnen we beter samen optrekken tegen de techgiganten als Amazon en Facebook. Dat we kunstmatige intelligentie ook op Europees niveau moeten reguleren is een no-brainer.

Ursula von der Leyen, de voorzitter van de de Europese Commissie, beloofde eerst om in de eerste honderd dagen van haar mandaat met wetgeving te komen om ‘de menselijke en ethische implicaties van kunstmatige intelligentie’ te beheersen. Die ambitie is nu alweer teruggeschroefd. Hoe sterk het regelgevend wordt, is nog voer voor discussie. Woensdag presenteerde de Europese Commissie wel haar plannen op vlak van kunstmatige intelligentie in de vorm van een zogenaamd witboek.

Hierin staan verschillende opties voor Europese regels over kunstmatige intelligentie, waarbij een opdeling wordt gemaakt tussen toepassingen met hoge en lage risico’s.

Een vrijwillig label voor toepassingen met een ’laag risico’. Het aanpassen van bestaande regels voor productveiligheid en -aansprakelijkheid om ook producten en diensten op basis van kunstmatige intelligentie te dekken. Nieuwe regelgeving voor toepassingen met ‘hoge risico’s’ met onder andere voorschriften op vlak van menselijk toezicht en transparantie. Vestager vs Breton

Er lijken nog steeds verschillende visies te bestaan binnen de Europese Commissie. Aan de ene kant staat Margrete Vestager. Zij wees onlangs in haar speech voor de Tweede Kamer nog op het belang van een sterk ethisch kader voor AI en het belang van menselijke controle. Aan de andere kant staat Thierry Breton, tot voor kort CEO van IT-bedrijf Atos. Hij stelt zich erg terughoudend op als het om bindende regels gaat. 

Volgens Breton zijn we op vlak van kunstmatige intelligentie verwikkeld in een race met de VS en China. Maar een ‘race’ met de digitale totalitaire staat in China of het surveillancekapitalisme in de VS is een riskante voorstelling van zaken. Als we Europese waarden zoals privacy, duurzaamheid en sociale rechten serieus nemen, zetten we die niet op het spel omdat we anders de ‘wedstrijd’ zouden verliezen.

Het dilemma dat achter deze tweespalt schuilgaat: gaan we reguleren om de risico’s voor mensen te beperken, innovatie te sturen en laten we ethische toepassingen bij twijfel niet op de markt toe? Of laten we de markt zoveel mogelijk vrij om zich te ontwikkelen en proberen we achteraf in te grijpen als het nodig is? 

Ik ben ervan overtuigd dat we de ontwikkeling van kunstmatige intelligentie niet aan de markt alleen kunnen overlaten. Kunstmatige intelligentie kan zowel worden ingezet voor de ontwikkeling van autonome wapens én voor de efficiëntere opwekking en verdeling van hernieuwbare energie; voor betere medische diagnoses én voor automatische beurstransacties die het financieel flitskapitalisme verder versterken. We weten al lang dat technologie niet neutraal is. 

Voorzorgsprincipe

We moeten ervoor zorgen dat kunstmatige intelligentie ons helpt om de grote vraagstukken van deze tijd op te lossen, in plaats van nieuwe problemen te creëren. Dit doen we door het voorzorgsprincipe voorop te stellen en de mogelijke langetermijnimpact op ethisch, sociaal en milieuvlak mee te nemen in een vroege fase van de ontwikkeling van nieuwe technologieën. Zo sturen we deze technologische revolutie in de juiste richting. Krachtige regels op ethisch vlak voor kunstmatige intelligentie zorgen ook voor wettelijke zekerheid en een stabiel investeringsklimaat. Een actieve industriepolitiek die inzet op toepassingen die goed zijn voor mens en planeet is hoe een succesvolle Europese benadering van kunstmatige intelligentie er voor mij moet uitzien. 

Dit is nou net niet de positie die Nederland tot nu toe inneemt in het debat over kunstmatige intelligentie. Het kabinet zegt dat de mens centraal moet staan bij de ontwikkeling van kunstmatige intelligentie, maar bepleit tegelijkertijd bij de Europese Commissie een ‘learning approach’ waarbij tijdens de ontwikkeling van de technologie wordt gemonitord en er dus pas later wordt gekeken of regelgeving nodig is. Ik vrees dat we ons met deze houding te veel uitleveren aan de goodwill van bedrijven die uiteindelijk winsten boven maatschappelijk belang stellen.  

Hoe gaan we slim om met kunstmatige intelligentie? | GroenLinks

GroenLinks GroenLinks Rotterdam Prins Alexander 19-02-2020 00:00

Kunstmatige intelligentie, artificial intelligence, of simpelweg AI is hot. De berichten met daarin de nieuwste innovaties die ons leven makkelijker maken, het fileprobleem oplossen of de klimaatcrisis aanpakken, vliegen je om de oren. Toepassingen op basis van kunstmatige intelligentie zijn geen toekomstmuziek. Ze zitten vandaag al in de vertaalapp in onze smartphone en de slimme thermostaat in onze woning. Kunstmatige intelligentie is er en gaat niet weg.

Taken en beslissingen worden steeds meer uitgevoerd door zelflerende machines die niet altijd onder goede menselijke controle staan. Dat AI ook risico’s met zich meebrengt, is echter de laatste jaren duidelijk geworden. Deze technologieën lijken neutraal omdat ze de subjectieve menselijke factor uitsluiten in hun beslissingen. Echter, heel wat vooroordelen en discriminatie zijn ingebakken in de datasets op basis waarvan beslissingen worden genomen.

Apple kwam in opspraak toen bleek dat er systematisch hogere limieten werden toegestaan aan mannen dan aan vrouwen bij de creditcard die het bedrijf vorig jaar lanceerde. De Nederlandse overheid werd teruggefloten door de rechter die oordeelde dat het Systeem Risico Indicatie (SyRI), dat wordt gebruikt om uitkeringsfraude op te sporen, in strijd is met het Europees Verdrag voor de Rechten van de Mens en de privacywet. Van digitale burgerrechtenorganisatie Bits of Freedom kreeg het systeem eind vorig jaar al de Big Brother award. Zij oordeelden dat door koppeling van verschillende datasets en geheime algoritmes buurten worden gestigmatiseerd, en personen tot verdachte worden gemaakt zonder dat zij de mogelijkheid hebben hiertegen in verweer te gaan. Ontslagen door een geautomatiseerd systeem

Kunstmatige intelligentie kan ook een grote impact hebben op de relatie tussen werknemer en werkgever. Afgelopen zomer liet Amazon in enkele Amerikaanse magazijnen werknemers ontslaan door volledig geautomatiseerde AI-systemen. Daarbij stuurde het systeem de minst productieve werknemers automatisch hun ontslagbrief. Ook de prestaties van de maaltijdbezorgers in onze steden worden constant gemonitord, ze concurreren met elkaar en hebben geen menselijk contact met hun werkgever. 

Als consument worden we geconfronteerd met het feit dat de algoritmes een zwarte doos zijn waar we niet in kunnen kijken. De prijzen van producten in advertenties en in webshops kunnen variëren, afhankelijk van het profiel van wie er naar kijkt. Het is vaak onduidelijk of je met een chatbot of een echt persoon van de klantendienst aan het praten bent. Manipulatie ten koste van de consument ligt op de loer. Tenslotte is er ook onduidelijkheid over de aansprakelijkheid en veiligheid van slimme producten: ligt die bij de ontwikkelaar van het product of bij de ontwikkelaar van het algoritme?

No-brainer voor Europa

De vraag is hoe de Europese Unie zich tot dit vraagstuk moet verhouden. We hebben één interne markt waarin producten (digitaal of fysiek) vrij verkocht kunnen worden. En als markt van 450 miljoen consumenten kunnen we beter samen optrekken tegen de techgiganten als Amazon en Facebook. Dat we kunstmatige intelligentie ook op Europees niveau moeten reguleren is een no-brainer.

Ursula von der Leyen, de voorzitter van de de Europese Commissie, beloofde eerst om in de eerste honderd dagen van haar mandaat met wetgeving te komen om ‘de menselijke en ethische implicaties van kunstmatige intelligentie’ te beheersen. Die ambitie is nu alweer teruggeschroefd. Hoe sterk het regelgevend wordt, is nog voer voor discussie. Woensdag presenteerde de Europese Commissie wel haar plannen op vlak van kunstmatige intelligentie in de vorm van een zogenaamd witboek.

Hierin staan verschillende opties voor Europese regels over kunstmatige intelligentie, waarbij een opdeling wordt gemaakt tussen toepassingen met hoge en lage risico’s.

Een vrijwillig label voor toepassingen met een ’laag risico’. Het aanpassen van bestaande regels voor productveiligheid en -aansprakelijkheid om ook producten en diensten op basis van kunstmatige intelligentie te dekken. Nieuwe regelgeving voor toepassingen met ‘hoge risico’s’ met onder andere voorschriften op vlak van menselijk toezicht en transparantie. Vestager vs Breton

Er lijken nog steeds verschillende visies te bestaan binnen de Europese Commissie. Aan de ene kant staat Margrete Vestager. Zij wees onlangs in haar speech voor de Tweede Kamer nog op het belang van een sterk ethisch kader voor AI en het belang van menselijke controle. Aan de andere kant staat Thierry Breton, tot voor kort CEO van IT-bedrijf Atos. Hij stelt zich erg terughoudend op als het om bindende regels gaat. 

Volgens Breton zijn we op vlak van kunstmatige intelligentie verwikkeld in een race met de VS en China. Maar een ‘race’ met de digitale totalitaire staat in China of het surveillancekapitalisme in de VS is een riskante voorstelling van zaken. Als we Europese waarden zoals privacy, duurzaamheid en sociale rechten serieus nemen, zetten we die niet op het spel omdat we anders de ‘wedstrijd’ zouden verliezen.

Het dilemma dat achter deze tweespalt schuilgaat: gaan we reguleren om de risico’s voor mensen te beperken, innovatie te sturen en laten we ethische toepassingen bij twijfel niet op de markt toe? Of laten we de markt zoveel mogelijk vrij om zich te ontwikkelen en proberen we achteraf in te grijpen als het nodig is? 

Ik ben ervan overtuigd dat we de ontwikkeling van kunstmatige intelligentie niet aan de markt alleen kunnen overlaten. Kunstmatige intelligentie kan zowel worden ingezet voor de ontwikkeling van autonome wapens én voor de efficiëntere opwekking en verdeling van hernieuwbare energie; voor betere medische diagnoses én voor automatische beurstransacties die het financieel flitskapitalisme verder versterken. We weten al lang dat technologie niet neutraal is. 

Voorzorgsprincipe

We moeten ervoor zorgen dat kunstmatige intelligentie ons helpt om de grote vraagstukken van deze tijd op te lossen, in plaats van nieuwe problemen te creëren. Dit doen we door het voorzorgsprincipe voorop te stellen en de mogelijke langetermijnimpact op ethisch, sociaal en milieuvlak mee te nemen in een vroege fase van de ontwikkeling van nieuwe technologieën. Zo sturen we deze technologische revolutie in de juiste richting. Krachtige regels op ethisch vlak voor kunstmatige intelligentie zorgen ook voor wettelijke zekerheid en een stabiel investeringsklimaat. Een actieve industriepolitiek die inzet op toepassingen die goed zijn voor mens en planeet is hoe een succesvolle Europese benadering van kunstmatige intelligentie er voor mij moet uitzien. 

Dit is nou net niet de positie die Nederland tot nu toe inneemt in het debat over kunstmatige intelligentie. Het kabinet zegt dat de mens centraal moet staan bij de ontwikkeling van kunstmatige intelligentie, maar bepleit tegelijkertijd bij de Europese Commissie een ‘learning approach’ waarbij tijdens de ontwikkeling van de technologie wordt gemonitord en er dus pas later wordt gekeken of regelgeving nodig is. Ik vrees dat we ons met deze houding te veel uitleveren aan de goodwill van bedrijven die uiteindelijk winsten boven maatschappelijk belang stellen.  

Hoe gaan we slim om met kunstmatige intelligentie? | GroenLinks

GroenLinks GroenLinks Rotterdam Kralingen-Crooswijk 19-02-2020 00:00

Kunstmatige intelligentie, artificial intelligence, of simpelweg AI is hot. De berichten met daarin de nieuwste innovaties die ons leven makkelijker maken, het fileprobleem oplossen of de klimaatcrisis aanpakken, vliegen je om de oren. Toepassingen op basis van kunstmatige intelligentie zijn geen toekomstmuziek. Ze zitten vandaag al in de vertaalapp in onze smartphone en de slimme thermostaat in onze woning. Kunstmatige intelligentie is er en gaat niet weg.

Taken en beslissingen worden steeds meer uitgevoerd door zelflerende machines die niet altijd onder goede menselijke controle staan. Dat AI ook risico’s met zich meebrengt, is echter de laatste jaren duidelijk geworden. Deze technologieën lijken neutraal omdat ze de subjectieve menselijke factor uitsluiten in hun beslissingen. Echter, heel wat vooroordelen en discriminatie zijn ingebakken in de datasets op basis waarvan beslissingen worden genomen.

Apple kwam in opspraak toen bleek dat er systematisch hogere limieten werden toegestaan aan mannen dan aan vrouwen bij de creditcard die het bedrijf vorig jaar lanceerde. De Nederlandse overheid werd teruggefloten door de rechter die oordeelde dat het Systeem Risico Indicatie (SyRI), dat wordt gebruikt om uitkeringsfraude op te sporen, in strijd is met het Europees Verdrag voor de Rechten van de Mens en de privacywet. Van digitale burgerrechtenorganisatie Bits of Freedom kreeg het systeem eind vorig jaar al de Big Brother award. Zij oordeelden dat door koppeling van verschillende datasets en geheime algoritmes buurten worden gestigmatiseerd, en personen tot verdachte worden gemaakt zonder dat zij de mogelijkheid hebben hiertegen in verweer te gaan. Ontslagen door een geautomatiseerd systeem

Kunstmatige intelligentie kan ook een grote impact hebben op de relatie tussen werknemer en werkgever. Afgelopen zomer liet Amazon in enkele Amerikaanse magazijnen werknemers ontslaan door volledig geautomatiseerde AI-systemen. Daarbij stuurde het systeem de minst productieve werknemers automatisch hun ontslagbrief. Ook de prestaties van de maaltijdbezorgers in onze steden worden constant gemonitord, ze concurreren met elkaar en hebben geen menselijk contact met hun werkgever. 

Als consument worden we geconfronteerd met het feit dat de algoritmes een zwarte doos zijn waar we niet in kunnen kijken. De prijzen van producten in advertenties en in webshops kunnen variëren, afhankelijk van het profiel van wie er naar kijkt. Het is vaak onduidelijk of je met een chatbot of een echt persoon van de klantendienst aan het praten bent. Manipulatie ten koste van de consument ligt op de loer. Tenslotte is er ook onduidelijkheid over de aansprakelijkheid en veiligheid van slimme producten: ligt die bij de ontwikkelaar van het product of bij de ontwikkelaar van het algoritme?

No-brainer voor Europa

De vraag is hoe de Europese Unie zich tot dit vraagstuk moet verhouden. We hebben één interne markt waarin producten (digitaal of fysiek) vrij verkocht kunnen worden. En als markt van 450 miljoen consumenten kunnen we beter samen optrekken tegen de techgiganten als Amazon en Facebook. Dat we kunstmatige intelligentie ook op Europees niveau moeten reguleren is een no-brainer.

Ursula von der Leyen, de voorzitter van de de Europese Commissie, beloofde eerst om in de eerste honderd dagen van haar mandaat met wetgeving te komen om ‘de menselijke en ethische implicaties van kunstmatige intelligentie’ te beheersen. Die ambitie is nu alweer teruggeschroefd. Hoe sterk het regelgevend wordt, is nog voer voor discussie. Woensdag presenteerde de Europese Commissie wel haar plannen op vlak van kunstmatige intelligentie in de vorm van een zogenaamd witboek.

Hierin staan verschillende opties voor Europese regels over kunstmatige intelligentie, waarbij een opdeling wordt gemaakt tussen toepassingen met hoge en lage risico’s.

Een vrijwillig label voor toepassingen met een ’laag risico’. Het aanpassen van bestaande regels voor productveiligheid en -aansprakelijkheid om ook producten en diensten op basis van kunstmatige intelligentie te dekken. Nieuwe regelgeving voor toepassingen met ‘hoge risico’s’ met onder andere voorschriften op vlak van menselijk toezicht en transparantie. Vestager vs Breton

Er lijken nog steeds verschillende visies te bestaan binnen de Europese Commissie. Aan de ene kant staat Margrete Vestager. Zij wees onlangs in haar speech voor de Tweede Kamer nog op het belang van een sterk ethisch kader voor AI en het belang van menselijke controle. Aan de andere kant staat Thierry Breton, tot voor kort CEO van IT-bedrijf Atos. Hij stelt zich erg terughoudend op als het om bindende regels gaat. 

Volgens Breton zijn we op vlak van kunstmatige intelligentie verwikkeld in een race met de VS en China. Maar een ‘race’ met de digitale totalitaire staat in China of het surveillancekapitalisme in de VS is een riskante voorstelling van zaken. Als we Europese waarden zoals privacy, duurzaamheid en sociale rechten serieus nemen, zetten we die niet op het spel omdat we anders de ‘wedstrijd’ zouden verliezen.

Het dilemma dat achter deze tweespalt schuilgaat: gaan we reguleren om de risico’s voor mensen te beperken, innovatie te sturen en laten we ethische toepassingen bij twijfel niet op de markt toe? Of laten we de markt zoveel mogelijk vrij om zich te ontwikkelen en proberen we achteraf in te grijpen als het nodig is? 

Ik ben ervan overtuigd dat we de ontwikkeling van kunstmatige intelligentie niet aan de markt alleen kunnen overlaten. Kunstmatige intelligentie kan zowel worden ingezet voor de ontwikkeling van autonome wapens én voor de efficiëntere opwekking en verdeling van hernieuwbare energie; voor betere medische diagnoses én voor automatische beurstransacties die het financieel flitskapitalisme verder versterken. We weten al lang dat technologie niet neutraal is. 

Voorzorgsprincipe

We moeten ervoor zorgen dat kunstmatige intelligentie ons helpt om de grote vraagstukken van deze tijd op te lossen, in plaats van nieuwe problemen te creëren. Dit doen we door het voorzorgsprincipe voorop te stellen en de mogelijke langetermijnimpact op ethisch, sociaal en milieuvlak mee te nemen in een vroege fase van de ontwikkeling van nieuwe technologieën. Zo sturen we deze technologische revolutie in de juiste richting. Krachtige regels op ethisch vlak voor kunstmatige intelligentie zorgen ook voor wettelijke zekerheid en een stabiel investeringsklimaat. Een actieve industriepolitiek die inzet op toepassingen die goed zijn voor mens en planeet is hoe een succesvolle Europese benadering van kunstmatige intelligentie er voor mij moet uitzien. 

Dit is nou net niet de positie die Nederland tot nu toe inneemt in het debat over kunstmatige intelligentie. Het kabinet zegt dat de mens centraal moet staan bij de ontwikkeling van kunstmatige intelligentie, maar bepleit tegelijkertijd bij de Europese Commissie een ‘learning approach’ waarbij tijdens de ontwikkeling van de technologie wordt gemonitord en er dus pas later wordt gekeken of regelgeving nodig is. Ik vrees dat we ons met deze houding te veel uitleveren aan de goodwill van bedrijven die uiteindelijk winsten boven maatschappelijk belang stellen.  

Zie je content die volgens jou niet op deze site hoort? Check onze disclaimer.