In deze achtste tech-podcast bespreekt ik met Michael van Wetering, expert innovatie bij Kennisnet, belangrijke tech-ontwikkelingen uit het nieuws. In deze aflevering gaan wij in gesprek over de noodzaak van democratisch toezicht op technologiebedrijven, de verantwoordelijkheid van platformpartijen en (zelf)uitlegbare kunstmatige intelligentie.
Democratisch toezicht op technologiebedrijven
De grote internetplatforms beloofden een democratiserende kracht te zijn voor onze maatschappij. Intussen is duidelijk dat zijzelf nu vaak monopolisten zijn met grensoverstijgende, ongecontroleerde macht. Hoe krijgen we deze technologiebedrijven onder onafhankelijk toezicht? Hoe organiseren we ook hiervoor democratische verantwoording nu onder andere onze zorg en het onderwijs steeds afhankelijker worden van technologie? We bespreken enkele hoopgevende ontwikkelingen in zowel de VS als de EU.
Genoemde bronnen:
- Uit NRC: Technologie democratie (marietje schaake)
- Ontwikkelingen rond privacy shield, Max Schrems: techbedrijven maken geen aanstalten data in EU op te slaan
- Uit MIT technology review: verdergaande EU wetgeving in aantocht, gebruiker eigenaar van zijn data
- Concreet voorstel van NL/FR t.a.v. toezicht op platforms
- Cory Doctorow: How to Destroy Surveillance Capitalism
De verantwoordelijkheid van platforms
Op de platforms van bijvoorbeeld Facebook, Twitter en Google’s Youtube kan eenieder zijn eigen content publiceren. Volgens artikel 230 van de Amerikaanse communications decency act zijn die platforms niet verantwoordelijk voor de geplaatste content. De controverse daarover neemt snel toe. Wat is de achtergrond van artikel 230? Waarom zien we platformpartijen nu toch maatregelen nemen? We bespreken de ontwikkelingen en de impact ervan ook op het Nederlands onderwijs.
Genoemde bronnen:
- Meer uitleg over artikel 230 uit de Communications Decency Act
- Toelichting Cory Doctorow op de aanleiding en controverse rond artikel 230
(Zelf)uitlegbare kunstmatige intelligentie
Kunstmatige intelligentie (AI) wordt steeds vaker toegepast, ook in het onderwijs. Tegelijkertijd intensiveert de discussie over de noodzakelijke kaders om deze technologie veilig te kunnen gebruiken. Is het nodig om het algoritme van de AI te begrijpen? Of willen we vooral de afweging kunnen nagaan om de eindverantwoordelijkheid te kunnen nemen? En wat is zelfmonitorende AI?
Genoemde bronnen:
- AI moet geen pijn doen, o.a. over zelfmonitorende AI
- Verdiepend stuk op Kennisnet: Artificial intelligence verantwoord inzetten: laat de algoritmen zichzelf uitleggen