Les 4: zijn robots gevaarlijk?

Zijn robots gevaarlijk?
1 / 12
next
Slide 1: Slide
FilosofieMiddelbare schoolvwoLeerjaar 1

This lesson contains 12 slides, with interactive quizzes, text slides and 2 videos.

time-iconLesson duration is: 50 min

Items in this lesson

Zijn robots gevaarlijk?

Slide 1 - Slide

Spoorboekje
1. Robotregels
2. Nick Bostrom: het gevaar van superintelligentie
3. Gaan robots de wereld overnemen?     

Slide 2 - Slide

Slide 3 - Video

Welke regels zou je in een computer stoppen, zodat de computer geen dingen gaat doen die slecht zijn?
Denk aan het volgende: zorg dat de regels elkaar niet tegenspreken en maak een volgorde van belangrijke naar minder belangrijke regels

Slide 4 - Open question

1. Robotregels
- Isaac Asimov (1920-1992): romanschrijver
- I, Robot (1950)
- De drie wetten van de robotica:

1. Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
2. Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
3. Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Slide 5 - Slide

Hexspoortje, Hexspoortje,
Hexspoortje toch...
- Wat is dit voor een slechte les (boeh! boehhhh!), want:

1. Je doet een beetje alarmistisch over robots?!?
2. Je haalt allemaal voorbeelden uit films en literatuur, maar filosofie gaat toch over argumenten?!?
3. We kunnen helemaal niet weten wat er in de toekomst gebeurd?!?
4. Je hebt zelf gezegd dat robots nu helemaal niet meer zo werken, dat je er regels instopt. Want robots kunnen nu zelf leren. Dus wat we net hebben bedacht, dat werkt helemaal niet.

Wat een flutles is dit zeg! (Boeh! Boehhhhh!!!!)

Slide 6 - Slide

Nick Bostrom
- Nick Bostrom (1973): filosoof
- Boek: Superintelligence: paths, dangers, strategies (2014)
- Super intelligentie: robots die veel slimmer zijn dan mensen. Wordt dat gevaarlijk?
- Open brief van Future of Life: AI wordt heel gevaarlijk en we hebben overheidsregulering nodig.
- Transhumanist: mensen zijn moreel verplicht om zichzelf te verbeteren door middel van wetenschappelijke uitvindingen 

Slide 7 - Slide

Nick Bostrom
5 vragen bij het filmpje:

1. Waarom denkt Bostrom dat het waarschijnlijk is dat er machinale super intelligentie zal zijn in de nabije toekomst? Gebruik in je antwoord het begrip 'intelligentie explosie'.
2. Welke gevolgen zou deze intelligentie explosie volgens Bostrom hebben?
3. Welke oplossingen voor deze gevolgen noemt Bostrom? En waarom heeft hij geen vertrouwen in deze oplossingen? En wat kunnen we leren van dat deze oplossingen niet werken?
4. Wat is volgens Bostrom het beste wat te kunnen doen om te zorgen dat super intelligentie geen gevaar voor de mens gaat vormen?
5. Super intelligentie bestaat nog niet. Waarom is het volgens Bostrom dan belangrijk om erover na te denken?

Slide 8 - Slide

Heeft Bostrom gelijk dat machinale super intelligentie heel gevaarlijk kan worden? Geef tenminste 1 argument tegen dat robots gevaarlijk worden

Slide 9 - Open question

Slide 10 - Video

Ouderenzorg is duur. Vinden jullie het een goed idee dat we meer zorgrobothondjes inzetten?

Slide 11 - Open question

Volgende les
Deze lessen hebben besproken:
- De drie wetten van de robotica van Asimov
- De argumenten van Bostrom, dat super intelligentie gevaarlijk zou kunnen worden.
- Tegenargumenten bij de stelling dat robots in de toekomst gevaarlijk zouden kunnen worden.
- En eventueel: robotica in de zorg

Volgende les:
- Worden mensen robots?

Slide 12 - Slide