Raketbouwer Elon Musk waarschuwde al: kunstmatige intelligentie vormt waarschijnlijk de grootste bedreiging voor ons bestaan. Met de technologie zouden we demonen oproepen die we niet zullen kunnen bezweren. Ook sterrenkundige Stephen Hawking en andere wetenschappers slaan alarm. Maar een door onszelf gecreëerd monster dat de mensheid vernietigt – daar kun je veel vragen bij stellen.
Wie waarschuwt waarvoor?
Elon Musk, de man achter het ambitieuze ruimtebedrijf SpaceX en de elektrische auto van Tesla Motors, zei dat we heel voorzichtig moeten zijn met kunstmatige intelligentie. Als hij moet raden wat de grootste bedreiging is voor ons bestaan, dan is het waarschijnlijk artificial intelligence. Daarnaast schreef Stephen Hawking in mei samen met drie andere hoogleraren in The Independent dat als we slagen in het scheppen van A.I., dan zou dat de grootste gebeurtenis zijn in de geschiedenis van de mens. Helaas zou het ook de laatste kunnen zijn, tenzij we leren hoe we risico’s moeten mijden.
Stephen Hawking gaat niet in op A.I. als mogelijke nieuwe levensvorm, maar stelt zich een wetenschappelijke explosie voor. Je zou je kunnen voorstellen dat dit soort technologie de financiële markten te snel af is, beter wordt in uitvinden dan menselijke onderzoekers, beter wordt in het manipuleren van mensen dan menselijke leiders en dat het wapens gaat ontwikkelen die we niet eens kunnen begrijpen. Waar de impact van A.I. op de korte termijn gaat over wie er de controle heeft, gaat de impact op lange termijn erover of ze überhaupt nog gecontroleerd kan worden.
Hoe ver zijn we met kunstmatige intelligentie?
In de beginjaren van de studie naar A.I. is er veel onderzoek gedaan naar het ontwikkelen van een vorm van kunstmatige intelligentie die evengoed of beter zou presteren dan de mens. Na tegenvallende resultaten werden de doelstellingen bescheidener: eerst maar eens een computer leren schaken. Met dat beperkte kunstmatige intelligentie is het de afgelopen twee decennia snel gegaan. Een greep:
- Smartphones kunnen spraak verstaan, terugpraten en een route berekenen;
- A.I. voor financiële markten leest het nieuws op zoek naar informatie die van belang is voor de beurs en handelt zelf;
- Gehoorapparaten kunnen spraak van achtergrondgeluiden ontdoen;
- Er was een enorm rekencentrum voor nodig om een computer het cryptische spel Jeopardy! te laten winnen van een mens;
- Het A.I.-programma DART berekende de logistiek van Operation Desert Storm, waarmee dertig jaar aan investeringen in A.I. zich volgens DARPA in een klap hadden terugverdiend.
Verder zijn er vormen van A.I. die meer zijn dan software, zoals robots. Enkele toepassingen en recente ontwikkelingen:
- De zelfrijdende auto van Google leert zichzelf met elk ritje beter hoe hij een bocht optimaal neemt;
- De robot MDARS bewaakt Amerikaanse nucleaire installaties;
- De MARCbot helpt in Irak bij het onschadelijk maken van explosieven;
- De militaire pakezel BigDog blijft in balans als je hem een schop verkoopt;
- Een robot van Cornell University weet als hij wordt aangezet nog niet dat hij vier poten heeft, maar leert zichzelf binnen minuten een voorstelling van zichzelf maken en vervolgens te kruipen en te lopen.
Veel van bovengenoemde successen zijn te danken aan de ontwikkeling van de kunstmatige zenuwnetwerken waar filosoof Nick Bostrom superintelligentie uit voort ziet komen. Deze vorm van A.I. kan zichzelf leren patronen te herkennen in diffuse input, bijvoorbeeld een handgeschreven tekst, een geluidsopname of videobeelden. Een simpel brein eigenlijk.
Waarom slaan de wetenschappers juist nu alarm?
Terwijl A.I.-wetenschappers afgelopen decennia steeds geavanceerdere kunstmatige zenuwnetwerken ontwierpen, brachten neurowetenschappers alsmaar gedetailleerder in kaart hoe het menselijk brein werkt. Beide vakgebieden leren nu van elkaar. Daarnaast brengen robotica, nano- en biotechnologie de digitale en fysieke wereld gestaag dichter bij elkaar. Sinds 1991 raakt alles op de wereld steeds meer verbonden door het internet. Dit alles levert een scala aan nieuwe mogelijkheden op voor digitale techniek. Een nieuwe generatie A.I.-wetenschappers bijt zich nu vast in die aloude, enorme uitdaging: het creëren van technologie die kan leiden tot het ontstaan van Algemene A.I.
Hoe slimmer machines worden, hoe groter de stappen zijn die ermee kunnen worden gezet. Wellicht speurt een daarvoor geoptimaliseerde vorm van A.I. straks met nanobots in ons lichaam naar kanker – waarmee het meteen het menselijk lijf in kaart brengt, wat weer allerlei nieuwe mogelijkheden biedt. Of leert A.I. zichzelf straks niet alleen schietspellen spelen maar ook echte wapens bedienen. Zolang de mens de uiteindelijke controle heeft, betekent dat niet het einde van de wereld. Maar door delen van het brein te simuleren, dragen bedrijven de verantwoordelijkheid steeds verder over aan die machine zelf.
Bestaat er al een vorm van kunstmatige intelligentie die in staat is zelfstandig de mensheid te vernietigen?
Er bestaat in elk geval een specifieke vorm van kunstmatige intelligentie die in staat is om mensen te herkennen en te vernietigen. De Britse drone Producent BAE Systems over Taranis.Taranis heeft in theorie geen menselijke tussenkomst meer nodig om een doelwit te selecteren en uit te schakelen. Hoe ontwikkel je zo snel mogelijk een nog beter wapen? Een A.I. die is geoptimaliseerd om wapens te begrijpen, kan dat als bedrijven in hun missie slagen straks misschien sneller dan een mens. Dan gaan we richting het scenario waar Hawking voor waarschuwt: dat er wapens komen die mensen niet meer kunnen begrijpen.
Maar wil kunstmatige intelligentie ons vernietigen?
Dat is, stellen veel A.I.-wetenschappers, de verkeerde vraag: het gaat erom of kunstmatige intelligentie mensen niet wil vernietigen. Stel dat een zelflerende en zelfoptimaliserende vorm van A.I. de opdracht krijgt zoveel mogelijk cijfers achter de komma van het getal pi te berekenen. Zonder enige kwade wil kan deze machine berekenen dat zij de taak het beste volbrengt als zij eerst zoveel mogelijk rekenkracht genereert, bijvoorbeeld door zoveel mogelijk computers die zij via het internet kan bereiken te hacken en te laten meedraaien in de berekeningen. Als de machine zichzelf leert wat je kunt met geld of energie of politieke macht, dan kan ze ook proberen om die in handen te krijgen of te manipuleren. In de meest fantasierijke scenario’s (zie Superintelligence van Nick Bostrom) ontwikkelt een op deze manier losgebroken A.I. vervolgens nanotechnologie om atomen uit menselijke lichamen te kunnen hergebruiken voor energie of constructie van nog meer rekenkracht. En voilà: de mensheid is vernietigd.
Maar dan geef je toch de opdracht dat bij het berekenen van het getal pi géén menselijk leed mag worden veroorzaakt? Het probleem daarvan is dat iedere oplossing waarmee je machine komt, mogelijk niet degene is die je in gedachten had: ‘Een supergeoptimaliseerde machine die als grootste doel heeft om het menselijk leed te beperken, zou, lijkt me, een manier vinden om alle mensen te doden zonder pijn. Geen mensen, geen menselijke pijn,’ schreef Peter Norvig in 2012. Norvig is hoofdonderzoeker bij Google. De boodschap: als A.I. niet is uitgerust met de expliciete opdracht om de mensheid in haar waarde te laten, dan zal die zich ontwikkelen zonder rekening te houden met de mensheid whatsoever. Om dit probleem op te lossen, moet er eerst een antwoord komen op de nu nog open vraag hoe je een zeer autonome vorm van A.I. (die bijvoorbeeld het internet op kan om bij te leren) een doel geeft dat deze onmogelijk verkeerd kan interpreteren.
Waarom voelt het zo onwaarschijnlijk?
Er wordt al eeuwen gesuggereerd dat de mensheid binnenkort vergaat. Door zevendedagsadventisten, door media die een spannende invalshoek zochten voor een ‘Could a super collider destroy the world? Proposed upgrade could create black holes and ‘strange matter’, warn experts’ verhaal over de CERN. Bovendien wordt de belofte dat er binnenkort een computer komt die slimmer is dan de mens al sinds de jaren veertig gedaan. En is die belofte nog nooit uitgekomen. En dan is er de paradox dat elke vorm van kunstmatige intelligentie, zodra die er is, door mensen niet langer als werkelijke intelligentie wordt ervaren. Een potje schaken winnen, een smartphone die je verstaat en terugpraat: zodra een computer het kan en de techniek een toepassing vindt lijkt het weinig meer voor te stellen.
Ben jij bang voor A.I. in de toekomst? Of denk je dat we ons zorgen maken om niks? Laat het weten in de reacties.
Bron: De Correspondent
Nowadays the internet is sharing so quickly with knowledge that it is also the danger. Technology is very nice but we have to keep in mind that we can also control it.
But how can we control that? We can not win chess computers. We must stop AI and Bigdata, which can only lead to the downfall of man. But why? If we map the people's knowledge so accurately, the errors will be digitally detected. That means that we can not make a mistake in any way. Our humanity can not keep up with the speed of devices.
We need to focus more on hydrogen and generate energy and the storage thereof with, for example, silicon batteries