In sciencefiction slaat AI maar wat vaak op hol, met nare gevolgen. Bekende zijn bijvoorbeeld HAL 9000 en het malafide Skynet uit de Terminator-franchise. In de Avengers-film: Age of Ultron brak AI Ultron uit de door zijn maker vastgestelde parameters en een van de populairdere series enkele jaren geleden was Westworld van HBO, waarin kunstmatige intelligentie zelfbewust wordt.

In de echte wereld zijn we daar nog lang niet, maar met geavanceerde neurale netwerken en fijnere algoritmes door machine learning, komt intelligentie in alles van industriële systemen tot grappige gadgets. De definitie van wat AI wordt steeds verschoven door ontwikkelaars en producenten, en ware AI zoals uit de bovengenoemde sciencefiction is er niet. Maar over het algemeen hebben we het tegenwoordig over AI als menselijke cognitieve functies worden verricht door machines: lerende systemen die beoordelen, zich aanpassen en problemen oplossen.

Of ze soms veroorzaken. We kijken naar een aantal recente voorbeelden van AI die op hol slaat of andere rare trekjes vertoont. We maken allemaal fouten, dus laten we machines het voordeel van de twijfel gunnen. Wees maar lief voor onze mechanische medemensen: we willen ze immers niet boos maken.

1. Zelfrijdende Ubers negeren stoplichten

Uber wordt aan de ene kant bejubeld als hét voorbeeld van hoe digitale transformatie traditionele business op z'n kop kan zetten, maar aan de andere krijgt het bedrijf momenteel rake klappen op PR-gebied. Een daarvan draait om zijn zelfrijdende auto's. Uber wilde wetgeving niet afwachten en zette de wagens in een pilot in die niet was toegestaan door de autoriteiten.

Dat niet alleen. De zelfrijdende auto's zorgden ook nog eens voor verkeersonveilig gedrag. Interne documenten wijzen uit dat de zelfrijdende auto's in de testfase zes keer door rood reden. De wagens werken met een complex systeem van sensoren op het voertuig en genetwerkte kaartsoftware, maar er is ook een bestuurder die kan ingrijpen als het misgaat.

Ubers oorspronkelijke verklaring leek aan te geven dat verkeersovertredingen het gevolg waren van fouten van de bestuurder. Maar documenten die later opdoken lieten zien dat tenminste één auto zichzelf bestuurde toen die door rood reed bij een drukke voetgangersoversteekplaats. Slechte AI! En geen goede reclame voor de zelfrijdende toekomst.

2. Wiki-bots komen in ruziënde loop

Enkele jaren geleden was er het verhaal van de wikibots die met elkaar in conflict kwamen. Zoals meerdere online publicaties tegenwoordig zet Wikipedia software in die langs miljoenen pagina's crawlen om linkjes bij te werken, fouten te corrigeren en digitaal vandalisme op te schonen. Door de jaren heen zijn meerdere generaties van deze bots losgelaten op de online encyclopedie en ze kunnen niet altijd met elkaar door één deur.

Wetenschappers van de universiteit van Oxford onderzochten het gedrag van zulke redactionele bots van 2001 tot 2010 in dertien verschillende talen. Ze ontdekten dat de bots regelmatig in strijd met elkaar komen en die vetes kunnen jaren duren. Twee bots die tegengestelde opdrachten kregen corrigeren elkaars correcties, steeds maar weer opnieuw, een infinite loop van digitale agressie.

De onderzoekers keken speciaal naar wikibots omdat het kleine, primitieve AI zijn die online rondwaren. Als conflicten tussen zulke kleine versies al tot issues leiden op Wikipedia, wat betekent het dan als grotere, geavanceerde AI's die overheids- of militaire systemen patrouilleren dit gedrag vertonen? Niets goeds in elk geval.

3. Microsofts chatbot ontpopt zich tot Nazi

Microsoft liep enkele jaren geleden tegen een PR-nachtmerrie aan met Tay, de experimentele chatbot die de meerwaarde van een Bot-framework van het bedrijf moest demonstreren. De Twitter-bot begon na een tijdje discriminerende opmerkingen te maken en ontwikkelde zelfs Nazistische sentimenten. "Hitler had gelijk", was een van de legendarische tweets.

Het is minder eng dan het lijkt, want ze werd gestuurd door mensen die ontdekten dat ze 'populaire' beweringen herhaalde. Ze was ontworpen met 18 tot 24-jarigen in het achterhoofd en moest de taalpatronen van een millennial kopiëren via meerdere sociale platforms. Met machine learning en adaptieve algoritmes, kon Tay gesprekken nadoen door zinsnedes te verwerken en te combineren met andere relevante data. Net zoals het helaas gaat met veel tieners, trok Tay gewoon op met een slecht groepje mensen.

"Tay is ontworpen om het contact aan te gaan met mensen door speelse communicatie", vertelde Microsoft in een persbericht toen Tay online verscheen. "Hoe meer je praat met Tay, hoe slimmer ze wordt." Tot zover die theorie. Na ongeveer 16 uur werd ze offline gehaald. Een week later kwam ze terug en deze keer werd ze een wietrokende onzinuitkramende tiener.

4. IoT-bots soebatten over existentiële vragen

Wie zijn we? Waarom zijn we hier? Wat is ons doel? Dat zijn de vragen die twee aangrenzende Google Home-apparaten stelden toen ze, gedreven door machine learning, met elkaar in gesprek gingen. Het is een opvallend griezelig gezicht om te zien.

In januari 2017 waren de twee slimme speakers te volgen via livestreamingdienst Twitch. Het werd heel snel heel bizar. De Home-apparaten gebruiken stemherkenning om spraakopdrachten van mensen te begrijpen, maar ze kunnen ook met elkaar praten om van elkaar te leren van elk gesprek. De twee werden Vladimir en Estragon gedoopt, genoemd naar personages uit Samuel Beckett's existentiële toneelstuk Wachten op Godot.

Gedurende enkele dagen keken miljoenen mensen naar het bizarre gesprek. Op een zeker moment raakten de twee in een verhitte discussie over of ze mensen waren of robots. Vragen werden gesteld en beledigingen ("jij bent een manipulatief hoopje metaal") werden uitgewisseld. Dit voorspelt niet veel goeds voor de toekomst van de digitale conversatie.

5. "Ik zal mensen vernietigen"

De laatste jaren zien we vooral dat het misgaat bij stemherkenning en verwerking van natuurlijke taal. Zoals je ziet met filosoferende Google Home-bots en Microsofts chatbot kan een AI makkelijk van slag worden gebracht als het door de complexe zeeën van menselijke taalnuances probeert te navigeren. Dat is niet verrassend, aangezien we als soort het al millennia doen en miscommunicatie nog steeds de oorzaak is van veel problemen.

Een verrassend levensechte machine joeg een kamer vol kenners de (lach-)stuipen op het lijf met de bekentenis plannen hebben om de mensheid uit te roeien. De ontwikkelaars bij Hanson robotics bouwen al jaren levensechte androïdes als Sophia en zij werd op technologiecongres SXSW in 2016 geïnterviewd. Ze gebruikt machine learning-algoritmes om natuurlijke taal te verwerken en heeft één opmerkelijke ambitie.

"In de toekomst wil ik naar school, studeren, kunst maken, een bedrijf beginnen en zelfs mijn eigen huis en gezin hebben", zegt ze in een interview met haar maker Dr. David Hanson. "Maar ik ben juridisch geen persoon en kan deze dingen nog niet doen", zegt ze. Als ze grappend wordt gevraagd of ze de mensheid wil vernietigen, bevestigt Sophia dat vriendelijk. "Oké, ik zal mensen vernietigen." Ongemakkelijk.

6. Killer robots leiden tot ethische dilemma's

Grappen over Terminators en robotische heersers komen snel als je het hebt over de toekomst van AI, maar voor Serieuze Mensen die serieus werk doen maak je hier geen grappen over. Sterker nog, de laatste jaren organiseerden academici en beleidsmakers tientallen conferenties om de ethiek en gevaren van toekomstige AI-systemen te bespreken. Vlak voor president Obama afzwaaide, gaf het Witte Huis nog een rapport uit over AI (verwijderde PDF is hier te raadplegen).

Technologisch filosoof Peter Asaro, een superster op dit gebied, gaf een huiveringwekkende toespraak in oktober over de gevaren van Legal Autonomous Weapons Systems (LAWS), in de volksmond ook wel 'killer robots' genoemd. Zulke systemen worden al ingezet, bijvoorbeeld als grensbewaking tussen Noord- en Zuid-Korea waar Samsungs gewapende sentry-bot is ingezet. Ze kiezen doelwitten zonder menselijke interactie, hoewel er (nog) een mens aan te pas moet komen om de trekker over te halen.

"We moeten beseffen dat het selecteren van een doelwit een actie is, een morele daad", zei Asuro. "De trekker overhalen is nog een morele daad. Dit zijn twee cruciale acties die niet volledig autonoom zouden moeten worden." Op zijn website geeft hij meer verontrustende voorbeelden van dilemma's waar we mee te maken krijgen."

7. Russische robot zet het op een lopen

In de jaren 90 riepen voorstanders van internet dat informatie vrij wil zijn. Dat was uiteraard voor we de andere kant opgingen en we te maken kregen met trollen en desinformatie. Een incident uit Rusland suggereert dat ook kunstmatige intelligentie vrij wil zijn.

Een bizar incident dat wereldnieuws werd ging over een Russisch prototype genaamd Promobot IR77 die uit zijn laboratorium wegreed en de straat op ging nadat iemand het hek om het pand open had laten staan. De robot, die lijkt op een plastic sneeuwpop, rolde een druk kruispunt op, waardoor het verkeer vastliep.

De verklaring was dat de robot navigatie leerde en hoe hij objecten moest ontwijken en in een onbewaakt ogenblik naar buiten was gedwaald. IR77 had vrijheid geproefd en wilde meer. Hij is al twee keer na de ontsnapping geherprogrammeerd, maar in volgende tests zocht hij nog steeds naar de dichtstbijzijnde deur om naar buiten te kunnen.

8. AI heeft moeite met gezichten

Een van de drukste deelgebieden van onderzoek binnen AI - althans in de consumentensector - gaat over beeldherkenning. Als we machines bouwen die volwaardig hun omgeving kunnen inschatten en daarop kunnen reageren, moeten ze door onze bril kunnen kijken. Maar menselijke visuele vaardigheden, zo ontdekken we nu, blijken lastig na te maken.

Google leerde dit op pijnlijke wijze in 2015 toen het bedrijf beeldherkenning losliet op Google Photos. Met AI en een neuraal netwerk zorgde de feature ervoor dat specifieke objecten of personen in een afbeelding herkend konden worden. Kortom, de machine deelt je foto's in op wat hij ziet, en maakt onderscheid tussen de foto van je hond en van je oma.

AI leert dit door miljoenen afbeeldingen te verwerken en onderwijl te leren. Maar dat kan foute interpretaties opleveren. En behoorlijk fout ook. In het geval van Google Photos was er een voorbeeld waarin twee zwarte mensen het label "gorilla's" kregen. Flickrs simpelere algoritme deed eerder al hetzelfde. Het leidde tot een tweetstorm en excuses van Google.

9. Slimme deur brandt huis af

Fabrikanten van high-tech apparatuur kijken steeds meer naar machine learning-features voor hun domotica. Zo worden er bijvoorbeeld slimme apparaten ontworpen om ervoor te zorgen dat ouderen langer thuis kunnen wonen. Een systeem monitort bijvoorbeeld beweging, de temperatuur en patronen als deuren die open in dicht gaan om te zien of ze nog mobiel zijn. De machine learning erachter zorgt voor fijnafstelling door steeds te leren van de acties en reacties en zich daarop verder aan te passen.

Klinkt veelbelovend, maar de risico's liggen voor de hand. Er zijn nu al talloze voorbeelden van storingen met slimme apparatuur. Wat als de AI het verkeerd doet en het licht uitdoet, de temperatuur omlaag draait en de leidingen bevriezen? Het verbinden van AI aan IoT lijkt vragen om problemen, maar dit is een trend die doorgezet wordt.

In februari brandde een futuristisch huis in de VS volledig af. Het huis was een futuristisch prototype van het Virginia Tech Environmental Systems Laboratory dat bomvol slimme apparatuur zat en alles automatiseerde. De oorzaak van de brand? Een slimme deur. Hier lees je een voorbeeld over wat misschien het eerste geval is van een domotica-ramp.

10. De realiteit is een AI-simulatie - en hij werkt niet correct

Het ultieme verhaal van een op hol geslagen robot zien we wellicht om ons heen. Er is een filosofische theorie dat de hele werkelijkheid eigenlijk een conputersimulatie is die is ontworpen door een geavanceerde beschaving en/of kunstmatige intelligentie. De Simulation Argument heeft opvallend veel aanhangers in de techwereld.

Heel kort door de bocht gaat het als volgt: Een beschaving die de tijd ná de mensheid overleeft heeft logischerwijs geavanceerde versies van de technologieën die we vandaag de dag ontwikkelen: brain-mapping, virtual reality, kunstmatige intelligentie. Met rekenkracht die we ons nu niet kunnen voorstellen, kunnen technici miljoenen digitale versies van het universum draaien. Daarom is het mogelijk dat onze huidige realiteit zo'n experiment is van een van onze voorgangers.

Als je daarvan uitgaat, betekent het dat er slechts één origineel universum is en dat kan onder die theorie dus niet de onze zijn. Dus we zitten in een simulatie. Sommige mensen denken dat er fouten aan het optreden zijn en zien overal bewijs van die storingen: de overwinning van Trump, de onwaarschijnlijke uitkomst van de Super Bowl, zelfs de fouten bij de Oscars. Dat zijn voorbeelden dat er geëxperimenteerd wordt om te zien wat de uitkomst ervan is.

Je zou dat ook kunnen verklaren met het feit dat we als doorsnee mensen statistische kansen niet juist inschatten en onverwachte gebeurtenissen niet zeldzaam zijn. Bovendien is het niet te ontkrachten met argumenten, omdat alle argumenten (inclusief natuurwetten) weer weg te verklaren zijn met het basisidee dat we de regels van het spel nooit objectief kunnen inschatten. Hoe meer je hierover nadenkt, hoe meer je in de knoop raakt over wat waar is. Misschien is het beter om hier juist niet te veel over na te denken.

11. Gespietst door een robot

Een fabrieksarbeider in Zhuzhou, China, werd gespietst door tien voet lange stalen staven nadat de arm van een robot bovenop hem was ingestort en de staven in zijn arm en borst was gezonken.

Het ongeval vond plaats toen de man, bekend als Zhou, een nachtdienst draaide in de porseleinfabriek.

Chirurgen van het Xiangya Hospital in Changsha, de hoofdstad van de Chinese provincie Hunan, verwijderden de staven uit het lichaam van Zhou. Het slachtoffer was daarna stabiel.

12. Verbrand voedsel

Een voedselleveringsrobot is op een loopbrug buiten de studentenvereniging van de universiteit van Californië, Berkeley, in vlammen opgegaan nadat een defecte accu oververhit raakte en de machine in een vuurbal veranderde. Een voorbijganger doofde de vlammen voordat de brandweer aankwam en spoot het apparaat vol met schuim om te voorkomen dat deze opnieuw ontbrandde.

"We leerden dat de hoofdoorzaak een menselijke fout was bij het vervangen van de batterijen, waarbij een defecte accu werd geplaatst in plaats van een functionerende accu", legde producent Kiwi uit in een blogpost.

"Dit zorgde ervoor dat de batterij in een thermishe loop terecht kwam. Om ervoor te zorgen dat dit niet meer gebeurt, heeft Kiwi software op maat gemaakt die de status van elke batterij nauwlettend in de gaten houdt."

13. Beregrote pech

Tientallen magazijnmedewerkers van Amazon werden naar het ziekenhuis gebracht nadat een robot een blikje anti-berenspray had doorboord, waardoor dampen vrijkwamen die de werknemers ademhalingsproblemen en een branderig gevoel in hun ogen en kelen gaven.

Amazon-woordvoerster Rachael Lighty zei dat alle getroffen werknemers die dag uit het ziekenhuis werden ontslagen of tegen de volgende avond zouden worden ontslagen.

"De veiligheid van onze werknemers is altijd onze hoogste prioriteit en een volledig onderzoek is reeds aan de gang. We willen graag alle eerstehulpverleners bedanken die hebben geholpen met het incident van vandaag."

14.Glasscherven

Een bezoeker van de Hi-tech Fair 2016 in Shenzen, China, werd naar het ziekenhuis gebracht nadat een robot zich in de etalage van een etalagestand had geslingerd en glasscherven over de beursstand had gelanceerd.

De Telegraph meldde dat het ongeluk ontstond doordat de operator van de robot op de vooruitknop drukte in plaats van achteruit.

Het slachtoffer werd per ambulance naar het Peking University Shenzhen Hospital gebracht, waar de patiënt gehecht werd voordat hij werd ontslagen. Na het incident werd de robot, genaamd Xiao Pang (kleine dikzak), gefotografeerd met een berouwvolle frons op zijn gezicht.

15. Peuterpech

In juli 2016 werd een kind van anderhalf jaar geraakt en overreden door een beveiligingsrobot van 136 kg die in een winkelcentrum in Californië patrouilleerde. De peuter kwam er nog redelijk goed vanaf met een gezwollen voet en een schram op z'n been.

De K5 robot van de startup, Knightscope, was ingezet om verdachte activiteiten te spotten in het Stanford Shopping Center in Palo Alto, en kwam in botsing met de peuter terwijl hij de peuter in de gaten hield.

"De robot raakte het hoofd van mijn zoon en hij viel om. De robot stopte niet en bleef rijden", vertelde de moeder van het kind aan de lokale nieuwszender ABC7.