TO BE OR NOT TO BE

In mijn boek "Mens versus Machine" behandel ik een aantal themas die relevant zijn in het kader van AI. Deze themas hebben als doel de huidige angst die enkele mensen hebben rond algoritmes aan de hand van voorbeelden weg te nemen. Natuurlijk is een boek steeds beperkt in aantal paginas. Daarom heb ik beslist het boek aan te vullen met een blog.

Mijn blog kreeg de titel "To be or not to be?". Op de vraag "Wat is intelligentie?" bestaat namelijk nog geen éénduidige definitie. Aan jullie dus de vraag of je onderstaande voorbeelden intelligent of niet intelligent vinden.

Heb je ook een leuk voorbeeld gelezen of gehoord rond de themas in het boek? Laat het gerust weten in ruil voor eeuwige roem in deze blog: miekedk@hotmail.com

Oktober 2020: GPT-3 is humoristisch ... maar slaagt nog steeds niet in Turing test van 1950

Thema's in het boek: #Turing test, #GPT-3, #Misleidende AI

In 1950 van de vorige eeuw stelde Turing de zogenaamde "Turing-test" voor. Zo zou, volgens Turing alvast, een machine intelligent zijn wanneer ze erin zou slagen om tijdens een gesprek een mens te misleiden. In de zomer van 2020, dus 70 jaren later, kwam GPT-3 met veel furore op de markt. Het is een AI-tekstgenerator van de Amerikaanse onderzoeksinstelling OpenAI dat met zijn 175 miljard parameters erg krachtig is (https://openai.com/blog/openai-api/).

In de aflevering "Onze stokpaardjes" van Klöpping en Pfauth (pfauth.com/podcast/) over de ontwikkelingen in media en technologie, laten beide heren fragmenten van hun gesprekken lezen aan het algoritme. Het algoritme levert, op basis van deze input, nieuwe gesprekken op in naam van het duo. Eerlijk gezegd, het is echt verrassend hoe goed GPT-3 in staat is de specifieke dynamiek van hun gesprekken aan te leren!

Echter, door het ontbreken van kennis over de echte betekenis van verschillende woorden, levert het wel degelijk leuke en entertainende dialogen op, maar faalt het algoritme in de Turing test van 1950. De betoverende grootvader die uit de lucht viel ... kan namelijk geen astronaut zijn, want die bestonden in die tijd simpelweg nog niet. De "context" of kennis bij de gebruikte woorden en het bijhorende redeneervermogen om een inhoudelijk correcte dialoog te voeren, is ook in 2020 nog niet in GPT-3 aanwezig. Hier wint dus de mens.

Datum: Oktober 2020

November 2020 - De fun maar ook het gevaar van generative adversarial networks (GANs)

Onderzoekers op het gebied van artificiëlle intelligentie hebben een nieuwe vriend: het "generative adversarial network" (GAN). Deze nieuwe technologie interessant is om automatisch afbeeldingen te creëeren waarmee we onze algoritmen kunnen trainen of om leuke Halloween-plaatjes te maken met één klik.

De keerzijde echter is dat GAN's het gemakkelijker maken dan ooit om hoaxes, gemanipuleerdes video en vervalste spraakclips te maken. In mijn opinie denk ik zelfs dat, als ze niet goed worden begrepen, GAN's één van de gevaarlijkste innovaties zijn AI. Innovaties die dringend wat meer "ethiek" nodig hebben vanaf de ontwerpfase.

In mijn boek vergelijk ik de huidige tegenreacties op GAN's met wat in de biologie wordt gedefinieerd als de "Red Queen hypothese". Deze hypothese stelt dat soorten zich voortdurend moeten aanpassen, evolueren en vermenigvuldigen om te kunnen overleven in hun strijd tegen steeds evoluerende tegengestelde soorten. Alleen, zouden wij als mens niet de meest intelligente soort moeten zijn en eigenlijk gewoon samen moeten evolueren?

MakeMeAZombie.com

November 2020: Wie van de volgende sneeuwmannen zal mogelijk de weg oversteken?

Als ik je de vraag stel "Welke van de volgende sneeuwmannen zal mogelijk de weg oversteken?", dan zal je dit een domme vraag vinden. Een 6-jarige kan deze vraag zonder enige twijfel correct beantwoorden. Maar wist je dat commerciële beeldherkenningssystemen nog steeds moeite hebben om het antwoord juist te krijgen? Vraag je jezelf dan misschien af ​​of de grote hoeveelheid gegevens die we elke dag genereren dit probleem dan niet zal oplossen op termijn? Neen. Helaas zullen in onze zoektocht naar "betrouwbare AI" deze nieuwe aanvullende gegevens de uitdaging slechts gedeeltelijk oplossen. Hoewel de huidige AI-systemen indrukwekkende vooruitgang hebben geboekt in domeinen variërend van beeldherkenning tot taalverwerking, maken hun gebrek aan een solide basis van 'gezond verstand' hen vatbaar voor onvoorspelbare en onmenselijke fouten. Het aanleren van kennis over de eigenschappen van objecten, dieren, andere mensen en de samenleving in het algemeen, en het leren toepassen van deze kennis en concepten op een flexibele manier in nieuwe situaties, maakt deel uit van onze standaard opvoeding. In AI moet deze uitdaging echter nog opgelost worden om de acceptatie van onze geautomatiseerde systemen te vergroten. (https://lnkd.in/dNkRycR)