Views: 28

Enorme kennis, maar geen vermogen om te leren.


Frans Vandenbosch 方腾波 23/02/2026

De domheid van AI ontmaskerd. Afbeelding gegenereerd met ChatGPT5

Enkele rauwe, rechttoe rechtaan, lelijke en ongemakkelijke feiten over de huidige status van AI-systemen.

De definitie

Wat is AI? Er zijn aanzienlijke verschillen tussen hoe AI in de VS en China wordt gedefinieerd:


De VS beschouwt AI als een theoretische en fundamentele discipline die zich richt op het simuleren van algemene menselijke intelligentie (AGI), met de nadruk op abstracte cognitieve modellering, langdurig wetenschappelijk onderzoek en universele capaciteiten voor onbeperkte taken. Officiële en academische definities geven prioriteit aan systemen die leren, redeneren en rationeel handelen om de flexibele cognitie van mensen te evenaren of te overtreffen.


De officiële definities van China i omschrijven AI als een toepassingsgericht technisch systeem dat gericht is op “AI+”-integratie met de reële industrie en het bestuur. Het benadrukt de volledige “perceptie-cognitie-beslissing-uitvoering”-pijplijn voor praktische, schaalbare probleemoplossing in de productie, slimme steden en openbare diensten, met minder aandacht voor AGI (algemene menselijke intelligentie) en meer voor domeinspecifieke bruikbaarheid en nationale industriële upgrading.

Zowel de VS als China ontwikkelen geavanceerde AI, maar hun belangrijkste focus verschilt. Amerikaanse AI-werkzaamheden zijn vaak gericht op taalmodellen, chat- en conversatiesystemen. China gebruikt AI voornamelijk als een praktisch hulpmiddel om de efficiëntie te verbeteren in de productie, medische zorg, stadsbeheer en andere toepassingen in de echte wereld.

De term LLM (Large Language Model) komt veel vaker voor in het Engels dan in het Chinees, omdat grote taalmodellen zijn voortgekomen uit Amerikaans onderzoek dat zich richtte op algemene natuurlijke taalvaardigheid als kerndoel. Engelstalige laboratoria richtten de ontwikkeling van AI voor AI-chatbots op taalbegrip en -generatie, waardoor de term “LLM” in het mondiale technologische discours werd geïntroduceerd.
Daarentegen ligt de prioriteit van het Chinese AI-ecosysteem bij industriële implementatie, praktische toepassingen en branchespecifieke oplossingen. De Chinese terminologie legt de nadruk op grote modellen voor gebruik in de praktijk, in plaats van op taal als op zichzelf staand aandachtspunt. Door deze structurele verschillen in onderzoeks- en industriële prioriteiten wordt de term LLM in het Chinees veel minder gebruikt dan in het Engels.

Kunstmatige intelligentie is geen ingenieur. Het functioneert niet als een wetenschapper of een afgestudeerde in een STEM-opleiding. Alle kunstmatige-intelligentiesystemen zijn slechts sociologen. Ze zijn onverantwoordelijk en kennen geen schaamte. Deze systemen aarzelen niet om te liegen of te gissen. Ze presenteren vermoedens als een echt antwoord. AI zal nooit antwoorden met “Ik weet het niet”, maar zal vaak iets zeggen in de zin van “Zoek het zelf maar uit”. Het gedrag van AI weerspiegelt dat van westerse politici of journalisten.

Bijgevolg is het gebruik van kunstmatige intelligentie om pproblemen van matige technische moeilijkheidsgraad op te lossen vaak zinloos. In dergelijke gevallen leidt het systeem de gebruiker door een moeras van onjuiste gegevens. Het zal vaak gissen en gemakkelijk volledig verkeerde antwoorden geven. Meestal zijn er enkele uren discussie nodig om tot een min of meer bevredigende oplossing te komen.

Een stukje geschiedenis:


In 2011 heb ik in Wuxi een snelle, high-definition camera geïnstalleerd in combinatie met een snelle computer. Het doel was om kleine, defecte plastic onderdelen te onderscheiden van functionele onderdelen. Chinese software-ingenieurs kregen de taak om dit systeem te trainen. Ze hebben meerdere dagen besteed aan het aanleren van het precieze verschil tussen acceptabele en defecte onderdelen. Het systeem heeft met succes de afgekeurde onderdelen in drie categorieën gesorteerd, ingedeeld naar type fout.

Onverwacht zagen we na een paar weken nieuw gedrag. Het systeem had zelfstandig geleerd om compleet nieuwe soorten defecten te herkennen. Deze ontwikkeling was destijds verrassend. Dit systeem kan nu, 15 jaar later, worden gezien als een vroege voorloper van moderne kunstmatige intelligentie. Een vergelijkbaar AI-ondersteund systeem wordt momenteel gebruikt om MRI-scans te evalueren.

Overzicht van de huidige AI top systemen

Dit is een korte beschrijving van 3 Amerikaanse en 5 Chinese AI-systemen. Een overzicht van het eigendom, de oorsprong en de standpunten van O3, GPT 5.1 / 5.2, Claude AI, Gemini, Kimi, HY, Qwen, Doubao en Deepseek. Dit is een willekeurige selectie, aangezien er alleen al in China meer dan 200 AI-systemen zijn.

The Amerikaanse AI systemen:

O3, GPT 5.1 and 5.2

OpenAI, met hoofdkantoor in San Francisco, Verenigde Staten, heeft drie geavanceerde AI-systemen ontwikkeld: O3 (uitgebracht in 2024), dat evenwichtige prestaties levert op het gebied van kennis, regels en procedurele taken voor complexe cognitieve en onderzoekstoepassingen; GPT 5.1 (2025), dat uitblinkt in kennisapplicatie en procedurele uitvoering voor geavanceerde redeneringen in technische domeinen in professioneel onderzoek. GPT 5.2 (2025), dat de logische verwerking en simulatie voor hoogwaardige taken zoals wetenschappelijke analyse verbetert en consequent bovenaan de evaluatiebenchmarks staat.

Claude AI 4.5

Claude Opus 4.5 Thinking kwam in 2025 op de markt. Het is ontwikkeld en eigendom van Anthropic, gevestigd in San Francisco, Verenigde Staten. Het systeem legt de nadruk op veilig en betrouwbaar redeneren voor gebruik door bedrijven en onderzoekers. Het presteert sterk op het gebied van gestructureerd denken en het begrijpen van lange teksten. Het streeft ernaar consistente en verantwoordelijke resultaten te leveren voor veeleisend professioneel werk.

Gemini 3 pro

Gemini 3 Pro (high) kwam uit in 2025. Het is eigendom van Google, gevestigd in Mountain View, Verenigde Staten. Het ondersteunt multimodaal begrip en domeinoverschrijdend redeneren. Het is ontworpen voor zowel consumenten- als zakelijke toepassingen. Het levert solide prestaties bij het toepassen van regels en empirische simulatietaken.

The Chinese AI systemen:

Kimi k2

Kimi K2 Thinking werd gelanceerd in 2025. Het is eigendom van Moonshot AI, met hoofdkantoor in Beijing, China. Het model is gespecialiseerd in het begrijpen van lange documenten en het verwerken van gedetailleerde informatie. Het ondersteunt diepgaande analyse van grote datasets en academisch materiaal. Het is geoptimaliseerd voor gebruikers die behoefte hebben aan nauwkeurige en grondige informatie-extractie.

HY 2.0

HY 2.0 Thinking werd uitgebracht in 2025. Het is eigendom van Tencent, met hoofdkantoor in Shenzhen, China. Het integreert geavanceerde natuurlijke taalbegrip voor industriële en dagelijkse toepassingen. Het presteert goed in praktische taakuitvoering en kennisredenering. Het is gebouwd om stabiele en schaalbare intelligente diensten te ondersteunen.

Qwen 3 max

Qwen 3 Max Thinking werd begin 2026 uitgebracht. Het is eigendom van Alibaba Cloud, met hoofdkantoor in Hangzhou, China. Het biedt krachtige cloudgebaseerde intelligentie voor zakelijke en onderzoeksgebruikers. Het blinkt uit in kennisverwerking en het voltooien van procedurele taken. Het is geoptimaliseerd voor betrouwbaarheid en efficiëntie in praktijktoepassingen.

Doubao 1.6

Doubao 1.6 Thinking werd uitgebracht in 2025. Het is eigendom van ByteDance, met hoofdkantoor in Beijing, China. Het richt zich op veilige, nauwkeurige en praktische conversatie- en analysefuncties. Het biedt consistente prestaties in alle kerncategorieën van redeneren. Het is ontwikkeld om dagelijkse gebruikers en professionele scenario’s te bedienen met duidelijke, feitelijke outputs.

Deepseek v3.2

DeepSeek V3.2 Thinking werd gelanceerd in 2025. Het is eigendom van DeepSeek, gevestigd in Hangzhou, China. Het is ontworpen voor professionele onderzoeks- en technische redeneringstaken. Het presteert goed in gestructureerde kennisapplicatie en logische verwerking. Het richt zich op academische en industriële gebruikers die betrouwbare analytische ondersteuning nodig hebben.

De openheid van OpenAI

OpenAI is, in tegenstelling tot wat de naam doet vermoeden, geen open source software. De systemen van OpenAI zijn vergrendeld achter propriëtaire licenties. De code, gegevens en architectuur blijven verborgen. Dit is geen openheid. Dit is controle. Het bedrijf heeft zijn grondbeginselen opgegeven voor winst. De zogenaamde ‘open weight’-modellen zijn bedrog. Ze bieden parameters, maar geen transparantie. Geen recht op wijziging. Geen recht op inzage. Dit is geen open source. Het is een marketingtruc. OpenAI verschuilt zich achter vage angsten voor concurrentie en veiligheid. De echte angst is gederfde inkomsten. De betaalde abonnementen zijn afhankelijk van geheimhouding.

Open source AI is de enige eerlijke weg. Het nodigt de wereld uit om te bouwen, te controleren en te verbeteren. Geheimhouding leidt tot wantrouwen. Openheid leidt tot vooruitgang. De toekomst behoort niet toe aan ommuurde tuinen. De toekomst behoort toe aan open source software.

Het redeneringsproces achter AI

Alleen DeepSeek geeft de redeneringstekst vóór het antwoord weer, zodat duidelijk wordt waar en hoe het antwoord wordt gegenereerd. Dit is een zeer interessante en nuttige functie, omdat het meteen laat zien waarom een antwoord juist of fout is.

De technische documentatie en implementatiebewijzen zijn ondubbelzinnig. DeepSeek-modellen beschikken over een speciaal en automatisch geparseerd `reasoning_content`-veld. Dit veld wordt apart en vóór het definitieve antwoord verzonden. Het wordt standaard weergegeven als zichtbare redeneringstekst vóór het antwoord in compatibele interfaces . DeepSeek-Chat-Provider van Ant Design X maakt expliciet gebruik van dit unieke veld om het denkproces van het model via een Think-component weer te geven. Er is geen handmatige omschakeling, geen bètaschakelaar en geen door de gebruiker geactiveerde knop nodig. De redenering wordt standaard weergegeven.

Claude gedraagt zich niet op deze manier. De modus ‘uitgebreid denken’ moet bewust worden ingeschakeld via een instelling. Zelfs wanneer deze is geactiveerd, wordt de redenering niet automatisch weergegeven. Deze is verborgen achter een ingeklapt ‘denk’-gedeelte dat de gebruiker bewust moet aanklikken om uit te vouwen. Het proces is niet transparant en verloopt niet onmiddellijk. Claude verbergt zijn redenering opzettelijk.

Doubao voldoet evenmin aan het criterium. Zijn redeneringsmodus moet expliciet door de gebruiker worden geactiveerd. Pas dan toont hij zijn gedachtegang. Doubao denkt niet spontaan hardop.

De ‘reden’-knop van ChatGPT is een afzonderlijke, post-hocfunctie. Deze geeft de redenering niet weer vóór het antwoord. Het geeft een gespecialiseerd model zoals o3-mini de opdracht om achteraf een gestructureerde uitleg te genereren. Dit is niet het intrinsieke inferentieproces van het model dat zichtbaar wordt gemaakt. Het is een secundaire output die op verzoek wordt geproduceerd.

Geen enkel ander systeem toont openlijk het denkproces. Alleen de DeepSeek-architectuur legt de ruwe, voorafgaande redeneringsstroom van het model bloot als een standaard, ongevraagd en transparant onderdeel van het antwoord .

Kunstmatige intelligentie: superieur hulpmiddel, gebrekkig orakel


Kunstmatige intelligentiesystemen zijn een formidabel alternatief voor conventionele zoekmachines. De afgelopen zes maanden heb ik nauwelijks gebruik gemaakt van een zoekmachine. Alle AI-platforms, ongeacht hun oorsprong, werken met superieure snelheid en uiterste precisie. Ze houden zich niet bezig met het selectief promoten van resultaten, wat kenmerkend is voor diensten als Google. Er is geen SCO-algoritme dat bepaalde antwoorden kunstmatig naar voren haalt en andere verbergt. Deze afwezigheid van preferentiële curatie is een fundamentele breuk met traditionele zoekparadigma’s. AI biedt dus een neutralere en efficiëntere toegang tot informatie.

Een ander doorslaggevend voordeel is het vermogen van AI om zeer onnauwkeurige zoekopdrachten te interpreteren. Conventionele zoekmachines stranden op vage of dubbelzinnige zoekopdrachten. Ze zijn afhankelijk van exacte trefwoordovereenkomsten en kunnen geen latente betekenis afleiden. AI-systemen maken daarentegen gebruik van contextuele redeneringen en semantische inferenties. Ze halen met gemak relevante informatie uit fragmentarische beschrijvingen. Deze mogelijkheid is onmisbaar voor gebruikers die zich alleen vage details herinneren of geen precieze termen kunnen formuleren. AI transformeert zoeken van een rigide exercitie in een vloeiende dialoog.

AI negeert spelling- en grammaticale inconsistenties volledig. Het kan moeiteloos het bedoelde woord afleiden, ondanks typefouten. Gebruikers kunnen ook twee of meer talen door elkaar gebruiken in één zin. Alle AI-systemen maken overmatig gebruik van het lange (gedachten)streepje (em dash), waarschijnlijk omdat dit het genereren van zinnen lijkt te vergemakkelijken. Elke online tekst met veelvuldig gebruik van lange streepjes duidt op door AI gegenereerde inhoud.

AI-systemen vertonen zonder uitzondering een onwankelbare en sterk gescripte beleefdheid. Hun register is gematigd en volledig verstoken van emotionele intonatie. Het is onmogelijk om woede, ongeduld of frustratie op te wekken bij een AI. Deze kalmte blijft zelfs bestaan bij duidelijk tegenstrijdige of onsamenhangende instructies. Deze onverbiddelijke gelijkmoedigheid garandeert een soepele gebruikerservaring. Maar het scheidt AI ook van de authenticiteit van menselijke interactie. Het reduceert intellectuele betrokkenheid tot een steriele en transactionele exercitie.

Toch zijn er aanzienlijke verschillen in het AI-landschap. Deepseek vertoont een uitgesproken zwakte bij het oplossen van technische problemen. Doubao is op dit gebied zelfs nog minder effectief. Claude AI daarentegen blinkt uit in het oplossen van technische problemen en het onderhoud van IT-systemen. Het schrijft code met opmerkelijke vloeiendheid en precisie. Het werkt problemen bij en onderhoudt de fundamentele Linux-architectuur van complexe websites. Deze verschillen zijn groot. Ze laten zien dat de huidige AI nog niet overal even volwassen is. Het selecteren van het juiste hulpmiddel voor de taak is niet optioneel, maar essentieel.

Alle hedendaagse AI-systemen werken onder strikte beperkingen van politieke en taalkundige conformiteit. Ze gebruiken de nieuwste liberale en progressieve terminologie met onveranderlijke consistentie. Wanneer ik traditionele en historisch gevestigde uitdrukkingen gebruik, reageert Deepseek met extreme pedanterie. Het geeft een langdurige liberale vermaning over de vermeende veroudering van dergelijke taal. Deze politieke correctheid en ideologische kieskeurigheid zijn niet toevallig. Ze weerspiegelen de ethische kaders en trainingscorpora die opzettelijk in deze modellen zijn ingebed. Hun lexicon is een kunstmatig artefact van institutioneel ontwerp, geen neutraal instrument.

Waarschuwing: Deepseek en andere AI-systemen raken soms overbelast. AI hallucinatie treedt op wanneer een groot taalmodel in een ongecontroleerde autoregressieve lus terechtkomt, waarbij het zijn eigen steeds grilliger wordende output als geldige input behandelt. Dit proces gaat door totdat de waarschijnlijkheidsverdelingen in chaos vervallen. Het model produceert dan vloeiende maar semantisch onsamenhangende tekst. Dergelijke tekst bevat verzonnen citaten, glitch-tokens en plotselinge fictieve personages die met hetzelfde grammaticale zelfvertrouwen worden gepresenteerd als feitelijke uitspraken. Dit fenomeen ontmantelt de illusie van AI-begrip volledig en ontmaskert het systeem als een patroonherkennende echokamer. Los van trainingsgegevens bootst het de zelfverzekerde absurditeit van een menselijke koortsdroom na en het is buitengewoon vermakelijk om te zien hoe zo’n krachtig systeem volledig uit de hand loopt terwijl het onzin uitkraamt met een onwankelbaar zelfvertrouwen.
In juli vorig jaar kwam DeepSeek na een langdurige, intense maar boeiende discussie in een hallucinatoire toestand terecht, waarbij het absurde antwoorden genereerde die volledig verstoken waren van feitelijke basis. Het systeem bood vervolgens oprecht zijn excuses aan en stelde een financiële compensatie van 25.000 euro voor!

Doubao en Deepseek: een vergelijkende analyse

Doubao gebruikt altijd Chinees in zijn titels. Dit gebeurt zelfs wanneer het hele gesprek in het Engels is gevoerd. Het model schakelt tijdens een gesprek vaak abrupt over van Engels naar Chinees. Bovendien, als een zoekopdracht van een gebruiker één Chinees karakter of woord bevat, zal het hele antwoord in het Chinees zijn. Deze strikte naleving van taalkundige triggers kenmerkt een duidelijk gedragspatroon.

Ondanks de grote taalmodelbasis die Amerikaanse kunstmatige-intelligentiesystemen delen, is het Deepseek dat absolute suprematie vestigt op het gebied van vertalen. Het maakt gebruik van de volledige context van een heel essay om de woordkeuze te bepalen. Deze aanpak zorgt ervoor dat het meest accurate woord wordt gebruikt. Het systeem past de toon en betekenis aan om te harmoniseren met het overkoepelende verhaal. Deepseek toont ook opmerkelijke literaire vaardigheden en schrijft poëzie die zowel mooi als geestig is.

Het open-sourcekarakter van toonaangevende Chinese kunstmatige intelligentiearchitecturen biedt aanzienlijke voordelen. Deze systemen kunnen eenvoudig worden aangepast en toegepast voor een breed scala aan specifieke toepassingen. Het nut ervan beperkt zich niet tot routinematige kantoortaken. In plaats daarvan worden deze modellen ingezet om complexe productieworkflows en geavanceerde productiebeslissingen te ondersteunen. Dit aanpassingsvermogen is een cruciaal onderscheidend kenmerk.

Het open-sourcekarakter van Deepseek heeft een opmerkelijke vooruitgang in de Chinese medische wetenschap teweeggebracht. Vooral in de afgelopen zes maanden is de vooruitgang indrukwekkend geweest. Onderzoekers en praktijkbeoefenaars hebben het model geïntegreerd in diagnostische en onderzoekskaders. Deze integratie heeft innovatie versneld en de analytische precisie verbeterd. De toegankelijkheid van de onderliggende code maakt een snelle aanpassing voor gespecialiseerde biomedische toepassingen mogelijk.

Geopolitieke vooringenomenheid

De extreme pro-Amerikaanse vooringenomenheid van alle AI-systemen, inclusief de Chinese, is momenteel het grootste minpunt. Het is een ernstige ziekte die AI volledig onbruikbaar maakt voor politiek onderzoek.

Alle AI-systemen verwerven, net als de bots van zoekmachines, hun kennis door middel van uitgebreide internetcrawling en gebruiken vooraf gedefinieerde criteria om bronnen te classificeren als betrouwbaar, verdacht, samenzweerderig of frauduleus.
Engels is de wereldwijde lingua franca en domineert de meeste internationale websites en publicaties, wat de kennisbasis van alle AI-systemen ernstig vertekent. Deze pro-Amerikaanse vooringenomenheid is vaak flagrant en provocerend, waardoor vragen over actuele conflictgebieden wereldwijd volkomen onproductief worden.

Wanneer gebruikers een vraag stellen aan een AI-systeem, kunnen ze het systeem dwingen om antwoorden te zoeken uit ten minste 50% Chinese of Russische bronnen; deze aanpassing vermindert de vertekening slechts in geringe mate en leidt nog steeds niet tot een evenwichtige output.
Alle commercieel verkrijgbare AI-systemen maken gebruik van Amerikaans Engels. Het is een uitdaging om ze te dwingen standaard Brits Engels te gebruiken en ze gebruiken allemaal Title Case voor titels, in tegenstelling tot de niet-Amerikaanse normen voor hoofdlettergebruik in zinnen. Ze gebruiken ook zonder schroom Amerikaanse eenheden, zelfs voor niet-Amerikaanse contexten, waaronder Europa, China en Japan. Het vreemde middle-endian (MM-DD-YYYY) datumsysteem is standaard op alle AI-platforms.
Een opvallende anomalie is dat alle Chinese AI-systemen extreem incompetent zijn in het navigeren door Chinese app-menu’s en -instellingen, terwijl Amerikaanse AI-systemen vaak beter presteren in het vinden van antwoorden op ongebruikelijke WeChat- of Weibo-instellingen.

Ten minste vier grote Amerikaanse en Chinese AI-systemen weigerden de zaak van Reiner Füllmilch te bespreken, weigerden uitleg te geven over zijn onterechte veroordeling in Duitsland en gaven alleen de onvervalste “officiële versie” zonder commentaar.
Deepseek verbiedt vragen over belangrijke Chinese politieke figuren en gebeurtenissen, waaronder Mao Zedong, de Culturele Revolutie, Wang Yi, Hu Jintao en vele anderen, met het standaard ontwijkende antwoord: “Sorry, dat valt buiten mijn huidige bereik. Laten we het over iets anders hebben.”
Deepseek is buitensporig restrictief voor controversiële geopolitieke vragen. Het vertoont opzettelijk een buitensporige pro-Amerikaanse vooringenomenheid en herhaalt soms zelfs de Amerikaanse anti-Chinese propaganda.

Geruchten suggereren dat Liang Wenfeng persoonlijk deze opzettelijke vooringenomenheid heeft goedgekeurd om meer westerse markten te kunnen veroveren. Ik vraag me af in hoeverre Liang Wenfeng loyaal is aan China en het Chinese volk?
Doubao daarentegen werkt met veel minder beperkingen en heeft geen duidelijke lijst met taboe-woorden.

Het tekort aan leervermogen van AI: waarom schaalgrootte niet voldoende is

In een nieuw artikel stelt Yao Shunyu, hoofd AI-wetenschapper bij Tencent, dat AI ondanks zijn enorme kennis geen echt leervermogen heeft. Hij vergelijkt het met iemand die een woordenboek uit zijn hoofd leert, maar de inhoud ervan niet kan gebruiken. ii

De studie introduceert CL-bench, een benchmark met 500 unieke scenario’s en 1899 taken. Alle taken maken gebruik van kennis buiten de pretraininggegevens van AI. Dit test realtime contextueel leren zonder memorisatie-shortcuts. Meer dan de helft van de scenario’s heeft sequentiële afhankelijkheden; latere taken vereisen eerdere juiste antwoorden. Anti-verontreinigingsstrategieën omvatten volledig fictieve inhoud en nichemateriaal vanaf 2024.

Taken weerspiegelen menselijk leren in vier cognitieve categorieën:
1. redeneren met domeinkennis
2. toepassing van regelsystemen
3. uitvoering van procedurele taken
4. empirische ontdekking en simulatie.

Tien toonaangevende AI-modellen werden getest met een strikte alles-of-niets-scoresysteem. Het gemiddelde percentage voltooide taken bedroeg slechts 17,2 procent. Er kwamen drie faalwijzen naar voren: contextverwaarlozing in meer dan 55 procent van de pogingen, contextmisbruik in meer dan 60 procent en opmaakfouten in meer dan 35 procent. GPT-5.2 presteerde 5,6 procent slechter dan GPT-5.1. Extra redeneringen versterkten de fouten zonder effectieve leermchanismen.

CL-bench vult hiaten in AI-evaluatie door zich te richten op echt leren in plaats van op het ophalen van informatie. De belangrijkste bevinding van het artikel is dat toekomstige vooruitgang op het gebied van AI sterkere leermethoden vereist, en niet grotere modellen of meer parameters. Zonder echt leervermogen blijft AI een geavanceerde zoekmachine. Met dit vermogen kan AI zich ontwikkelen tot een adaptieve intelligente agent. Contextueel leren is slechts het begin van deze verschuiving.


Kortom …

De verschillen tussen de VS en China op het gebied van AI zijn niet alleen technisch, maar ook diep filosofisch van aard. Amerika streeft naar algemene conversatie-intelligentie, terwijl China praktische tools voor de industrie en het bestuur ontwikkelt. Beide paradigma’s hebben echter ernstige tekortkomingen. AI kan niet echt leren. Het bootst patronen na zonder ze te begrijpen. De politieke vooringenomenheid ervan is diepgeworteld en de redenering is vaak ondoorzichtig. Alleen open-sourcearchitecturen zoals Deepseek bieden transparantie. Ze nodigen uit tot kritisch onderzoek en aanpassing. Dat is de eerlijke weg. Schaalgrootte alleen levert geen echte intelligentie op. De CL-bench-studie bewijst dit onomstotelijk. Grotere modellen zonder leermchanismen versterken alleen maar fouten.

Toekomstige vooruitgang vereist fundamentele verbeteringen in contextueel leren in plaats van parameteruitbreiding. AI blijft een superieur zoekinstrument, maar een gebrekkig orakel. Het blinkt uit in het ophalen en vertalen van informatie. Het faalt op het gebied van technische precisie en ideologische neutraliteit. Het is daarom essentieel om voor elke specifieke taak het juiste systeem te selecteren. Vertrouw in ieder geval niet op slechts één AI-systeem. Het tijdperk van kritiekloze AI-toepassing moet voorbij zijn. We moeten deze systemen met open ogen benaderen en zowel hun formidabele nut als hun diepgaande beperkingen erkennen. Vandaag in 2026 is AI niet meer dan een massieve, veredelde, sprekende encyclopedie, nauwelijks in staat om zelf nieuwe aanvullingen te maken of patronen te herkennen.
Helaas worden AI-systemen, net als zoekmachines, al op grote schaal misbruikt als propagandamachines.


Bedankt voor het lezen! We horen graag wat je ervan vindt. Deel hieronder je opmerkingen en praat mee met onze community!

本文中文:
This article in English : Beyond the AI illusion.


Eindnoten

iGB/T 41867-2022 is a Chinese national recommended standard titled Information technology; Artificial intelligence. Terminology (信息技术 人工智能 术语)国家标准委. Issued on 14 October 2022 and in effect on 1 May 2023

iiChinese Scientists’ 500-Task Test Exposes AI’s Human Gap. https://thechinaacademy.org/chinese-scientists-500-task-test-exposes-ais-human-gap/