`







KUNSTMATIGE INTELLIGENTIE (AI)

ARTIFICIAL INTELLIGENCE

<


KUNSTMATIGE INTELLIGENTIE (AI)


In de Science Fiction (SF) Roman "De tweede Apocalyps"(1) (2017) beschreef ik de redding van de beschaving door robots, toen de mensheid zich door eigen stommiteit had uitgeroeid. Die redding, zelfs met de potentie van een nieuwe schepping, was te danken aan kunstmatige intelligentie. Veel SF verhalen draaien rond het thema van machtsovername door robots. Daaraan dacht ik toen niet. Mijn robotontwikkeling leidde tot een symbiotische mens-robot maatschappij, die door menselijk gestuntel ten onder ging. Ik behoor dus niet tot de oer-AI-doemdenkers.
Dat is nu veranderd. Het komt door de razendsnelle AI-ontwikkeling. De techniek groeit sneller, dan de bezinning op de implicaties.

Een van de bekendst SF auteurs, Isaak Asimov (1920-1992)(2) een biochemicus, die veel SF romans schreef, preludeerde vaak over de condities, waaraan AI-systemen zouden moeten voldoen om rampen te vermijden. De bekendste is die van een verbod op het doden of beschadigen van mensen en de plicht dat te voorkomen. Maar zelfs die ogenschijnlijk simpele en voor de hand liggende conditie, is paradoxaal. Die geeft geen antwoord op de handeling in een situatie waar het redden van de ene mens alleen mogelijk is door een ander te beschadigen of zelfs te doden. En zelfs een voor de hand liggende algoritme als afwegen van dood of leven naar gelang van aantallen, werpt zwaarwegende ethische problemen op.

De AI-systemen, die nu qua kennis al tot verbazingwekkende prestaties in staat zijn, zijn nog maar beperkt tot zelf handelen in staat. Maar zelfs zonder eigenhandig aan het moorden te gaan, zijn ze ook nu al gevaarlijk. Wat zou het gevolg zijn, als een machthebber een modern AI-systeem de vraag zou voorleggen: "Wat te doen om te voorkomen, dat van mijn volk - 20 miljoen mensen - door energiegebrek in de komende vijf jaar de helft uitsterft?" En het systeem antwoordt: "Met de thans beschikbare kennis is de optimale oplossing: "vermoordt de 8 miljoen mensen in uw buurland en gebruik de olie in de grond daar, tot uw eigen kerncentrales de energievoorziening kunnen overnemen."
Mij dunkt, het is de hoogste tijd en misschien al te laat om ethische overwegingen in AI-systemen op te nemen, of de AI-ontwikkeling aan banden te leggen. Wat onoverzienbaar veel mensenlevens vroegtijdig zal beëndigen.


Het probleem, dat ik hier boven aanroer, is zo gigantisch, dat ik het voor mijn eigen gemoedsrust maar even ter zijde leg. Er is wel een ander AI-gevolg, dat ik intuïtief, of misschien rationeel als scenario in de eerstvolgende jaren levensgroot zie ontstaan. Dat is de onstuitbare groei van het universeel vertrouwen in AI-hulp.
Ik schreef dezer dagen een sprookje(4). Toen het af was, bedacht ik, dat ik heel wat Engelstalige vrienden heb, die het ook leuk zouden vinden. Grinnikend dacht ik aan AI. Waarom zou ik niet ook een keer lui zijn? Ik zocht dus op het internet naar ChatGTP, kopieerde mijn sprookje en vroeg beleefd of die dat voor me wilde vertalen. Mijn scherm bood een vakje om de tekst in te plakken. Klik en daar stonden de eerste regels. Voor de rest was het scherm te klein. Ik 'scrolde' dus naar beneden en zowaar mijn hele originele tekst stond er. Hoe nu verder? Ergens onderaan stond een klein icoontje met een neerwaartse pijl. Ik klikte maar eens en floep daar stond een Engelstalige 'fairytale'. Ik heb het in opperste verbazing van begin tot het eind kritisch gelezen en... geen enkele fout ontdekt! Vol bewondering voor de mensen die dit in elkaar hebben geknutseld, ging ik naar bed. Maar ik kon de slaap niet vatten. Wat een prachtige, vreselijke uitvinding!. Waarom nog naar school en talen leren? Wiskunde? Aardrijkskunde? Op het internet is zoveel menselijke kennis te vinden, dat het alles wat ons hoofd kan bevatten in bytes overschrijdt. En het AI-systeem kan daar praktisch instantaan overal bij en in logische stappen conclusies uit trekken.

Maar wat doet het met alle onzin op het web? Wat doet het met tegenstrijdige documenten, wat met leugens? Ik schrok me een hoedje. In zag in gedachten al die mensen op straat, aan het strand, op café terrassen, ja ook mijn bezoekende vrienden thuis en ik bij hen druk in gesprek, hun mobiel of ipad bij de hand, tikkend op het scherm om hun argumenten kracht bij te zetten. Mensen die hun gesprekspartners overtuigen met op het web gevonden argumenten en beelden. Kijk maar, het AI toont of zegt het! Wat een systeem om de wereld naar je hand te zetten! Enkele filters die waken tegen ongewenst nieuws, alleen betrouwbare bronnen geen ongewenste feiten of gegevens, geen ongewenste conclusies; een enkel keer "yes" waar "no" stond, maar veel vaker correct geciteerd met jouw favoriete conclusies. Correct voor de makers en eigenaars van het systeem, zonder ongewenste tegenwerpingen. Zo'n perfect onfeilbaar systeem, om de wereld naar je hand te zetten, hebben Pausen, profeten, koningen, dictators en priesters niet gehad. Een wereld inrichting, die de mensheid zelf wilde! Waar je geen leger voor hoeft te betalen! Betere controle dan politie, legers, kranten, priesters of slavenjagers.
Een bron van alle kennis, die het volk leert wat het denken moet. En een volk dat niets liever doet, dan die overtuigende kennis in begrijpelijke, want op de persoon toegesneden bekende taal en termen aan te roepen. Een schat aan kennis direct bij de hand en onmisbaar. En het allermooist: precies de kennis die de systeemtechnicus en de systeem eigenaar het volk graag willen bijbrengen en geen last van critici en dwarsdenkers.

O ja, genoeg controverses over zaken, waarover ze best mogen ruzieën, omdat ze dat verdeeld en stuurloos houdt. Maar niet over kwesties, die de systeemeigenaars onwelgevallig zijn, zoals bv. hun onbeperkte bezitsbescherming. Hoe groot dat bezit ook wordt, zelfs als er daarnaast voor de rest niets meer te bezitten is.
Mij sloeg de angst om het hart. Er is geen ontkomen aan. Mijn echtgenote, die ik deelgenoot maakte, ging direct op zoek op... het web. Via 'links' die gewild en ongewild op het scherm kwamen, was een bericht van een mij onbekende bron. De auteur Mark Hofman , Redacteur van de webstek(3) schreef:
"Veiligheidsonderzoeker ChatGPT vertrekt vanwege angst voor de snelheid van AI Steven Adler heeft zijn functie als veiligheidsonderzoeker bij OpenAI neergelegd. Zijn vertrek is opvallend, niet alleen omdat hij een van velen is die die OpenAI afgelopen jaar verliet, maar vooral vanwege zijn zorgen over de ontwikkeling van ChatGPT en AI in het algemeen."
Ik ben dus niet de enige, die zich zorgen maakt.

C. (Kees) le Pair,
Cha-am, 2025 02 02.

Noten

  1. C. le Pair: De tweede Apocalyps.
  2. Isaac Asimov.
  3. Mark Hofman
  4. C. le Pair: Pim's ontdekkingsreis naar oneindig.


ARTIFICIAL INTELLIGENCE (AI)


In the science fiction (SF) novel The Second Apocalypse(1) (2017), I described the salvation of civilization by robots when humanity had wiped itself out due to its own stupidity. This salvation, even with the potential for a new creation, was thanks to artificial intelligence. Many SF stories revolve around the theme of a takeover of power by robots. At the time, I did not think of that. My robot development led to a symbiotic human-robot society, which collapsed due to human blundering. Therefore, I do not belong to the original AI doomsayers.
That has now changed. It's due to the rapid development of AI. The technology is advancing faster than the reflection on its implications.

One of the most well-known SF authors, Isaac Asimov (1920-1992)(2), a biochemist who wrote many SF novels, often speculated about the conditions that AI systems should meet in order to avoid disasters. The most famous of these is the prohibition on killing or harming humans and the obligation to prevent that. But even this seemingly simple and obvious condition is paradoxical. It does not provide an answer to what action to take in a situation where saving one person is only possible by harming or even killing another. Even an obvious algorithm like weighing life or death based on numbers raises serious ethical problems.

The AI systems, which are now capable of astonishing feats of knowledge, are still limited in their ability to act independently. But even without engaging in murder themselves, they are already dangerous. What would happen if a ruler presented a modern AI system with the question: "What should I do to prevent my people - 20 million - against starvation due to an energy shortage in the next five years?" And the system responds, "With the currently available knowledge, the optimal solution is: kill the 8 million people in your neighbouring country and use the oil in the ground there until your own nuclear plants can take over the energy supply."
I believe it is high time, and maybe already too late, to integrate ethical considerations into AI systems or to curb AI development.

The problem I raise here is so enormous that I'll set it aside for my peace of mind. However, there is another consequence of AI that I intuitively, or perhaps rationally as scenario foresee emerging on a grand scale in the coming years. That is the unstoppable growth of universal trust in AI assistance.
I wrote a fairy tale recently(4). When it was finished, I realized I have many English-speaking friends who would also enjoy it. Smiling, I thought of AI. Why not be lazy for once? So, I searched for ChatGPT on the internet, copied my fairy tale, and politely asked if it would translate it for me. My screen offered a box to paste the text. Click, and the first lines appeared. The rest of the screen was too small. I scrolled down, and lo and behold, my entire original text was there. What now? Somewhere at the bottom, there was a small icon with a downward arrow. I clicked on it, and suddenly there was an English-language 'fairytale.' I read it from start to finish with complete astonishment and... discovered no errors! Filled with admiration for the people who put this together, I went to bed. But I couldn't sleep. What a beautiful, terrible invention!. Why still go to school and learn languages? Math? Geography? There's so much human knowledge available on the internet that it exceeds everything our brains can process in bytes. And the AI system can instantly access it and logically draw conclusions.

But what does it do with all the nonsense on the web? What about contradictory documents, what about lies? I was shocked. I imagined people on the streets, at the beach, on café terraces, yes, even my visiting friends at home, and I with them, engaged in lively conversation, their mobile phones or iPads at hand, typing on the screen to back up their arguments. People who convince their conversation partners with arguments and images found on the web. Look, AI shows or says it! What a system to shape the world in your favour! A few filters preventing unwanted news, only reliable sources, no undesirable facts or data, no unwanted conclusions; a single "yes" where "no" stood, but most often correctly quoted with your favourite conclusions. Correct for the creators and owners of the system, with no unwanted objections. Such a perfect infallible system to shape the world has never been available to popes, prophets, kings, dictators, or priests. A world order the humanity itself desires! You don’t need to pay an army for it! Better control than police, armies, newspapers, priests, or slave hunters.
A source of all knowledge that teaches the people what they should think. And a people that loves to invoke that convincing knowledge in understandable, personalized language and terms. A treasure trove of knowledge right at hand and indispensable. And the best part: exactly the knowledge that the system technicians and the system owners want to impart to the people, with no bothersome critics or contrarians.

O yes, enough controversies about matters that they can argue about, because that keeps them divided and rudderless. But not on issues that the system owners find uncomfortable, such as their unlimited protection of property. No matter how large that property becomes, even if nothing else can be owned beside it by anyone.
Fear gripped my heart. There's no escaping it. My wife, to whom I shared this, immediately went searching on... the web. Through 'links' that appeared wanted or unwanted on the screen, she found a message from an unfamiliar source.
The author Mark Hofman, editor of the website(3) wrote:
"Security Researcher Leaves ChatGPT Due to Fear of AI Speed Steven Adler has resigned from his position as a security researcher at OpenAI. His departure is noteworthy, not only because he is one of many who left OpenAI last year, but mainly due to his concerns about the development of ChatGPT and AI in general."
So I am not the only one who is concerned.

C. (Kees) le Pair,
Cha-am, February 2, 2025.

Notes:

  • C. le Pair: The Second Apocalypse.
  • Isaac Asimov.
  • Mark Hofman
  • C. le Pair: Pim's discovery journey to infinity.
  • → top → index