Spread the love en help Indignatie
Het lijkt erop dat AI kunstmatige intelligentie de wereld gaat veranderen.
AI Maar eerst moet alles op orde komen, anders breekt er een hel los, schrijft een van de twee Joe Laurias.
Er is geen manier om de opkomst van AI kunstmatige intelligentie, die op weg is om ons leven te domineren, terug te draaien. Van klantenservice tot censuur en oorlog, AI laat zijn sporen na en de potentie voor een ramp is reëel.
De hoeveelheid face-to-face contact, of zelfs menselijke voice-to-voice interactie aan de telefoon bij het zakendoen, neemt al jaren af en wordt erger met AI. Maar AI doet veel meer dan alleen de gemeenschap uithollen, banen vernietigen en mensen die in de wacht staan, uitputten.
AI zit steeds vaker achter beslissingen van socialemediabedrijven over welke berichten verwijderd moeten worden omdat ze in strijd zijn met vage ‘community’-normen (omdat het de community vernietigt), terwijl het duidelijk is dat AI is geprogrammeerd om dissidente politieke berichten eruit te filteren.
AI neemt ook beslissingen over wie er van een socialemediasite moet worden geschorst of verbannen, en lijkt ook ‘beroepen’ tegen schorsingen te beoordelen, die in veel gevallen ongedaan zouden worden gemaakt als er maar een paar menselijke ogen bij betrokken waren.
Facebook-oprichter Mark Zuckerberg gaf deze week toe dat “we een heleboel complexe systemen hebben gebouwd om content te modereren, maar het probleem met complexe systemen is dat ze fouten maken.” Facebook geeft toe dat het AI-systemen heeft gebruikt om de berichten van gebruikers te verwijderen .
“Zelfs als ze per ongeluk maar 1% van de berichten censureren, dan zijn dat miljoenen mensen, en dan hebben we een punt bereikt waarop er gewoon te veel fouten en te veel censuur zijn”, aldus Zuckerberg.
De absurde lengtes waarin AI wordt toegepast, omvatten een “denktank” in Washington die volledig wordt gerund door kunstmatige intelligentie. Drop Site News bericht over het Beltway Grid Policy Centre dat geen kantooradres heeft.
“Het ontbreken van een fysieke voetafdruk van Beltway Grid in Washington — of ergens anders op het aardse vlak van bestaan — komt voort uit meer dan alleen een genereus thuiswerkbeleid. De organisatie lijkt helemaal niet van haar werknemers te eisen dat ze bestaan”, schrijft de site. Toch produceert het enorme hoeveelheden rapporten, persberichten en pitches voor verslaggevers.
Hoewel dit een extreme toepassing van AI is, kampt de gebruikelijke interactie met het publiek met een ander probleem: hoe fout kan AI zijn?
Nog steeds vrij experimenteel
AI bevindt zich duidelijk nog in een experimenteel stadium en hoewel significante fouten onvermijdelijk zijn, hebben ze de toepassing ervan niet vertraagd. De fouten variëren van alledaags tot belachelijk tot gevaarlijk.
Onlangs ontdekte ik een voorbeeld van het belachelijke.
Iedereen die op Google zoekt naar zijn online profiel, zal ongetwijfeld andere mensen vinden met dezelfde naam. Ik ken Joe Lauria al lang, een tv-weerman voor de Fox-vestiging in Kansas City, Missouri.
We zijn al eerder in de war geweest. Nog maar twee weken geleden ontving ik een e-mail van een Fox-kijker in de omgeving van Kansas City die Lauria prees omdat ze zo goed gekleed was en mij om advies vroeg over waar ik een pak kon kopen. Ik was benieuwd wie er nog meer in de war zou zijn, dus vroeg ik Grok, het veelgeprezen AI-systeem van Elon Musk, wie Joe Lauria is.
Dit is het antwoord dat ik kreeg:
Joe Lauria is een veelzijdige professional die vooral bekend is om zijn werk in de journalistiek en meteorologie. Hier is een overzicht van zijn carrière op basis van beschikbare informatie:
Journalistiek: Joe Lauria is sinds 1990 journalist voor buitenlandse zaken bij de Verenigde Naties. Hij heeft bijdragen geleverd aan talloze publicaties, waaronder de Boston Globe, de London Daily Telegraph, de Johannesburg Star, de Montreal Gazette, de Wall Street Journal, de New York Times, de Washington Post, Salon.com en The Guardian.Salon.com en The Guardian.
Hij is ook onderzoeksjournalist geweest voor The Sunday Times of London en Bloomberg News. Lauria is momenteel hoofdredacteur van Consortium News, waar hij schrijft over internationale zaken met een focus op het Midden-Oosten. Hij is co-auteur van boeken met bekende figuren als voormalig Amerikaans senator Mike Gravel, met een focus op het Amerikaanse buitenlandse beleid en militarisme.
Meteorologie: Joe Lauria is een prijswinnende meteoroloog. Hij werkt sinds januari 1995 als avondnieuwsmeteoroloog voor FOX4 in Kansas City en zendt elke weekavond om 17.00, 18.00, 21.00 en 22.00 uur weersvoorspellingen uit. Zijn aanpak van meteorologie omvat het onderwijzen van kijkers over aspecten van het weer die niet vaak voorkomen in standaard weer-apps.
Vóór zijn rol bij FOX4 was hij Chief Meteorologist bij KOSA-TV in Midland, Texas, en heeft hij op verschillende andere locaties gewerkt, zoals Orlando, Florida en Kansas City, Missouri. Hij is erkend voor zijn werk door het ontvangen van het Seal of Approval van zowel de American Meteorological Society (AMS) als de National Weather Association (NWA). Lauria heeft ook de Certified Broadcast Meteorologist (CBM)-aanduiding van de AMS.
- Persoonlijk leven: Joe Lauria is geboren in New Rochelle, New York, en woont momenteel in Olathe, Kansas met zijn vrouw, Jaye Lynn, en hun twee katten. Hij houdt van Italiaanse restaurants, golf en is betrokken geweest bij gemeenschapsdiensten door middel van weerseminars en toespraken.
Joe Lauria’s dubbele carrière in de journalistiek en meteorologie benadrukt zijn uiteenlopende interesses en bijdragen aan het publieke begrip en de veiligheid door middel van weersverslaggeving en inzichtelijke verslaggeving over internationale aangelegenheden.
Voor de volledigheid, ik heb geen katten, ik speel geen golf en ik ben niet geboren in New Rochelle (maar ook niet zo ver weg in de Bronx). Natuurlijk zit hier veel humor in. (Het is ook grappig dat ik aan de universiteit begon zonder te beslissen of ik journalist of meteoroloog wilde worden. Toen zag ik hoeveel wiskunde er bij meteorologie komt kijken).
Het potentieel voor zulke onzin in een systeem dat langzaam de wereld lijkt over te nemen, is echter niet altijd een lachertje. Het is verontrustend dat Groks door mensen gemaakte intelligentie ervan uitging dat twee mensen één zijn, in plaats van gewoon toe te geven dat er meerdere mensen zijn met dezelfde naam.
Aan de andere kant gaf Chat GPT een indrukwekkend en scherp, politiek neutraal proefschrift over mijn werk als antwoord op de vraag “Wie is Joe Lauria?” Het was bijna alsof ik het had ingehuurd als mijn PR-agent. Het essay klinkt alsof Chat GPT maandenlang alles heeft gelezen wat ik had geschreven, terwijl het in seconden was gegenereerd. Er was ook geen teken van de weerman van Kansas City.
Maar toen ik wat dieper in de ‘kennis’ van mij dook, verzon het dingen uit het niets. Toen ik vroeg welke boeken ik had geschreven, noemde het in plaats van de boeken die ik daadwerkelijk had geschreven, een volledig fictieve titel van een zogenaamd non-fictieboek: The Assange Agenda: The Legacy of the Wikileaks Founder. Het ging zelfs uit van een uitgever: Clarity Press.
Er bestaat geen dergelijk boek. Gebaseerd op de kennis van mijn verslaggeving over Julian Assange deed het een belachelijke gok over een denkbeeldig boek waarvan het dacht dat ik het geschreven moest hebben. Kortom, veel AI is BS.
AI en oorlog
Hoe belachelijk deze resultaten ook zijn, hoe frustrerend menselijke interacties in de klantenservice ook worden, zoals het verwijderen van aantrekkelijke berichten op sociale media door AI, en hoe veel banen verloren gaan aan AI, de meest schrijnende zorg over kunstmatige intelligentie is het gebruik ervan in oorlogsvoering.
Met andere woorden, wat gebeurt er als AI-fouten niet langer onschuldig en grappig zijn, maar een kwestie van leven of dood?
Ook wij hebben jou steun nodig in 2025, gun ons een extra bakkie koffie groot of klein.
Dank je en proost?
Wij van Indignatie AI zijn je eeuwig dankbaar
Het tijdschrift Time berichtte in december over het gebruik van AI door Israël om burgers te doden tijdens de genocide in Gaza:
“Een programma dat bekend staat als ‘The Gospel’ genereert suggesties voor gebouwen en structuren waarin militanten mogelijk opereren. ‘Lavender’ is geprogrammeerd om verdachte leden van Hamas en andere gewapende groepen te identificeren voor moord, van commandanten tot voetvolk. ‘Where’s Daddy?’ volgt naar verluidt hun bewegingen door hun telefoons te volgen om ze te targeten – vaak naar hun huizen, waar hun aanwezigheid wordt beschouwd als bevestiging van hun identiteit. De luchtaanval die volgt, kan iedereen in de familie van het doelwit doden, zo niet iedereen in het appartementengebouw.
Deze programma’s, die de Israel Defense Force (IDF) heeft erkend te hebben ontwikkeld, kunnen helpen het tempo van de meest verwoestende bombardementencampagne van de 21e eeuw te verklaren…”
Het Israëlische tijdschrift +972 en The Guardian brachten het verhaal in april naar buiten en meldden dat er maar liefst 37.000 doelen door AI waren geselecteerd (dit aantal zou sinds april veel hoger moeten zijn). Daarmee werd een proces gestroomlijnd dat voorheen menselijke analyse en wettelijke toestemming vereiste voordat een bom kon worden afgeworpen.
Lavender werd onder intense druk vertrouwd om steeds meer bommen op Gaza te gooien. The Guardian berichtte:
“‘We werden voortdurend onder druk gezet: ‘Geef ons meer doelen.’ Ze schreeuwden echt naar ons,’ zei een [Israëlische] inlichtingenofficier. ‘Ons werd verteld: nu moeten we Hamas verneuken, wat het ook kost. Wat je ook kunt, bombardeer.’
Om aan deze vraag te voldoen, ging de IDF sterk op Lavender vertrouwen om een database samen te stellen van personen die de kenmerken van een PIJ [Palestijnse Islamitische Jihad] of Hamas-militant hadden. […]
Na willekeurige steekproeven en het controleren van de voorspellingen concludeerde de eenheid dat Lavender een nauwkeurigheidspercentage van 90% had behaald, aldus de bronnen. Dit leidde ertoe dat de IDF het grootschalige gebruik ervan als hulpmiddel voor aanbeveling van doelen goedkeurde.
Lavender heeft een database samengesteld van tienduizenden personen die werden aangemerkt als overwegend laaggeplaatste leden van de militaire vleugel van Hamas,
Negentig procent is geen onafhankelijke evaluatie van de nauwkeurigheid, maar de eigen beoordeling van het IDF. Zelfs als we dat gebruiken, betekent het dat van elke 100 mensen die Israël met dit systeem als doelwit kiest, er minstens 10 volledig onschuldig zijn volgens eigen zeggen.
Maar we hebben het niet over 100 individuen die het doelwit zijn, maar over “tienduizenden”. Reken maar uit. Van elke 10.000 die het doelwit zijn, zijn er 1.000 onschuldige slachtoffers, die acceptabel zijn om gedood te worden door de IDF.
In april vorig jaar gaf Israël in feite toe dat 3.700 onschuldige inwoners van Gaza waren gedood vanwege zijn AI. Dat was acht maanden geleden. Hoeveel meer zijn er afgeslacht?
De nationale krant uit Abu Dhabi meldde :
“Technologie-experts hebben het Israëlische leger gewaarschuwd voor een mogelijke ‘extreem bevooroordeelde fout’ bij het vertrouwen op Big Data om mensen in Gaza te targeten, terwijl er gebruik wordt gemaakt van programma’s voor kunstmatige intelligentie . […]
Door het gebruik van krachtige AI-systemen door Israël kan het leger nu op zo’n grote schaal oorlog voeren tussen soldaten en machines.
Ongeverifieerde rapporten zeggen dat de AI-systemen ‘extreme bias-fouten hadden, zowel in de targeting-data die worden gebruikt, maar ook in de kinetische actie’, zei mevrouw Hammond-Errey in antwoord op een vraag van The National . Extreme bias-fouten kunnen optreden wanneer een apparaat onjuist is gekalibreerd, waardoor metingen verkeerd worden berekend.
De AI-expert en directeur van opkomende technologie aan de Universiteit van Sydney stelde dat grote datasets ‘die zeer persoonlijk en commercieel zijn’ betekenen dat strijdkrachten ‘niet echt de capaciteit hebben om’ doelen te verifiëren en dat dit mogelijk ‘een bijdragende factor is aan zulke grote fouten’.
Ze zei dat het ‘lang zou duren voordat we echt toegang zouden krijgen tot deze informatie’, als dat ooit zou gebeuren, ‘om enkele van de technische realiteiten van de situatie te beoordelen’, aangezien de gevechten in Gaza voortduren.”
De AI van de IDF moet toch wel geavanceerder zijn dan de commercieel beschikbare versies van AI voor het grote publiek, zoals Grok of ChatGPT. En toch geeft de IDF toe dat er minstens een foutpercentage van 10 procent is als het gaat om de beslissing wie moet leven en wie moet sterven.
ChatGPT, een van de populairste platforms, zegt dat de gevaren van fouten in het Lavender-systeem zijn:
- “Vooringenomenheid in data : Als Lavender wordt getraind met data die onevenredig afkomstig is van bepaalde bronnen, kan dit leiden tot vooringenomen uitkomsten, zoals het verkeerd identificeren van het gedrag van specifieke groepen of het verkeerd inschatten van bepaalde soorten signalen.
- Onvolledige of scheve datasets : als de data die voor de training wordt gebruikt onvolledig zijn of niet een breed scala aan potentiële bedreigingen bestrijken, kan de AI kritieke signalen missen of onschadelijke activiteiten verkeerd interpreteren als bedreigingen .” (Nadruk toegevoegd.)
AI en kernwapens
De zorg dat fouten van kunstmatige intelligentie tot een nucleaire ramp kunnen leiden, wordt weerspiegeld in het wetsvoorstel van de Amerikaanse Senaat S. 1394 , getiteld The Block Nuclear Launch by Autonomous Artificial Intelligence Act van 2023. Het wetsvoorstel
“verbiedt het gebruik van federale fondsen voor een autonoom wapensysteem dat niet onderworpen is aan zinvolle menselijke controle om een kernwapen af te vuren of om doelen te selecteren of aan te vallen met het oog op het afvuren van een kernwapen.
Met betrekking tot een autonoom wapensysteem betekent zinvolle menselijke controle menselijke controle over (1) de selectie en inzet van doelen: en (2) tijd, locatie en wijze van gebruik.”
Het wetsvoorstel kwam niet uit de Senate Armed Services Committee. Maar laat het aan de NAVO over om het belachelijk te maken. Een paper gepubliceerd in NATO Review afgelopen april klaagde dat:
In essentie zegt de NAVO dat aangezien AI niet in staat is om voor zichzelf te denken [AGI] er niets is om je zorgen over te maken. Echter, zeer intelligente mensen die in staat zijn om voor zichzelf te denken, maken fouten, laat staan een machine die afhankelijk is van menselijke input.
Het artikel betoogt dat AI onvermijdelijk de nauwkeurigheid van nucleaire targeting zal verbeteren. Nergens in het document zijn de woorden “Error” of “Mistake” in enkelvoud of meervoud te vinden.
Maar het NAVO-artikel wil geen diplomatieke discussie en klaagt dat “de kwestie zelfs ter sprake kwam in discussies tussen de Verenigde Staten en China op het Asia-Pacific Economic Cooperation-forum, dat in november (2023) in San Francisco bijeenkwam.”
Het rapport concludeerde: “Gezien de potentiële geopolitieke voordelen die gerealiseerd kunnen worden, is het verbieden van AI in nucleaire verdedigingssystemen een slecht idee.”
In een gezonde wereld zouden we terugkeren naar puur menselijke interacties in ons dagelijks leven. En als oorlog niet voorkomen kan worden, zouden we op zijn minst terugkeren naar meer zorgvuldige, menselijke beslissingen over wie we als doelwit kiezen.
Aangezien dit allemaal niet gaat gebeuren, moeten we hopen dat de AI flink verbetert, zodat komedie niet in een tragedie verandert, of erger nog, in een totale catastrofe.