een vernieuwende visie op mens, geld en waarde

Psy-war: AI Bots manipuleren je emoties

The next chapter in the Social Media battle to splinter reality, the internet, and your own mind

Robert W Malone MD, MSM 2025 May 28

Psychologische oorlogsvoering, wordt het genoemd. Met behulp van zich razend snel ontwikkelende technologie wordt iedereen die zich op internet begeeft tot ‘op het bot’ gehersenspoeld. Botfarms worden ingezet om mensen tegen elkaar op te zetten, verdeeldheid te zaaien, waarheid om te buigen tot leugen etcetera. Mensvijandig, dat is het. Velen die zich jarenlang hebben ingezet om bij te dragen aan een betere en menswaardige wereld, worden ontmoedigd omdat het denken is vergiftigd door de werkzaamheid van de bots. Heeft het nog enig nut te blijven proberen om mensen te bereiken? Lees dit verhaal. Ik heb de vertaalmachine aan het werk gezet om dit lange stuk tekst ook in het Nederlands te vertalen. De nieuwe wereldorde, die volgens het vergiftigde denken van mensen uit complotdenken voortkomt, is al een heel eind op weg.

The magazine “Fast Company” recently published an article on bot farms, detailing how these automated systems are increasingly sophisticated and can manipulate social media and other online platforms. According to Fast Company, bot farms are used to deploy thousands of bots that mimic human behavior, often to mislead, defraud, or steal from users. These bot farms can create fake social media engagement to promote fabricated narratives, making ideas appear more popular than they actually are.

They are used by governments, financial influencers, and entertainment insiders to amplify specific narratives worldwide. For instance, bot farms can be used to create the illusion that a significant number of people are excited or upset about a particular topic, such as a volatile stock or celebrity gossip, thereby tricking social media algorithms into displaying these posts to a wider audience.

Here is the link: Bot farms invade social media to hijack popular sentiment

Welcome to the world of social media mind control.By amplifying free speech with fake speech, you can numb the brain into believing just about anything. Surrender your blissful ignorance and swallow the red pill. You’re about to discover how your thinking is being engineered by modern masters of deception.

The means by which information gets drilled into our psyches has become automated. Lies are yesterday’s problem. Today’s problem is the use of bot farms to trick social media algorithms into making people believe those lies are true. A lie repeated often enough becomes truth.

A couple of months ago, I had the privilege of recording a podcast with Tim Poole, which focused on MAHA, health, seed oils, desiccant contaminants of our grains and soybeans such as Glyphosate (“Roundup”), and a whole host of related issues. But, as far as I am concerned, the most important part of that visit was not what was broadcast, but rather the long off-camera conversation that followed. Keep in mind that last fall Jill and I published what may be the most definitive analysis to date of the use of PsyWar, censorship and propaganda technology deployed during the COVIDcrisis.

So I know a thing or two about the topic, and am interviewed regularly about this or that aspect of PsyWar tech currently being deployed by the “Fake News”, Pharma, the US Government, the WHO, the UN, and a wide variety of other actors.

But Tim’s insights opened my mind to aspects of the current landscape that Jill and I did not cover in the book. In particular, he provided great examples of the effects and use of “small rooming” – otherwise known as freedom of speech but not of reach (which is explicitly a core “X” algorithmically-enforced policy). But what really expanded my awareness was his discussion of how AI-driven bots are being deployed.

In illustrating his points, he began with the example of a certain influencer who used to be associated with the Daily Wire. I will withhold the names to protect the innocent and reduce the risk of defamation lawsuits. Once upon a time, this influencer posted content mildly to moderately critical of Israeli policies and actions in response to the 7 October 2023 Hamas invasion. Basically, the influencer ventured outside of what was then the Overton Window of allowable public discourse on the topic. The response on social media was immediate and strikingly positive. Thousands of likes and new followers.

So, feeling like a nerve had been struck, the influencer followed up with even more strident statements, and once again, a wave of positive response swept over the sites where these opinions were posted. Feeling encouraged and emboldened, the influencer continued to push forward, motivated by the growing number of new followers. And in so doing, the influencer crossed a number of lines into what has been designated by many as “hate speech”. The result was widespread deplatforming, including from The Daily Wire, and other conservative media sites and censorship.

Here’s the thing- the majority of the new “followers” who were egging on the influencer were not real people. They were bots. Bot armies that had been launched specifically to drive the influencer into self-delegitimization by promoting and advancing what most perceived as hate speech. Mission accomplished, and another influential conservative voice bit the dust.

Can you Grok that?

Turning back to this four-alarm fire bell of an article from Fast Company.

Bot farm amplification is being used to make ideas on social media seem more popular than they really are. A bot farm consists of hundreds and thousands of smartphones controlled by one computer. In data-center-like facilities, racks of phones use fake social media accounts and mobile apps to share and engage. The bot farm broadcasts coordinated likes, comments, and shares to make it seem as if a lot of people are excited or upset about something like a volatile stock, a global travesty, or celebrity gossip—even though they’re not.

Meta calls it “coordinated inauthentic behavior.” It fools the social network’s algorithm into showing the post to more people because the system thinks it’s trending. Since the fake accounts pass the Turing test, they escape detection.

“It’s very difficult to distinguish between authentic activity and inauthentic activity,” says Adam Sohn, CEO of Narravance, a social media threat intelligence firm with major social networks as clients. “It’s hard for us, and we’re one of the best at it in the world.”

If one of the leading social media intel companies in the world has a hard time distinguishing between real accounts and bots- particularly AI-enabled bots- then if you think you can easily tell the difference, you are fooling yourself.

In their article, Fast Company shares a fascinating tale from Depression-era history that involves the Kennedy family’s fortune, which I had thought was just derived from bootlegging during Prohibition.

Distorting public perception is hardly a new phenomenon. But in the old days, it was a highly manual process. Just months before the 1929 stock market crash, Joseph P. Kennedy, JFK’s father, got richer by manipulating the capital markets. He was part of a secret trading pool of wealthy investors who used coordinated buying and media hype to artificially pump the price of Radio Corp. of America shares to astronomical levels.

After that, Kennedy and his rich friends dumped their RCA shares at a huge profit, the stock collapsed, and everyone else lost their asses. After the market crashed, President Franklin D. Roosevelt made Kennedy the first chairman of the Securities and Exchange Commission, putting the fox in charge of the henhouse.

Today, stock market manipulators use bot farms to amplify fake posts about “hot” stocks on Reddit, Discord, and X. Bot networks target messages laced with ticker symbols and codified slang phrases like “c’mon fam,” “buy the dip,” “load up now” and “keep pushing.” The self-proclaimed finfluencers behind the schemes are making millions in profit by coordinating armies of avatars, sock puppets, and bots to hype thinly traded stocks so they can scalp a vig after the price increases.

“We find so many instances where there’s no news story,” says Adam Wasserman, CFO of Narravance. “There’s no technical indicator. There are just bots posting things like ‘this stock’s going to the moon’ and ‘greatest stock, pulling out of my 401k.’ But they aren’t real people. It’s all fake.”

Read that last sentence again. “They aren’t real people. It’s all fake.”

Beware, fellow consumer of social and corporate media. Consume this information at your peril. The reality you encounter there is all manufactured. Some may tell themselves that they are influential players, but in fact, all are victims. The very fabric of truth and reality is a victim. And AI-driven bots are now becoming the leading tool for spinning the lies.

If there’s no trustworthy information, what we think will likely become less important than how we feel. That’s why we’re regressing from the Age of Science—when critical thinking and evidence-based reasoning were central—back to something resembling the Edwardian era, which was driven more by emotional reasoning and deference to authority.

When Twitter introduced microblogging, it was liberating. We all thought it was a knowledge amplifier. We watched it fuel a pro-democracy movement that swept across the Middle East and North Africa called the Arab Spring and stoke national outrage over racial injustice in Ferguson, Missouri, planting the seeds for Black Lives Matter.

While Twitter founders Evan Williams and Jack Dorsey thought they were building a platform for political and social activism, their trust and safety team was getting overwhelmed with abuse. “It’s like they never really read Lord of the Flies. People who don’t study literature or history, they don’t have any idea of what could happen,” said tech journalist Kara Swisher in Breaking the Bird, a CNN documentary about Twitter.

Whatever gets the most likes, comments, and shares gets amplified. Emotionally charged posts that lure the most engagement get pushed up to the top of the news feed. Enrage to engage is a strategy. “Social media manipulation has become very sophisticated,” says Wendy Sachs, director-producer of October 8, a documentary about the campus protests that erupted the day after the October 7th Hamas attack on Israel. “It’s paid for and funded by foreign governments looking to divide the American people.”

Malicious actors engineer virality by establishing bots that leach inside communities for months, sometimes years, before they get activated. The bots are given profile pics and bios. Other tricks include staggering bot activity to occur in local time zones, using U.S. device fingerprinting techniques like setting the smartphone’s internal clock to the time zone to where an imaginary “user” supposedly lives, and setting the phone’s language to English.

Using AI-driven personas with interests like cryptocurrency or dogs, bots are set to follow real Americans and cross-engage with other bots to build up perceived credibility. It’s a concept known as social graph engineering, which involves infiltrating broad interest communities that align with certain biases, such as left- or right-leaning politics.

“Bot accounts lay dormant, and at a certain point, they wake up and start to post synchronously, which is what we’ve observed they actually do,” says Valentin Châtelet, research associate at the Digital Forensic Research Lab of the Atlantic Council. “They like the same post to increase its engagement artificially.”

Bot handlers build workflows with enough randomness to make them seem organic. They set them to randomly reshare or comment on trending posts with certain keywords or hashtags, which the algorithm then uses to personalize the bot’s home feed with similar posts. The bot can then comment on home feed posts, stay on topic, and dwell deeper inside the community.

This workflow is repetitive, but the constant updates on the social media platform make the bot activity look organic. Since social media platforms update frequently, programmed bots appear spontaneous and natural.

Software bots posted spam, also known as copypasta, which is a block of text that gets repeatedly copied and pasted. But the bot farmers use AI to author unique, personalized posts and comments. Integrating platforms like ChatGPT, Gemini, and Claude into a visual flow-building platform like Make.com, bots can be programmed with advanced logic and conditional paths and use deep integrations leveraging large language models to sound like a 35-year-old libertarian schoolteacher from the Northwest, or a MAGA auto mechanic from the Dakotas.

The speed at which AI image creation is developing dramatically outpaces the speed at which social networking algorithms are advancing. “Social media algorithms are not evolving quick enough to outperform bots and AI,” says Pratik Ratadiya, a researcher with two advanced degrees in computer science who’s worked at JPL and Apple, and who currently leads machine learning at Narravance. “So you have a bunch of accounts, influencers, and state actors who easily know how to game the system. In the game of cat and mouse, the mice are winning.”

And here is the mousetrap that caught our influencer formerly with the “Daily Caller”:

On October 7, 2023, as Hamas launched its deadly terror attack into Israel, a coordinated disinformation campaign—powered by Russian and Iranian bot networks—flooded social media with false claims suggesting the attack was an inside job. Social media posts in Hebrew on X with messages like “There are traitors in the army” and “Don’t trust your commanders” were overwhelmed with retweets, comments, and likes from bot accounts.

Along with the organic pro-Palestinian sentiment on the internet, Russian and Iranian bot farms promote misinformation to inflame divisions in the West. Their objective is to pit liberals against conservatives. They amplify Hamas’s framing of the conflict as a civil rights issue, rather than the terrorist organization’s real agenda—which is the destruction of the state of Israel and the expansion of Shariah law and Islamic fundamentalism. The social media posts selected for coordinated amplification by Russian and Iranian actors tend to frame Palestinians exclusively as victims, promoting simplistic victim-victimizer or colonizer-Indigenous narratives—false binaries amplified not to inform but to inflame and divide democratic societies from within.

Bot farm amplification can’t be undone. The same deceptive forces used bot farms to boost posts about a New York Times report that falsely blamed Israel for a bomb that hit a hospital in Gaza that reportedly killed 500 Palestinians. It was later revealed that the blast was actually caused by a rocket misfire from jihadists. The New York Times updated its headline twice. But you can’t put deceptive mass influence back in the bottle.

In the case of the war in Gaza, bot farms may not be solely to blame. “The Twitter algorithm is pretty nefarious,” says Ahmed Fouad Alkhatib, Gaza writer and analyst and senior fellow at the Atlantic Council. “I really think it optimizes for hate and division to drive engagement and revenue.” Perhaps Twitter is just more bot-farm-friendly?

In the case of the pro-Palestinian campus protests, they erupted before the Israeli death toll from the Hamas attack had even been established. How could it happen so quickly? Radical Islamic terrorists were still on the loose inside Israel. The film October 8 explores how college campuses turned against Israel less than 24 hours after the biggest massacre of Jews since the Holocaust.

“We think most of what we see online is real. But most of what we see is deceptive,” said Ori Shaashua, who is chairman of Xpoz and an AI entrepreneur behind a host of other tech ventures. Shaashua’s team analyzed the ratio between bots, avatars, and humans. “It doesn’t make sense when 418 social media accounts generate 3 million views in two hours,” says Shaashua.

Closing Argument

It’s not just the bots that are gaming the algorithms through mass amplification. It’s also the algorithms that are gaming us. We’re being subtly manipulated by social media. We know it. But we keep on scrolling.

Fast Company, Eric Schwartzman

Get a clue. The “reality” that you think you experience on social and “fake news” media is fabricated. You are being manipulated by a wide variety of agents, and what you think of as “truth” is nothing like truth.

Beware of strident voices seeking to manage your emotions. Even people who you think are on your side. Many of these are “sponsored” by corporations that seek to manipulate your behavior and opinions.

Be careful out there, and stay true to your own soul. It may be the only thing standing between your ability to think and the thoughts and emotions that are being so actively promoted to bend your mind to the will of others.

Never forget that, in fifth-generation warfare, the battle is no longer over territory. The battleground is for control of your mind. In a successful fifth-generation warfare action, those being influenced should not be able to discern who is manipulating them.

Het tijdschrift “Fast Company” publiceerde onlangs een artikel over botfarms, waarin wordt beschreven hoe deze geautomatiseerde systemen steeds geavanceerder worden en sociale media en andere online platforms kunnen manipuleren. Volgens Fast Company worden botfarms gebruikt om duizenden bots in te zetten die menselijk gedrag nabootsen, vaak om gebruikers te misleiden, te bedriegen of te bestelen. Deze botfarms kunnen nepberichten op sociale media plaatsen om verzonnen verhalen te verspreiden, waardoor ideeën populairder lijken dan ze in werkelijkheid zijn.

Ze worden gebruikt door overheden, financiële influencers en insiders uit de entertainmentwereld om specifieke verhalen wereldwijd te versterken. Botfarms kunnen bijvoorbeeld worden gebruikt om de illusie te wekken dat een groot aantal mensen enthousiast of boos is over een bepaald onderwerp, zoals een volatiele aandelenkoers of roddels over beroemdheden, waardoor algoritmen van sociale media worden misleid om deze berichten aan een groter publiek te tonen.

Hier is de link: Botfarms vallen sociale media binnen om de publieke opinie te kapen

Welkom in de wereld van mind control via sociale media.Door vrije meningsuiting te versterken met nepberichten, kun je de hersenen verdoven zodat ze vrijwel alles geloven. Geef je zalige onwetendheid op en slik de rode pil. Je staat op het punt te ontdekken hoe je denken wordt gemanipuleerd door moderne meesters in misleiding.

De manier waarop informatie in onze psyche wordt ingeprent, is geautomatiseerd. Leugens zijn een probleem van gisteren. Het probleem van vandaag is het gebruik van bot farms om algoritmen van sociale media te misleiden, zodat mensen geloven dat die leugens waar zijn. Een leugen die vaak genoeg wordt herhaald, wordt waarheid.

Een paar maanden geleden had ik het voorrecht om een podcast op te nemen met Tim Poole, die zich richtte op MAHA, gezondheid, zaadoliën, droogmiddelverontreinigingen in onze granen en sojabonen, zoals glyfosaat (“Roundup”), en een hele reeks aanverwante kwesties. Maar wat mij betreft was het belangrijkste deel van dat bezoek niet wat er werd uitgezonden, maar het lange gesprek dat daarna buiten de camera plaatsvond. Vergeet niet dat Jill en ik afgelopen najaar misschien wel de meest definitieve analyse tot nu toe hebben gepubliceerd over het gebruik van PsyWar, censuur en propagandatechnologie tijdens de COVID-crisis.

Ik weet dus het een en ander over dit onderwerp en word regelmatig geïnterviewd over dit of dat aspect van PsyWar-technologie die momenteel wordt ingezet door de “Fake News”, de farmaceutische industrie, de Amerikaanse regering, de WHO, de VN en een breed scala aan andere actoren.

Maar Tims inzichten hebben mijn ogen geopend voor aspecten van het huidige landschap die Jill en ik niet in het boek hebben behandeld. Hij gaf met name goede voorbeelden van de effecten en het gebruik van “small rooming” – ook wel bekend als vrijheid van meningsuiting maar niet van bereik (wat expliciet een kernbeleid is dat algoritmisch wordt afgedwongen). Maar wat mijn bewustzijn echt heeft verbreed, was zijn bespreking van de manier waarop AI-gestuurde bots worden ingezet.

Om zijn punt te illustreren, begon hij met het voorbeeld van een bepaalde influencer die vroeger verbonden was aan de Daily Wire. Ik zal de namen achterwege laten om onschuldigen te beschermen en het risico op smaadprocessen te verminderen. Ooit plaatste deze influencer inhoud die licht tot matig kritisch was over het beleid en de acties van Israël in reactie op de invasie van Hamas op 7 oktober 2023. In feite waagde de influencer zich buiten wat toen het Overton Window was van het toegestane publieke discours over dit onderwerp. De reacties op sociale media waren onmiddellijk en opvallend positief. Duizenden likes en nieuwe volgers.

De influencer voelde dat hij een gevoelige snaar had geraakt en volgde met nog scherpere uitspraken, waarna opnieuw een golf van positieve reacties overspoelde de sites waar deze meningen waren gepost. Aangemoedigd en gesterkt door het groeiende aantal nieuwe volgers ging de influencer door. Daarbij overschreed hij een aantal grenzen die door velen worden aangemerkt als “haatzaaiende uitlatingen”. Het resultaat was dat hij op grote schaal werd geblokkeerd, onder meer door The Daily Wire en andere conservatieve mediasites, en dat zijn berichten werden gecensureerd.

Het punt is dat de meeste nieuwe “volgers” die de influencer aanmoedigden, geen echte mensen waren. Het waren bots. Botlegers die speciaal waren ingezet om de influencer in diskrediet te brengen door het promoten en verspreiden van wat door de meesten als haatzaaiende uitlatingen werden beschouwd. Missie volbracht, en weer een invloedrijke conservatieve stem ten onder gegaan.

Begrijp je dat?

Terug naar dit alarmerende artikel van Fast Company.

Botfarms worden gebruikt om ideeën op sociale media populairder te laten lijken dan ze in werkelijkheid zijn. Een botfarm bestaat uit honderden of duizenden smartphones die worden aangestuurd door één computer. In datacenterachtige faciliteiten worden rekken met telefoons gebruikt om via nepaccounts op sociale media en mobiele apps berichten te delen en reacties te plaatsen. De botfarm zendt gecoördineerde likes, reacties en shares uit om de indruk te wekken dat veel mensen enthousiast of boos zijn over bijvoorbeeld een volatiele aandelenkoers, een wereldwijde schande of roddels over beroemdheden, ook al is dat niet het geval.

Meta noemt dit ‘gecoördineerd onecht gedrag’. Het misleidt het algoritme van het sociale netwerk, waardoor het bericht aan meer mensen wordt getoond omdat het systeem denkt dat het trending is. Omdat de nepaccounts de Turingtest doorstaan, worden ze niet gedetecteerd.

“Het is erg moeilijk om onderscheid te maken tussen authentieke en niet-authentieke activiteiten”, zegt Adam Sohn, CEO van Narravance, een bedrijf dat zich bezighoudt met dreigingsinformatie op sociale media en grote sociale netwerken tot zijn klanten rekent. “Het is moeilijk voor ons, en wij zijn een van de beste ter wereld op dit gebied.”

Als een van de toonaangevende social media-informatiebedrijven ter wereld moeite heeft om onderscheid te maken tussen echte accounts en bots – met name AI-bots – dan houd je jezelf voor de gek als je denkt dat jij dat wel kunt.

In hun artikel deelt Fast Company een fascinerend verhaal uit de geschiedenis van de Grote Depressie, waarin de fortuin van de familie Kennedy een rol speelt. Ik dacht altijd dat die fortuin voortkwam uit smokkel tijdens de drooglegging.

Het beïnvloeden van de publieke opinie is geen nieuw fenomeen. Maar vroeger was het een zeer arbeidsintensief proces. Slechts enkele maanden voor de beurscrash van 1929 werd Joseph P. Kennedy, de vader van JFK, rijker door de kapitaalmarkten te manipuleren. Hij maakte deel uit van een geheime handelsgroep van rijke investeerders die door middel van gecoördineerde aankopen en mediahype de prijs van de aandelen van Radio Corp. of America kunstmatig tot astronomische hoogten opdreven.

Daarna dumpten Kennedy en zijn rijke vrienden hun RCA-aandelen met enorme winst, stortte het aandeel in en verloor iedereen zijn geld. Na de beurscrash benoemde president Franklin D. Roosevelt Kennedy tot eerste voorzitter van de Securities and Exchange Commission, waarmee hij de vos op het kippenhok zette.

Tegenwoordig gebruiken beursmanipulators botfarms om nepberichten over ‘populaire’ aandelen op Reddit, Discord en X te versterken. Botnetwerken richten zich op berichten vol met tickersymbolen en gecodeerde slanguitdrukkingen als ‘c’mon fam’, ‘buy the dip’, ‘load up now’ en ‘keep pushing’. De zelfbenoemde finfluencers achter deze praktijken verdienen miljoenen door legers van avatars, sock puppets en bots te coördineren om weinig verhandelde aandelen te hypen, zodat ze na de prijsstijging een deel van de winst kunnen opstrijken.

“We zien zoveel gevallen waarin er geen nieuwsbericht is”, zegt Adam Wasserman, CFO van Narravance. “Er is geen technische indicator. Er zijn alleen bots die dingen posten als ‘dit aandeel gaat de maan in’ en ‘het beste aandeel, ik haal mijn 401k eruit’. Maar het zijn geen echte mensen. Het is allemaal nep.”

Lees die laatste zin nog eens. “Het zijn geen echte mensen. Het is allemaal nep.”

Wees op uw hoede, mede-gebruikers van sociale en bedrijfsmedia. Consumeer deze informatie op eigen risico. De realiteit die u daar aantreft, is volledig verzonnen. Sommigen zullen zichzelf wijsmaken dat ze invloedrijke spelers zijn, maar in feite zijn ze allemaal slachtoffers. De structuur van de waarheid en de realiteit zelf is het slachtoffer. En AI-gestuurde bots worden nu het belangrijkste instrument om leugens te verspreiden.

Als er geen betrouwbare informatie is, wordt wat we denken waarschijnlijk minder belangrijk dan hoe we ons voelen. Daarom gaan we terug van het tijdperk van de wetenschap – waarin kritisch denken en op bewijs gebaseerd redeneren centraal stonden – naar iets dat lijkt op het Edwardiaanse tijdperk, dat meer werd gedreven door emotionele redeneringen en eerbied voor autoriteit.

Toen Twitter microblogging introduceerde, was dat bevrijdend. We dachten allemaal dat het een kennisversterker was. We zagen hoe het een pro-democratische beweging aanwakkerde die als een olievlek over het Midden-Oosten en Noord-Afrika verspreidde, de Arabische Lente, en hoe het de nationale verontwaardiging over raciale onrechtvaardigheid in Ferguson, Missouri, aanwakkerde en de kiem legde voor Black Lives Matter.

Terwijl Twitter-oprichters Evan Williams en Jack Dorsey dachten dat ze een platform voor politiek en sociaal activisme aan het bouwen waren, werd hun trust- en veiligheidsteam overspoeld met misbruik. “Het is alsof ze Lord of the Flies nooit echt hebben gelezen. Mensen die geen literatuur of geschiedenis studeren, hebben geen idee wat er kan gebeuren”, aldus techjournaliste Kara Swisher in Breaking the Bird, een CNN-documentaire over Twitter.

Wat de meeste likes, reacties en shares krijgt, wordt versterkt. Emotioneel geladen berichten die de meeste reacties uitlokken, worden naar de top van de nieuwsfeed geduwd. Woede opwekken om betrokkenheid te creëren is een strategie. “Manipulatie via sociale media is zeer geavanceerd geworden”, zegt Wendy Sachs, regisseur en producent van October 8, een documentaire over de campusprotesten die uitbraken op de dag na de aanval van Hamas op Israël op 7 oktober. “Het wordt betaald en gefinancierd door buitenlandse regeringen die het Amerikaanse volk willen verdelen.”

Kwaadwillende actoren zorgen voor viraliteit door bots te creëren die maandenlang, soms zelfs jarenlang, in gemeenschappen infiltreren voordat ze worden geactiveerd. De bots krijgen profielfoto’s en biografieën. Andere trucs zijn het spreiden van botactiviteiten over verschillende tijdzones, het gebruik van Amerikaanse technieken voor het identificeren van apparaten, zoals het instellen van de interne klok van de smartphone op de tijdzone waar een denkbeeldige “gebruiker” zou wonen, en het instellen van de taal van de telefoon op Engels.

Met behulp van AI-gestuurde persona’s met interesses zoals cryptovaluta of honden worden bots ingesteld om echte Amerikanen te volgen en interactie aan te gaan met andere bots om zo hun geloofwaardigheid op te bouwen. Dit concept staat bekend als social graph engineering en houdt in dat brede belangengemeenschappen worden geïnfiltreerd die aansluiten bij bepaalde vooroordelen, zoals linkse of rechtse politieke opvattingen.

“Botaccounts liggen inactief en op een gegeven moment worden ze geactiveerd en beginnen ze synchroon berichten te plaatsen, wat we ook daadwerkelijk hebben waargenomen”, zegt Valentin Châtelet, onderzoeksmedewerker bij het Digital Forensic Research Lab van de Atlantic Council. “Ze liken dezelfde berichten om de betrokkenheid kunstmatig te vergroten.”

Botbeheerders bouwen workflows met voldoende willekeur om ze organisch te laten lijken. Ze stellen ze in om willekeurig trending posts met bepaalde trefwoorden of hashtags te delen of erop te reageren, waarna het algoritme de homefeed van de bot personaliseert met soortgelijke posts. De bot kan vervolgens reageren op posts in de homefeed, bij het onderwerp blijven en zich dieper in de community nestelen.

Deze workflow is repetitief, maar door de voortdurende updates op het sociale mediaplatform lijkt de activiteit van de bot organisch. Omdat sociale mediaplatforms regelmatig worden bijgewerkt, lijken geprogrammeerde bots spontaan en natuurlijk.

Softwarebots plaatsten spam, ook wel copypasta genoemd, een blok tekst dat herhaaldelijk wordt gekopieerd en geplakt. Maar de botfarmers gebruiken AI om unieke, gepersonaliseerde berichten en reacties te schrijven. Door platforms zoals ChatGPT, Gemini en Claude te integreren in een visueel platform voor het bouwen van flows, zoals Make.com, kunnen bots worden geprogrammeerd met geavanceerde logica en voorwaardelijke paden en gebruikmaken van diepgaande integraties die gebruikmaken van grote taalmodellen om te klinken als een 35-jarige libertaire leraar uit het noordwesten of een MAGA-automechanicus uit de Dakotas.

De snelheid waarmee AI-beeldcreatie zich ontwikkelt, overtreft de snelheid waarmee algoritmen voor sociale netwerken zich ontwikkelen aanzienlijk. “Algoritmes voor sociale media evolueren niet snel genoeg om bots en AI te overtreffen”, zegt Pratik Ratadiya, een onderzoeker met twee masterdiploma’s in computerwetenschappen die bij JPL en Apple heeft gewerkt en momenteel leiding geeft aan machine learning bij Narravance. “Je hebt dus een heleboel accounts, influencers en staatsactoren die gemakkelijk weten hoe ze het systeem kunnen manipuleren. In het kat-en-muisspel winnen de muizen.”

En hier is de muizenval die onze influencer, voorheen werkzaam bij de “Daily Caller”, in de val heeft gelokt:

Op 7 oktober 2023, toen Hamas een dodelijke terreuraanslag pleegde op Israël, overspoelde een gecoördineerde desinformatiecampagne – aangestuurd door Russische en Iraanse botnetwerken – de sociale media met valse beweringen dat de aanslag een inside job was. Socialemediaposts in het Hebreeuws op X met berichten als “Er zijn verraders in het leger” en “Vertrouw je commandanten niet” werden overspoeld met retweets, reacties en likes van botaccounts.

Naast de organische pro-Palestijnse sentimenten op internet verspreiden Russische en Iraanse botnets desinformatie om verdeeldheid in het Westen aan te wakkeren. Hun doel is om liberalen tegen conservatieven op te zetten. Ze versterken het beeld dat Hamas van het conflict schetst als een burgerrechtenkwestie, in plaats van de werkelijke agenda van de terroristische organisatie, namelijk de vernietiging van de staat Israël en de uitbreiding van de sharia en het islamitisch fundamentalisme. De posts op sociale media die door Russische en Iraanse actoren worden geselecteerd voor gecoördineerde versterking, hebben de neiging om Palestijnen uitsluitend als slachtoffers af te schilderen en simplistische slachtoffer-dader- of kolonisator-inheemse verhalen te promoten – valse tegenstellingen die niet worden versterkt om te informeren, maar om democratische samenlevingen van binnenuit te verdelen en op te hitsen.

De versterking door botfarms kan niet ongedaan worden gemaakt. Dezelfde misleidende krachten gebruikten botfarms om berichten te verspreiden over een artikel in de New York Times waarin Israël ten onrechte werd beschuldigd van een bomaanslag op een ziekenhuis in Gaza waarbij naar verluidt 500 Palestijnen omkwamen. Later bleek dat de explosie in werkelijkheid was veroorzaakt door een mislukte raketaanval van jihadisten. De New York Times heeft zijn kop twee keer aangepast. Maar misleidende massale beïnvloeding kun je niet terugdraaien.

In het geval van de oorlog in Gaza zijn botfarms misschien niet de enige schuldigen. “Het algoritme van Twitter is behoorlijk snood”, zegt Ahmed Fouad Alkhatib, schrijver en analist uit Gaza en senior fellow bij de Atlantic Council. “Ik denk echt dat het haat en verdeeldheid optimaliseert om betrokkenheid en inkomsten te stimuleren.” Misschien is Twitter gewoon botfarmvriendelijker?

In het geval van de pro-Palestijnse campusprotesten braken deze uit nog voordat het aantal Israëlische slachtoffers van de Hamas-aanval zelfs maar bekend was. Hoe kon dit zo snel gebeuren? Radicale islamitische terroristen waren nog steeds op vrije voeten in Israël. De film October 8 onderzoekt hoe universiteitscampussen zich binnen 24 uur na de grootste massamoord op Joden sinds de Holocaust tegen Israël keerden.

“We denken dat het meeste wat we online zien echt is. Maar het meeste wat we zien is misleidend”, aldus Ori Shaashua, voorzitter van Xpoz en AI-ondernemer achter een reeks andere tech-startups. Het team van Shaashua analyseerde de verhouding tussen bots, avatars en mensen. “Het is onlogisch dat 418 socialemedia-accounts in twee uur tijd 3 miljoen views genereren”, zegt Shaashua.

Slotpleidooi

Het zijn niet alleen de bots die de algoritmen manipuleren door middel van massale versterking. Het zijn ook de algoritmen die ons manipuleren. We worden op subtiele wijze gemanipuleerd door sociale media. We weten het. Maar we blijven scrollen.

Fast Company, Eric Schwartzman

Word wakker. De “realiteit” die je denkt te ervaren op sociale media en “nepnieuwsmedia” is verzonnen. Je wordt gemanipuleerd door een breed scala aan actoren, en wat je als ‘waarheid’ beschouwt, is in niets vergelijkbaar met de waarheid.

Pas op voor schrille stemmen die je emoties willen beïnvloeden. Zelfs mensen waarvan je denkt dat ze aan jouw kant staan. Veel van hen worden “gesponsord” door bedrijven die je gedrag en meningen willen manipuleren.

Wees voorzichtig en blijf trouw aan jezelf. Het is misschien het enige dat nog tussen je vermogen om te denken en de gedachten en emoties staat die zo actief worden gepromoot om je geest naar de wil van anderen te buigen.

Vergeet nooit dat in de vijfde generatie oorlogsvoering de strijd niet langer om territorium gaat. Het slagveld is de controle over je geest. In een succesvolle vijfde generatie oorlogsvoering mogen degenen die worden beïnvloed niet in staat zijn om te onderscheiden wie hen manipuleert.