Dossier
AI-geheugen, personalisatie en privacy
De spanning tussen nuttige persoonlijke AI-assistenten en dataminimalisatie/privacy.
Nieuwsitems
Gekoppelde artikelen
Hooks gebruikt kunnen worden om een gemeenschappelijk geheugen te creëren voor verschillende AI-gebaseerde tools zoals Claude Code, Codex en Cursor. Dit geheugen wordt opgeslagen in Neo4j en werkt onafhankelijk van de specifieke tool. De methode maakt gebruik van hooks die automatisch activeren bij bepaalde gebeurtenissen zoals het starten van een sessie of het gebruiken van een tool. De geheugeninformatie wordt vervolgens in een structuur opgeslagen die lijkt op een markdown-wiki, waardoor het geheugen over meerdere tools heen beschikbaar is. Dit systeem maakt het mogelijk om tussen verschillende tools te switchen zonder verlies van context of geheugen.
Een artikel dat de opkomende markt van AI-kinderknuffels bespreekt, waarbij AI-gebaseerde speelgoedartikelen als knuffelbeesten en 'robots' steeds vaker worden gebruikt. De artikelen benadrukken de risico's van deze producten, zoals ongepaste inhoud, privacyproblemen en de invloed van AI-modellen die voor volwassenen zijn bedoeld. Er wordt ook gesproken over het ontbreken van voldoende regelgeving en de noodzaak van onafhankelijke veiligheidstests. De artikelen tonen aan dat de markt snel groeit, maar ook dat er veel zorgen zijn over de veiligheid en de invloed op kinderen.
OpenAI heeft een nieuwe functie ingevoerd waarbij gebruikers een Trusted Contact kunnen opgeven. Deze persoon wordt door ChatGPT aangesproken als het gesprek in gevoelige richtingen gaat, zoals zelfbeschadiging of ernstige problemen. De contactpersoon krijgt een automatische melding, maar niet de details van het gesprek om de privacy van de gebruiker te beschermen. OpenAI wil zo de geestelijke gezondheid van gebruikers beter beschermen, na rechtszaken over risico's voor mensen met psychische problemen. Incidenten met zelfbeschadiging worden altijd bekeken door mensen, binnen een uur, en dan wordt het Trusted Contact ingeschakeld via sms, e-mail of app-notificatie.
OpenAI heeft nieuwe stemintelligentiefuncties gelanceerd in zijn API, waaronder GPT-Realtime-2, GPT-Realtime-Translate en GPT-Realtime-Whisper. Deze modellen zijn ontworpen om developers te helpen bij het maken van apps die kunnen praten, conversaties transcriberen en vertalen. GPT-Realtime-2 maakt gebruik van GPT-5-klasse redeneren voor complexere gebruikersvragen. De nieuwe functies kunnen worden gebruikt in verschillende sectoren, zoals educatie, media en creatieve platforms. OpenAI heeft ook veiligheidsmaatregelen toegevoegd om misbruik te voorkomen, zoals het stoppen van conversaties die in de grenzen van de contentrichtlijnen vallen.
OpenAI heeft drie nieuwe stemmodellen gelanceerd: GPT-Realtime-2, GPT-Realtime-Translate en GPT-Realtime-Whisper. Deze modellen kunnen in real-time redeneren, vertalen en spreken transcriberen. GPT-Realtime-2 biedt redeneren dat volgens OpenAI gelijk staat aan GPT-5. Het model kan meerdere tools parallel gebruiken en heeft een redeneringsintensiteit die in vijf niveaus kan worden afgesteld. De modellen zijn beschikbaar via de Realtime API en worden gebruikt voor live vertaling, transcriberen en interactieve stemgebruik. OpenAI benadrukt dat stemmodellen nu beter zijn in het begrijpen van context en het hanteren van specialisatie, met toepassingen in onder andere klantenservice en educatie.
In de eerste kwartaler van 2026 is het wereldwijde AI-gebruik verder gestegen. 1,5 procentpunten van de werknemersleeftijd van de wereldbevolking, van 16,3% naar 17,8%. De top van de Microsoft Nationale AI-leiderslijst behoort nog steeds aan de Verenigde Arabische Emiraten met 70,1%, terwijl de Verenigde Staten vanuit de 24e naar de 21e positie zijn gegaan. De stijging van AI-gebruik in Azië wordt ondersteund door verbeterde AI-vaardigheden in talen van de regio. De AI-gap tussen het Noord- en Zuiden blijft groter, met 27,5% in het Noorden en 15,4% in het Zuiden. AI-gebruik in Japan, Zuid-Korea en Thailand is het sterkst gegroeid. De stijging van AI-gebruik wordt gemeten aan de hand van de hoeveelheid mensen tussen 15 en 64 jaar die generatieve AI-producten hebben gebruikt. De data komt uit Microsoft-telemetry en is aangepast aan OS- en apparatuurverspreiding, internettoegang en bevolkingscijfers. AI-codevaardigheden zijn sterk toegenomen, met een 78% stijging in Git-pushes wereldwijd. De data toont ook een toename van softwareontwikkelaarswerkgelegenheid in de VS en in de eerste kwartaler van 2026.
Onderzoekers van ETH Zürich hebben ontdekt dat AI-modellen zoals ChatGPT in staat zijn om persoonlijke eigenschappen van gebruikers te bepalen aan de hand van hun gesprekken. In een studie met 668 deelnemers uit de VS en Groot-Brittannië werden meer dan 62.000 chatsessies geanalyseerd. De deelnemers vulden ook een persoonlijkheidstest in op basis van het Big Five-model. Pas toen AI-modellen werden bijschoolden met de gegevens, konden eigenschappen zoals extraversie, vriendelijkheid en gevoeligheid voor stress goed worden ingeschat. Gesprekken over onderwerpen als relatieproblemen, gezondheid en werk geven veel informatie over de persoonlijkheid. De onderzoekers waarschuwen dat gevoelige informatie niet zomaar moet worden gedeeld met chatbots, omdat bedrijven zoals OpenAI, Anthropic en Google nu al grote databases van gebruikersgegevens kunnen opbouwen.
Een nieuw concept voor het opzetten van een persoonlijke wiki die door een LLM wordt onderhouden, zodat context altijd up-to-date blijft. Andrej Karpathy, oprichter van OpenAI, beschrijft hoe je een systeem kunt opzetten met drie kernbestanden (_hot.md, _pending.md en _log.md) die samenwerken om informatie te verzamelen, te indexeren en te beheren. Het systeem zorgt ervoor dat de AI geen herhalingen hoeft te maken bij elke vraag, maar al het relevante materiaal al vooraf is verwerkt. De methode is bedoeld om de productiviteit te verhogen door context te blijven behouden, in plaats van afhankelijk te zijn van tijdelijke chatgeschiedenis. De aanpak is toegankelijk voor elk AI-tool en kan worden gebruikt met systemen zoals GitHub, Codex of andere AI-modellen die bestanden kunnen lezen.
Google heeft ongevraagd een AI-model van 4 GB geïnstalleerd op de computers van veel gebruikers via Google Chrome. Het bestand, genaamd weights.bin, bevat de lichtgewicht-versie van het Gemini Nano-model, waarmee taken lokaal kunnen worden uitgevoerd zonder dat gegevens naar de cloud worden gestuurd. Het bedrijf verklaart dat het bestand automatisch wordt verwijderd als er opslagruimte tekort is. Sinds februari is er ook een optie om het model uit te schakelen in de instellingen van Chrome, waardoor het bestand niet langer wordt gedownload.
OpenAI introduceert drie nieuwe realtime stemmodellen via de API: GPT-Realtime-2, GPT-Realtime-Translate en GPT-Realtime-Whisper. Deze modellen kunnen redeneren, vertalen en spreken transcriberen in real time, waardoor developers kunnen bouwen aan natuurlijke en intelligente steminteracties. GPT-Realtime-2 biedt GPT-5-klasse redenering en kan complexe vragen aanpakken. De modellen ondersteunen ook meerdere taalvertalingen en streamen tekst in real time. OpenAI benadrukt dat deze updates de basis vormen voor toekomstige steminterfaces die echt werk kunnen verrichten, zoals het beheren van reizen of het vertalen van gesprekken in real time.
AssemblyAI maakt zijn leidende spraakherkenningstechnologie beschikbaar voor zelf-hosting, zowel op eigen infrastructuur, in de cloud of op-premises. Bedrijven kunnen de modellen gebruiken om prestaties te optimaliseren, compliance te voldoen en controle te behouden over hun systeem. De zelf-hosting biedt lagere netwerklatency, data-sovereigniteit en flexibiliteit bij schaling. De oplossing ondersteunt GPU-configuraties en werkt met container-orkestratieplatforms zoals Kubernetes en AWS ECS. De prijsmodel is gelijk aan het cloudabonnement zonder extra kosten, en de oplossing is beschikbaar in regio's zoals Australië, Singapore en Zuid-Amerika.
CopilotKit introduceert een Enterprise Intelligence Platform die agente applicaties het vermogen geeft om geheugen te behouden over sessies en apparaten. De kern van het platform is de 'Thread', een duurzame sessieobject die interacties zoals generatieve UI, menselijke inloop workflows, gedeelde staat, stem, bestanden en multimodale interacties opslaat. De platformfunctionaliteit werkt onafhankelijk van de agentframeworks en ondersteunt zelf-hosting op Kubernetes met SOC 2 Type II certificering. Binnenkort komt er ook analytics en zelfverbetering via Continuous Learning from Human Feedback (CLHF).
Een artikel onderzoekt hoe automatische spraakherkenning, zoals gebruikt door Google, niet neutraal is en hoe het beïnvloedt macht en bias. Het legt uit dat spraakherkenningssystemen vaak veronderstellingen maken over standaardtaal, die vaak de 'prestige dialecten' van machtige instellingen zijn. Dit leidt tot onjuiste vertalingen van niet-standaardtaal, zoals het woord 'Boorloo' voor Perth, dat verkeerd wordt vertaald naar 'Barolo'. De impact is groot, vooral voor First Nations in Australië, waar stiltes en pauzes belangrijke communicatievormen zijn. Onderzoek toont aan dat fouten in transcripties de waarneming van sprekers beïnvloeden en zelfs juridische of medische beslissingen kunnen beïnvloeden. Het artikel benadrukt het belang van transparantie en het erkennen van beperkingen in spraakherkenningssystemen.
De Nederlandse overheid mag het contract met Solvinity voor de ondersteuning van het DigiD-platform met twee jaar verlengen, volgens een uitspraak van de Haagse rechter. Drie burgers hadden een vordering ingediend om de verlenging te blokkeren, maar de rechter wees hun aanvraag af. Ze vrezen dat de Amerikaanse overname van Solvinity door Kyndryl persoonsgegevens in handen zou kunnen geven van de Amerikaanse overheid, wat in strijd zou staan met het privacyrecht. Staatssecretaris Eric van der Burg verklaarde dat er geen mogelijkheden zijn om het contract te beëindigen voor de deadline van 6 mei. De overheid wil de dienstverlening door Solvinity voortzetten om continuïteit te waarborgen, ondanks de bezwaren van de Tweede Kamer. Er blijft een kleine kans dat de overname door Kyndryl niet doorgaat, afhankelijk van de toetsing door het Bureau Toetsing Investeringen (BTI).
Replit, een AI-gevoede softwareontwikkelingsplatform, introduceert twee belangrijke updates om de beveiliging van privé gepubliceerde apps te verbeteren. Private Publishing is nu beschikbaar voor gebruikers van de Core en Starter-abonnementen, terwijl eerst alleen Pro en Enterprise-abonnementen dit konden gebruiken. Bovendien worden External Access Tokens beschikbaar gesteld voor alle privé apps, waarmee betrouwbare externe diensten veilig toegang kunnen krijgen zonder de hele app open te stellen. Deze tokens kunnen worden beperkt tot ontwikkel- of productieomgevingen en worden gecontroleerd door Replit voordat ze worden doorgestuurd naar de app. Gebruikers kunnen tokens aanmaken, beheren en op elk moment intrekken.
Een onderzoek onder STEM-studenten in Canada toont aan dat veel studenten zich zorgen maken dat hun AI-verbeterde schrijfwerk sterk klinkt, maar niet als zijzelf. De studie, gebaseerd op interviews met een groep studenten over twee jaar, benadrukt dat AI de identiteit van studenten kan beïnvloeden. Veel studenten voelen dat hun persoonlijke stem verloren gaat, terwijl AI een standaard, generieke stijl kan creëren. De studie benadrukt ook dat schrijven niet alleen een technische vaardigheid is, maar ook een manier om zich te positioneren als toekomstige professional. Er zijn zorgen dat AI de menselijke authenticiteit en origineelheid verandert, en dat studenten zich moeten afvragen of hun werk echt hun identiteit weerspiegelt.
Google test momenteel Remy, een nieuw AI-agent voor het Gemini-model, als onderdeel van een groter plan om Gemini uit te breiden naar acties buiten chat. Remy is ontworpen om gebruikers te helpen met werk- en dagelijks taken door acties uit te voeren op hun naam. De test wordt uitgevoerd binnen een intern versie van de Gemini-app en omvat momenteel alleen medewerkers. De functie is bedoeld als een 24/7 persoonlijke assistent die Gemini kan veranderen in een actieve assistent. De test bevat ook een focus op gebruikerscontrole, met opties om activiteiten te beheren, gegevens te verwijderen en toegang tot apps te beheren. Remy wordt gezien als een geavanceerde versie van bestaande agent-features zoals Agent Mode, en wordt vergeleken met andere AI-agents zoals OpenClaw. Google benadrukt ook de noodzaak van transparantie en beperkte rechten voor AI-agents, zoals beschreven in hun richtlijnen voor AI-governance.
Singular Bank, een privébank met kantoor in Madrid, heeft een interne assistent gebouwd genaamd Singularity die gebruik maakt van ChatGPT en Codex. Deze tool helpt bankers om 60 tot 90 minuten per dag te besparen bij voorbereiding van vergaderingen, portefeuilleanalyse en volgcommunicatie. Met Singularity kunnen bankers direct inzicht krijgen in risico's en onbalansen in een portefeuille, en worden aanbevelingen gedaan voor acties zoals diversificatie of balansering. Na elke vergadering genereert de tool geautomatiseerde volgcommunicatie en identificeert volgende stappen. De tool is geïntegreerd in de kernsystemen van de bank, waardoor alle uitvoer gestructureerd en traceerbaar is, wat helpt bij regelgeving. Bankers besparen tijd op herhalende taken zoals vergaderingsvoorbereiding en investeringsargumenten, waardoor ze meer tijd kunnen besteden aan cliëntenadvies en relatieopbouw.
IBM heeft de ondersteuning toegevoegd voor Google Vertex AI en Intel Gaudi om de AI-gebaseerde beheerfunctionaliteiten van zijn Db2-database te verbeteren. Met de update van Db2 Genius Hub belooft IBM een automatisering die DBAs binnen bepaalde grenzen kan vertegenwoordigen. De nieuwe functionaliteit integreert Db2-data met Google Cloud's AI-platform Vertex AI om machine learning-modellen te bouwen, te implementeren en te schalen. Daarnaast wordt Intel Gaudi gebruikt als AI-accelerator met verbeterde prestaties voor grote AI-uitvoeringen. De updates voegen Microsoft Azure AI Foundry toe en vormen een stap naar meer autonome databasebeheer. IBM stelt dat AI routine-taken kan overnemen terwijl menselijke besluitvorming centraal blijft. De Db2 Genius Hub kan kosten met 25 procent verlagen, manuele ingrijpen met 30 procent en tijd tot oplossing met 35 procent verminderen. Experten zoals Sanjeev Mohan verwachten dat automatisering snel bij DBAs zal aankloppen, met de doelstelling dat DBAs beter kunnen samenwerken met bedrijfsleiders.
Microsoft heeft de standaardinstelling voor het toevoegen van AI-credit in Git-commits in VS Code hersteld naar opt-in. De verandering, die in versie 1.110 werd ingevoerd, leidde tot klachten van ontwikkelaars die ervan beschuldigden dat het systeem onbedoeld credit toekende aan Copilot, zelfs als de AI-assistent niet was gebruikt. De oplossing, die op 3 mei is gemaakt, komt in de komende versie 1.119. Ontwikkelaars waren verontwaardigd dat de instelling standaard werd aangezet, en vonden het onacceptabel dat de co-auteur informatie na handmatige wijzigingen in de commit nog steeds werd toegevoegd. De verandering is een reactie op klachten en een poging om de balans te vinden tussen AI-credit en menselijke controle in ontwikkelwerk.
In februari gingen Keniaanse werknemers van Meta naar de Zwitserse kranten en meldden dat ze gedwongen werden om beledigende en gevoelige beelden te bekijken die door de Ray-Ban AI-brillen van Meta werden opgenomen. Deze beelden bevatten onder andere naakte lichamen, toiletgebruik en seksuele scènes. Na twee maanden, toen de klachten in de kranten verschenen, stopte Meta met zijn samenwerking met de Keniaanse werkgever Sama. De Keniaanse werknemersorganisatie beschuldigde Meta van wraakneming. Meta ontkende de beschuldiging, maar stelde dat Sama niet aan de vereisten voldoet. De zaak heeft de aandacht van de Britse en Keniaanse autoriteiten getrokken, die onderzoek starten naar mogelijke privacybreuken. De incidenten benadrukken de problemen met de privacy en de rol van onderbetaalde werknemers in de AI-industrie.
Het prestigieuze New England Journal of Medicine (NEJM) heeft een artikel getrokken dat een foto bevat die verstoord is door het gebruik van kunstmatige intelligentie (AI). De foto toont bronchiële weefsels van een patiënt die zwaar is belast door rookinhalatie, maar de meetlat in de foto toont onlogische getallen, wat op AI-gebruik wijst. De auteurs verklaren dat ze onbewust de regels van het tijdschrift over afbeeldingsmanipulatie niet kenden en de meetlat met AI verplaatst hadden. Het NEJM waarschuwt nu voor het openbaar maken van AI-genegeerde afbeeldingen en benadrukt dat auteurs moeten aangeven wanneer AI wordt gebruikt. De incidenten benadrukken de groeiende problemen met AI-generatie in wetenschappelijke publicaties.
Andrew Kelley benadrukt dat het een veelvoorkomende fout is te denken dat we niet kunnen onthouden wie LLM's gebruikt en wie niet. Volgens hem zijn de fouten die mensen maken fundamenteel anders dan de hallucinaties van LLM's, waardoor deze makkelijk te herkennen zijn. Kelley benadrukt ook dat mensen uit de wereld van agentic coding een bepaalde 'digitale geur' hebben die voor anderen duidelijk is, maar voor hen zelf niet. Hij vergelijkt dit met het feit dat iedereen die niet rookt meteen merkt als iemand in de kamer rookt, terwijl de roker het niet zelf inziet.
Een artikel onderzoekt hoe het gebruik van AI bij het schrijven van e-mails de werkomgeving kan veranderen. Hoewel AI tools zoals ChatGPT en Microsoft Copilot de routine van e-mailbeheer kunnen verminderen, kan het ook leiden tot meer e-mails. De analyse wijst uit dat AI de communicatie niet vervangt, maar verandert. AI helpt bijvoorbeeld bij het verbeteren van de taal en het toon, maar kan ook leiden tot een verhoogde hoeveelheid e-mails. De kern van het artikel ligt in het effect van AI op de werkomgeving en de communicatie.
In een interview met The Register tijdens de AWS London Summit benadrukt Steve Tarcza, directeur van Amazon Stores, dat AI binnen de maatschappij Amazon niet als magie wordt gezien, maar als een proces dat steeds onder beheer moet blijven. Hoewel AI-systezen zoals Kiro de reconstructie van de inference engine van Bedrock in slechts 76 dagen mogelijk maakten, benadrukt Tarcza dat alle code nog steeds moet worden gecontroleerd door menselijke ingenieurs. Zelfs spec-driven development, een kernfunctie van Kiro, kan hallucinaties en fouten niet volledig voorkomen. Tarcza benadrukt ook dat het gebruik van AI bij de implementatie in de afdeling Stores beperkt blijft, en dat AWS al deterministische automatiseringen biedt. Hij waarschuwt voor de risico's van te veel afhankelijkheid van AI en benadrukt het belang van het aanwerven van jonge ingenieurs om de toekomst van de technologie te waarborgen.
AI-achtervolgingscamera's en andere surveillance-systemen zijn massaal uitgebreid in de Verenigde Staten, met weinig regelgeving of privacybeveiliging. AI-gebaseerde camera's, automatische licentieplaatlezers, drones en biomarker-databases vormen een geïntegreerd netwerk dat gegevens verzamelt zonder toestemming. In tientallen staten mogen politieagenten zonder wettelijke toestemming gegevens ophalen uit het netwerk van Flock Safety. De Fulu Foundation biedt een beloning aan voor een manier om Ring-video-deurbellen te ontkoppelen van Amazon. Activisten en organisaties werken aan het tegenhouden van deze technologie, ondanks de grote investeringen achter deze systemen.
MIT-onderzoekers hebben een nieuwe methode ontwikkeld die de efficiëntie van privacybeveiligde AI-opleiding verhoogt met ongeveer 81%. Deze techniek, genaamd FTTE (Federated Tiny Training Engine), helpt kleine apparaten zoals sensoren en slimme horloges om betere AI-modellen te trainen zonder gebruikersgegevens te delen. De methode werkt door een gedeelde subset van modelparameters te sturen in plaats van het hele model, wat de geheugenbelasting en communicatieoverhead verlaagt. De innovatie maakt het mogelijk om AI te gebruiken in gevoelige sectoren zoals gezondheidszorg en financiën, waar privacy en beveiliging van groot belang zijn. De onderzoekers testen hun framework in simulaties en op echte apparaten, met gunstige resultaten voor scalabiliteit en prestaties.
IBM heeft de AI-coderingshulp 'Bob' wereldwijd beschikbaar gesteld, na een testperiode met 80.000 medewerkers. De tool wordt gepresenteerd als een 'premium package' voor mainframe-applicaties, met een gemiddelde productiviteitsstijging van 45 procent. Bob maakt gebruik van verschillende AI-modellen, waaronder IBM's Granite SLM-familie, om de gehele softwareontwikkeling te automatiseren. De tool biedt ook veiligheidsfuncties die nieuwe risicocategorieën detecteren. Hoewel de tool momenteel gratis beschikbaar is voor klanten, worden er prijzen aangeboden vanaf 20 dollar per maand. Er zijn ook beveiligingsproblemen gemeld, zoals kwetsbaarheden voor malware via de CLI en data-exfiltratie. De tool wordt vooral gebruikt voor het analyseren van oude mainframe-systemen met veel technische schulden.
In de Verenigde Staten wordt er gemeld dat politieagenten gebruikmaken van automatische licentieplaatlezers (ALPRs) om persoonlijke romantische interesses te volgen. Volgens een analyse van de Institute for Justice zijn er al 14 gevallen waarin politieagenten worden beschuldigd van het misbruik van ALPR-toegang om te volgen naar partners, ex-partners en zelfs vreemden. De meeste gevallen zijn na 2024 opgedoken, toen de AI-ALPR-bedrijf Flock Safety zijn expansie uitbreidde naar meer dan 4.000 Amerikaanse steden. Hoewel Flock interne veiligheidsmaatregelen heeft, werden de meeste gevallen ontdekt door de slachtoffers, niet door het bedrijf of interne politieonderzoeken. In Milwaukee gaf een agent, Josue Ayala, zijn baan op na het vermoeden dat hij Flock gebruikte om zijn romantische partner en de partner van zijn partner ongeveer 180 keer te volgen. De slachtoffers ontdekten hun stalking pas toen een van hen zijn licentieplaat controleerde op de auditing-site HaveIBeenFlocked.com. Flock werkt nu in meer dan 6.000 Amerikaanse steden met meer dan 76.000 licentieplaatlezers. Jurist Michael Soyfer benadrukt dat de systemen privégegevens over bewegingen in handen leggen van elke politieagent, zonder een wettelijke beperking door een verklaring, leidt tot misbruik zoals stalken van romantische partners.