Nieuws
Privacy & Veiligheid nieuws
Bekijk de nieuwste AI-artikelen binnen het thema Privacy & Veiligheid. Links zie je alle thema's, rechts de recentste gekoppelde nieuwsitems.
12 mei 2026 07:11
Emerce AIMiljoen euro groeigeld voor ‘beveiliger’ van e-commerce Guzco
Het Nederlandse bedrijf Guzco, gespecialiseerd in fraudedetectie en claimmanagement in e-commerce, heeft een miljoen euro opgehaald in een pre-seed investeringsronde. De investeerder is Arches Capital, een groep particuliere investeerders met expertise in onder andere AI/ML. Het geld wordt gebruikt om het team en product te versterken en het platform op te schalen naar duizenden klanten. Guzco analyseert e-commerceflows op fraude- en risicobewegingen en helpt webwinkeliers maatregelen te nemen.
11 mei 2026 16:40
Futurism AIGoogle geschrokken door AI-gestuurde nul-dag-aanval
Google is geschrokken door een cyberaanval die AI gebruikte om een ernstige fout in hun software te ontdekken, die zelfs hun eigen ontwikkelaars onbekend was. De aanval, die volgens de New York Times uiteindelijk is tegengehouden, is het eerste bekende geval waarbij AI een nul-dag-gebrek ontdekt en gebruikt. De aanval zou twee-factor authenticatie kunnen omzeilen op een populaire open-source systeembeheer-tool. Google waarschuwt dat dit slechts het begin is van een groter probleem, met name gezien de recente lancering van Anthropic’s Claude Mythos-model, dat nul-dag-gebreken in grote besturingssystemen en webbrowsers kan ontdekken.
11 mei 2026 16:13
TechRepublic AI1,8 miljard Gmail-gebruikers moeten dit AI-privacyinstelling checken
Google heeft nieuwe AI-personalisatiefuncties voor Gmail aangekondigd, wat privacyzorgen heeft opgeworpen. Lori Greiner van Shark Tank waarschuwt dat Gmail met AI alle e-mails scant, waaronder belastingdossiers en persoonlijke gesprekken. Gebruikers kunnen deze functies uitschakelen via de instellingen, maar dan verliezen ze toegang tot nieuwe AI-updates. De functies zijn onderdeel van Google’s brede AI-strategie, waaronder het gebruik van Gemini in Workspace en Fitbit.
11 mei 2026 14:43
Guardian AIAI-gebaseerde hacking is explosief gegroeid tot industriële bedreiging, zegt Google
Volgens een rapport van Google is AI-gebaseerde hacking in drie maanden van een opkomende probleem geworden tot een industriële bedreiging. Criminele groepen en staatssamenhangende actoren gebruiken commerciële modellen zoals Gemini, Claude en tools van OpenAI om aanvallen te verfijnen en op te schalen. Google wijst erop dat AI de snelheid, schaal en complexiteit van aanvallen verhoogt, waardoor het gemakkelijker is om kwetsbaarheden in software te benutten.
11 mei 2026 13:53
The DecoderAI zet patches om in werkende exploits binnen 30 minuten, 90-dagen-ontwikkelingstijd onder vuur
AI-language modellen vinden beveiligingsproblemen sneller en zetten patches om in werkende exploits binnen 30 minuten. Expert Himanshu Anand zegt dat de traditionele 90-dagen-ontwikkelingstijd voor beveiligingspatches niet meer geldt. Voorbeelden tonen aan dat AI het proces van ontdekken en exploitatie van kwetsbaarheden verandert, waardoor beveiligingsbedrijven en onderzoekers sneller moeten handelen.
11 mei 2026 12:54
The DecoderGeneratieve AI verandert identiteitsdiefstal in een industrieel grootbedrijf
Generatieve AI en autonome agents verhogen identiteitsdiefstal in de VS tot een industrieel niveau. Volgens Experian speelden AI-tools een rol in 40 procent van de datalekken die vorig jaar werden onderzocht. Fraudeurs gebruiken tools zoals FraudGPT om geldige sociale beveiligingsnummers te vinden en diepfake-identiteiten te creëren. De schade door fraude wereldwijd bedraagt nu meer dan 534 miljard dollar.
11 mei 2026 12:41
The Conversation AI EuropeHoe AI kan leiden tot ongegronde arrestaties en onschuldige veroordelingen
In Baltimore en Tennessee zijn er recente gevallen waarin AI-systeemen leidden tot ongegronde arrestaties en veroordelingen. Een AI-gebaseerd surveillancecamera identificeerde verkeerd een Doritos zak als een wapen, wat leidde tot een gewapende arrestatie. In Tennessee werd een oma onschuldig vrijgelaten na vijf maanden gevangenschap vanwege een fout in het gezichtsherkenningssysteem. Deze gevallen tonen aan dat AI-systeemen waarschijnlijkheden genereren, maar vaak worden deze als zekerheden behandeld, wat leidt tot ernstige gevolgen voor individuen.
11 mei 2026 11:00
Guardian AIDe AI-beroepsapocalyps is over. De echte dreiging is werknemerscontrole en surveillance
Een nieuwe kloof ontstaat tussen werknemers die AI gebruiken en die door AI worden beheerst. De echte dreiging van kunstmatige intelligentie ligt niet alleen in werkloosheid, maar in de groeiende ongelijkheid tussen werknemers die AI gebruiken om hun vaardigheden te vergroten en die onder invloed raken van ondoorzichtige AI-systemen voor surveillance en controle. In veel bedrijven wordt AI niet als hulp gebruikt, maar als baas, met tools die werktijden en prestaties bepalen.
10 mei 2026 12:32
Bright AI40 procent van de onderzochte datalekken in 2025 was AI-gerelateerd
Volgens Experian was 40 procent van de onderzochte datalekken in 2025 AI-gerelateerd. Cybercriminelen gebruiken kunstmatige intelligentie om persoonsgegevens op te sporen, phishingmails overtuigender te maken en neppe identiteitsbewijzen te genereren. Experts wijzen op de toename van synthetic fraud, waarbij AI echte en neppe gegevens combineert om nieuwe identiteiten te creëren. Bedrijven als Anthropic en OpenAI testen AI-modellen om kwetsbaarheden in systemen te detecteren.
10 mei 2026 08:15
Futurism AIVibe-gestuurde apps lekken gebruikersgegevens naar hackers
Een onderzoek van de cybersecurityfirma RedAccess heeft aangetoond dat veel apps die gemaakt zijn met AI-tools zoals Lovable, Replit, Base44 en Netlify ernstige beveiligingsproblemen bevatten. Van de onderzochte apps hadden 5.000 geen enkele beveiliging of authenticatie, en 40 procent lekte gevoelige gebruikersgegevens. De platforms reageerden beperkt, met Netlify dat het rapport volledig negerde en andere platforms de schuld op de gebruikers schoven.
9 mei 2026 18:01
Towards AIGoogle heeft een 4GB AI geïnstalleerd op je computer. De privacyverklaring is een leugen.
Google heeft zonder toestemming een 4GB AI-model, Gemini Nano, geïnstalleerd op computers met een dedieke GPU via Google Chrome. Het model wordt automatisch gedownload en is opgeslagen als weights.bin in de OptGuideOnDeviceModel-map. Gebruikers ontdekten het per ongeluk tijdens opslagcontroles.
9 mei 2026 10:30
WIRED AIHackbare robotlawaai maakt nieuw gevaar
Een robotlawaai van het merk Yarbo is ontdekt te zijn hackbaar, wat leidt tot ernstige privacy- en beveiligingsproblemen. Onderzoekers hebben meerdere kwetsbaarheden gevonden die hackers kunnen gebruiken om de robot te overnemen, inclusief toegang tot e-mailadressen, Wi-Fi-wachtwoorden en thuisadressen. Daarnaast wordt er melding gemaakt van andere beveiligingsnieuws, zoals het verwijderen van versleutelde Instagram-DMs door Meta en het ontdekken van een elite Russische hackerschool.
9 mei 2026 09:45
Futurism AIWoede woekt na ontdekking dat Google Chrome 4 GB AI-model op gebruikers’ PCs installeert
Een veiligheidsresearcher heeft ontdekt dat Google Chrome zonder toestemming een 4 GB AI-model van Gemini Nano op gebruikers’ computers installeert. Het model wordt automatisch gedownload en herinstallatie is onmogelijk als het wordt verwijderd. Dit heeft geleid tot kritiek op Google vanwege het gebrek aan transparantie en mogelijke schending van privacyregels.
8 mei 2026 20:19
TechRepublic AIAWS Rex is een belangrijke stap voor agentic AI-beveiliging, maar niet de laatste laag
AWS heeft Rex openge源d, een infrastructuur die runtime-beveiligingsmaatregelen biedt voor agentic AI. Hoewel dit een belangrijke vooruitgang is, blijft het probleem van data-beveiliging onopgelost. Rex beheerst systeemoproepen, maar niet de data-laag, die essentieel is voor naleving van regelgeving zoals GDPR en HIPAA.
8 mei 2026 17:06
Towards Data ScienceDe beveiligingsoppervlakte van AI-agents: Wat komt bloot als je tools en geheugen toevoegt
Een artikel op Towards Data Science bespreekt de beveiligingsrisico's van AI-agents, met name wanneer tools en geheugen worden toegevoegd. Het legt uit dat de beveiligingsuitdagingen van agents fundamenteel verschillen van die van LLM's. Het artikel noemt vier beveiligingsoppervlakken: prompt, tool, geheugen en planningloop, en bespreekt hoe elk van deze oppervlakken unieke aanvalspunten biedt. Onderzoek toont aan dat 88 procent van de organisaties beveiligingsincidenten met AI-agents heeft gemeld, terwijl slechts 14,4 procent volledige beveiliging heeft in gevestigde systemen.
8 mei 2026 10:00
WIRED AIAI-kinderknuffels: de nieuwe wilde west
Een artikel dat de opkomende markt van AI-kinderknuffels bespreekt, waarbij AI-gebaseerde speelgoedartikelen als knuffelbeesten en 'robots' steeds vaker worden gebruikt. De artikelen benadrukken de risico's van deze producten, zoals ongepaste inhoud, privacyproblemen en de invloed van AI-modellen die voor volwassenen zijn bedoeld. Er wordt ook gesproken over het ontbreken van voldoende regelgeving en de noodzaak van onafhankelijke veiligheidstests. De artikelen tonen aan dat de markt snel groeit, maar ook dat er veel zorgen zijn over de veiligheid en de invloed op kinderen.
8 mei 2026 09:23
The DecoderMozilla gebruikt Claude Mythos om 271 onbekende veiligheidsproblemen in Firefox te vinden
Mozilla heeft met de AI-model Claude Mythos Preview 271 onbekende veiligheidsproblemen in Firefox 150 ontdekt, waaronder fouten die al tot 20 jaar oud zijn. Het bedrijf introduceert een agentic pipeline waarbij de AI zelf testgevallen bouwt en uitvoert om vals positieve meldingen te filteren. In april werden in totaal 423 veiligheidsproblemen opgelost, een record. De AI-technologie heeft ook leiding gegeven tot het plannen van automatische codecontrole in de toekomst. Mozilla publiceerde ook enkele bugreports vroeger dan gebruikelijk, waaronder een 15-jarige fout in de HTML-label-elementen en een 20-jarige fout in de XML-tool XSLT.
8 mei 2026 09:05
Bright AIChatGPT introduceert noodcontactoptie voor gevoelige gesprekken
OpenAI heeft een nieuwe functie ingevoerd waarbij gebruikers een Trusted Contact kunnen opgeven. Deze persoon wordt door ChatGPT aangesproken als het gesprek in gevoelige richtingen gaat, zoals zelfbeschadiging of ernstige problemen. De contactpersoon krijgt een automatische melding, maar niet de details van het gesprek om de privacy van de gebruiker te beschermen. OpenAI wil zo de geestelijke gezondheid van gebruikers beter beschermen, na rechtszaken over risico's voor mensen met psychische problemen. Incidenten met zelfbeschadiging worden altijd bekeken door mensen, binnen een uur, en dan wordt het Trusted Contact ingeschakeld via sms, e-mail of app-notificatie.
7 mei 2026 20:31
WIRED AIHoe je Google's Gemini in Chrome kunt uitschakelen
Gebruikers van Chrome kunnen nu de 4 GB grote Google AI-model Gemini Nano uitschakelen via de instellingen. De functie werd in 2024 ingebouwd om scam-detectie en lokale AI-verwerking te ondersteunen, maar veel gebruikers waren onbewust van de aanwezigheid van het model. Door de instelling 'On-device AI' uit te schakelen, stopt Chrome met het downloaden en bijwerken van het model. Echter, als het model wordt verwijderd, werken bepaalde veiligheidsfuncties en API's niet meer. Google benadrukt dat de functie in februari 2026 werd ingevoerd om gebruikers te laten kiezen of ze de functie willen gebruiken.
7 mei 2026 17:00
Replit BlogReplit introduceert Security Center voor betere codebeveiliging
Replit, een AI-gevoede softwareontwikkelingsplatform, introduceert een nieuw Security Center om de beveiliging van code te verbeteren. Het tool biedt een overzicht van kritieke en hoge zwaarte vulnabiliteiten over alle projecten in een bedrijf, en maakt het mogelijk om urgente beveiligingsgaten snel te verhelpen. Gebruikers kunnen via het Security Center een beveiligingscursus starten, een software bill of materials (SBOM) genereren en projecten bulkwijzer onpubliceren of oplossen. De tool ondersteunt ook automatische updates bij nieuwe CVE's en biedt projecteigenaren de mogelijkheid om aanpassingen te beoordelen en te implementeren zonder huidige werkstromen te storen.
7 mei 2026 16:05
TechCrunch AIAnthropics Mythos verandert Firefox' aanpak van cybersecurity
Mozilla's security researchers melden dat Anthropic's Mythos model een grote hoeveelheid ernstige bugs in Firefox heeft ontdekt, waaronder fouten die al meer dan tien jaar in de code lagen. Het model is zo krachtig in het opsporen van softwarevulnerabiliteiten dat het duizenden ernstige bugs heeft gevonden die moeten worden opgelost voordat het model openbaar kan worden gemaakt. Mozilla's onderzoekers stellen dat de nieuwste generatie AI-tools een grote sprong voorwaarts heeft gemaakt, vooral dankzij agentele systemen die hun eigen werk kunnen beoordelen en slechte resultaten kunnen filteren. In april 2026 werden 423 bug fixes in Firefox uitgevoerd, tegenover slechts 31 een jaar eerder. Hoewel AI nog niet wordt gebruikt om de bugs direct te fixen, dienen de gegenereerde patches als basis voor menselijke ingenieurs. Anthropic CEO Dario Amodei is optimistisch dat de nieuwe tools de balans in cybersecurity zullen veranderen, terwijl Mozilla's Brian Grinstead benadrukt dat de impact nog niet volledig duidelijk is.
7 mei 2026 15:53
Guardian AIIMF waarschuwt voor toegenomen financiële risico's door AI-gevoede cyberaanvallen
Het Internationaal Monetair Fonds (IMF) waarschuwt dat financiële stabiliteitsrisico's stijgen door de toename van AI-gevoede cyberaanvallen. In een nieuw blogbericht benadrukt het IMF dat tools zoals Mythos, een AI-model van Anthropic, de tijd en kosten om kwetsbaarheden te identificeren en te exploiteren aanzienlijk kunnen verminderen. Dit verhoogt het risico dat belangrijke systemen worden aangepakt. Het IMF roept op tot resiliëntie, toezicht en internationale samenwerking om de globale financiële markten te beschermen. Anthropic heeft Mythos op 7 april aangekondigd, maar heeft het niet openbaar gemaakt vanwege de mogelijke veiligheidsrisico's. Op 22 april bevestigde het bedrijf dat het onderzoekt wordt of onbevoegde gebruikers toegang hebben gekregen tot Mythos. Het IMF benadrukt dat cyberrisico's grenzen niet respecteren en dat ongelijke toezicht over de wereld kan leiden tot zwakking van een wereldwijde verbonden systeem.
7 mei 2026 15:05
Bright AIAI kan je karakter aflezen aan je gesprekken
Onderzoekers van ETH Zürich hebben ontdekt dat AI-modellen zoals ChatGPT in staat zijn om persoonlijke eigenschappen van gebruikers te bepalen aan de hand van hun gesprekken. In een studie met 668 deelnemers uit de VS en Groot-Brittannië werden meer dan 62.000 chatsessies geanalyseerd. De deelnemers vulden ook een persoonlijkheidstest in op basis van het Big Five-model. Pas toen AI-modellen werden bijschoolden met de gegevens, konden eigenschappen zoals extraversie, vriendelijkheid en gevoeligheid voor stress goed worden ingeschat. Gesprekken over onderwerpen als relatieproblemen, gezondheid en werk geven veel informatie over de persoonlijkheid. De onderzoekers waarschuwen dat gevoelige informatie niet zomaar moet worden gedeeld met chatbots, omdat bedrijven zoals OpenAI, Anthropic en Google nu al grote databases van gebruikersgegevens kunnen opbouwen.
7 mei 2026 14:10
Bright AIGoogle plaatst ongevraagd AI-model op computers
Google heeft ongevraagd een AI-model van 4 GB geïnstalleerd op de computers van veel gebruikers via Google Chrome. Het bestand, genaamd weights.bin, bevat de lichtgewicht-versie van het Gemini Nano-model, waarmee taken lokaal kunnen worden uitgevoerd zonder dat gegevens naar de cloud worden gestuurd. Het bedrijf verklaart dat het bestand automatisch wordt verwijderd als er opslagruimte tekort is. Sinds februari is er ook een optie om het model uit te schakelen in de instellingen van Chrome, waardoor het bestand niet langer wordt gedownload.
7 mei 2026 14:01
Computable AIWachtwoorden zijn verouderd: de risico's en alternatieven
Wachtwoorden zijn steeds minder veilig en vormen de zwakste schakel in digitale beveiliging. Volgens het Verizon 2025 Data Breach Investigations Report waren gestolen inloggegegevens verantwoordelijk voor 22 procent van alle datalekken, met 88 procent bij aanvallen op webapplicaties. IBM X-Force meldde een stijging van 84 procent in infostealer-malware via phishingmails, die ongemerkt wachtwoorden uit browsers steelt. Verder blijkt dat veel gebruikers hergebruikte wachtwoorden gebruiken, wat leidt tot meerdere toegangsdeuren bij één buitgemaakte wachtwoord. Een criminele economie is ontstaan rond gestolen inloggegegevens, die worden verkocht aan initial access brokers die netwerktoegang doorverkopen aan ransomwaregroepen. Multi-factorauthenticatie biedt beperkte bescherming tegen methodes zoals prompt bombing en phishingkits. Alternatieven zoals passkeys, die cryptografische sleutels gebruiken en gekoppeld zijn aan apparaten of biometrische verificatie, worden steeds populairder. 69 procent van de consumenten en 87 procent van de organisaties gebruiken passkeys, hoewel een volledige overstap nog complex is door legacy-systemen en beperkte accountbeheerfunctionaliteit. Organisaties worden aangeraden minder wachtwoorden te gebruiken en meer op wachtwoordmanagers en phishing-resistente multi-factorauthenticatie te vertrouwen. Wachtwoorden zijn nu vooral nog een risico, niet langer een noodzakelijk kwaad.
7 mei 2026 11:00
WIRED AIDuizenden AI-gemaakte apps blootstellen gevoelige gegevens op open internet
Een onderzoek door de cybersecurity-firma RedAccess heeft aangetoond dat duizenden apps die met AI-gemaakte tools zoals Lovable, Replit, Base44 en Netlify zijn gemaakt, gevoelige gegevens van bedrijven en personen op het open internet blootstellen. Meer dan 5.000 apps werden geanalyseerd en ongeveer 40 procent van deze apps gaf toegang tot gevoelige informatie zoals medische gegevens, financiële data en strategische documenten. Veel van deze apps waren volledig openbaar en konden worden bekeken door iedereen die de URL invoerde. De onderzoekers stelden ook phishing-sites vast die leken op grote bedrijven. De betrokken AI-bedrijven ontkenden niet dat de apps openbaar waren, maar benadrukten dat het de keuze van de gebruiker was om apps openbaar te maken.
6 mei 2026 16:37
Computable AINederlandse overheid verlengt contract met Solvinity ondanks privacybezwaren
De Nederlandse overheid mag het contract met Solvinity voor de ondersteuning van het DigiD-platform met twee jaar verlengen, volgens een uitspraak van de Haagse rechter. Drie burgers hadden een vordering ingediend om de verlenging te blokkeren, maar de rechter wees hun aanvraag af. Ze vrezen dat de Amerikaanse overname van Solvinity door Kyndryl persoonsgegevens in handen zou kunnen geven van de Amerikaanse overheid, wat in strijd zou staan met het privacyrecht. Staatssecretaris Eric van der Burg verklaarde dat er geen mogelijkheden zijn om het contract te beëindigen voor de deadline van 6 mei. De overheid wil de dienstverlening door Solvinity voortzetten om continuïteit te waarborgen, ondanks de bezwaren van de Tweede Kamer. Er blijft een kleine kans dat de overname door Kyndryl niet doorgaat, afhankelijk van de toetsing door het Bureau Toetsing Investeringen (BTI).
6 mei 2026 16:06
Replit BlogReplit introduceert nieuwe veiligheidsfunctionaliteit voor privé gepubliceerde apps
Replit, een AI-gevoede softwareontwikkelingsplatform, introduceert twee belangrijke updates om de beveiliging van privé gepubliceerde apps te verbeteren. Private Publishing is nu beschikbaar voor gebruikers van de Core en Starter-abonnementen, terwijl eerst alleen Pro en Enterprise-abonnementen dit konden gebruiken. Bovendien worden External Access Tokens beschikbaar gesteld voor alle privé apps, waarmee betrouwbare externe diensten veilig toegang kunnen krijgen zonder de hele app open te stellen. Deze tokens kunnen worden beperkt tot ontwikkel- of productieomgevingen en worden gecontroleerd door Replit voordat ze worden doorgestuurd naar de app. Gebruikers kunnen tokens aanmaken, beheren en op elk moment intrekken.
6 mei 2026 08:00
OpenAI NewsHoe ChatGPT leert over de wereld terwijl het privacy bescherming biedt
OpenAI legt uit hoe ChatGPT leert van data zonder persoonlijke informatie te gebruiken. De organisatie gebruikt technologie zoals de Privacy Filter om gevoelige gegevens te maskeren en biedt gebruikers opties om hun conversaties te beheren. Gebruikers kunnen kiezen of hun gesprekken gebruikt worden voor het verbeteren van modellen of niet.
5 mei 2026 00:00
OpenAI NewsOpenAI introduceert Europese Jeugdveiligheidsrichtlijnen en stelt EMEA-jeugdwelzijnsgroepen voor
OpenAI heeft de Europese Jeugdveiligheidsrichtlijnen gepubliceerd en heeft de eerste EMEA-jeugdwelzijnsgroepen aangekondigd. De richtlijnen stellen vijf pijlers voor om de bescherming van jongeren in de AI-eeuwen te versterken, terwijl toegang blijft bestaan tot tools die leren, creativiteit en kansen ondersteunen. De groepen krijgen een subsidie van 500.000 euro om onderzoek en praktische initiatieven te ondersteunen die gericht zijn op jeugdwelzijn en veiligheid.
5 mei 2026 00:00
OpenAI NewsOpenAI introduceert beta Ads Manager voor ChatGPT-advertenties
OpenAI breidt de mogelijkheden voor het plaatsen van advertenties in ChatGPT uit met een beta-versie van een zelfbediening Ads Manager, CPC-bod, en verbeterde metingstools. De updates zijn ontworpen om privacy te beschermen en advertenties van conversaties te isoleren. Adverteerders kunnen nu via partners of de nieuwe tool direct campagnes starten. De Ads Manager maakt het mogelijk voor bedrijven van alle grootte om te werken met ChatGPT, met opties voor budgettering, bieden en prestatieanalyse. OpenAI streeft naar een bredere adplatform, waarbij de focus blijft liggen op privacy, onafhankelijkheid van antwoorden en gebruikerscontrole.
4 mei 2026 12:35
The Conversation AI EuropeMythos AI blijkt een cybersecuritybedreiging, maar verandert de regels niet
Mythos AI, het nieuwste model van Anthropic, heeft zich als cybersecuritybedreiging blijken opstellen door softwarefouten te vinden en te exploiteren op een ongekende schaal en snelheid. Het model heeft 271 fouten in Firefox en 181 exploits ontwikkeld, en heeft duizenden zero-day fouten in belangrijke software gevonden. Hoewel de capaciteiten van Mythos opvallen, benadrukt de analyse dat de fouten niet nieuw zijn, maar eerder bekende klassen van softwarefouten zijn. Mythos benadrukt de beperkingen in huidige cybersecuritypraktijken en de ongelijke balans tussen verdedigers en aanvallers. Het model is een product van de samenwerking tussen AI en cybersecurity, en niet een revolutionair nieuw type bedreiging.
3 mei 2026 10:30
Futurism AIMeta stopt met samenwerking met Keniaanse werkgever na klachten over privacybreuk met Ray-Ban AI-bril
In februari gingen Keniaanse werknemers van Meta naar de Zwitserse kranten en meldden dat ze gedwongen werden om beledigende en gevoelige beelden te bekijken die door de Ray-Ban AI-brillen van Meta werden opgenomen. Deze beelden bevatten onder andere naakte lichamen, toiletgebruik en seksuele scènes. Na twee maanden, toen de klachten in de kranten verschenen, stopte Meta met zijn samenwerking met de Keniaanse werkgever Sama. De Keniaanse werknemersorganisatie beschuldigde Meta van wraakneming. Meta ontkende de beschuldiging, maar stelde dat Sama niet aan de vereisten voldoet. De zaak heeft de aandacht van de Britse en Keniaanse autoriteiten getrokken, die onderzoek starten naar mogelijke privacybreuken. De incidenten benadrukken de problemen met de privacy en de rol van onderbetaalde werknemers in de AI-industrie.
1 mei 2026 15:54
MIT Technology Review AICyberveiligheid in de AI-eeuwen
De toenemende uitdagingen voor cyberveiligheid in de tijd van kunstmatige intelligentie. AI breidt de aanvalsoverdruk uit en voegt nieuwe complexiteit toe, waardoor oude veiligheidsmethoden minder effectief worden. De tekst bespreekt een lezing uit de EmTech AI-conferentie van MIT Technology Review, waarin wordt benadrukt dat veiligheid moet worden opgebouwd rond AI, niet als een laag erop. Tarique Mustafa, oprichter en CEO van GCCybersecurity en Chorology, presenteert zijn werk aan AI-gebaseerde oplossingen voor dataveiligheid en naleving. Hij heeft meerdere USPTO-patenten en heeft bijdragen geleverd aan onderzoekspublicaties in diverse technologieën, waaronder kunstmatige intelligentie.
30 apr 2026 23:03
Simon WillisonEvaluatie van OpenAI's GPT-5.5 in cyberveiligheid
Het Britse AI Security Institute heeft de cyberveiligheidsvermogens van OpenAI's GPT-5.5 geëvalueerd en concludeert dat deze vergelijkbaar zijn met die van Claude Mythos. Hoewel beide modellen gelijkaardig presteren in het opsporen van beveiligingszwachten, is GPT-5.5 al beschikbaar voor het algemeen publiek, terwijl Claude Mythos nog beperkt is. De evaluatie benadrukt de toenemende rol van grote taalmodellen in het detecteren van beveiligingsproblemen. De bron bevat ook verwijzingen naar andere recente AI-ontwikkelingen, zoals het xAI/Anthropic data center deal en updates over Claude 2.
30 apr 2026 00:00
Anysphere / CursorCursor introduceert beta-versie van beveiligingsreview in Teams en Enterprise
Cursor heeft de beta-versie van zijn beveiligingsreview-functionaliteit ingevoerd voor Teams- en Enterprise-abonnementsplannen. De functie omvat twee altijd aanwezige beveiligingsagents: Security Reviewer en Vulnerability Scanner. Security Reviewer controleert elke pull request op beveiligingsvulnerabiliteiten, authenticatiesproblemen, privacy- en data-handelingenrisico's, automatische toestemmingen voor agenttools en promptinjectie-aanvallen. Vulnerability Scanner voert geplande scans uit op de codebase om bekende beveiligingsproblemen, verouderde afhankelijkheden en configuratieproblemen te detecteren. Beveiligingsagents kunnen aangepast worden door triggers aan te passen, eigen instructies toe te voegen en uitvoer te beheren. Admins kunnen Security Review in de Cursor-dashboard inschakelen om te beginnen.
30 apr 2026 00:00
OpenAI NewsOpenAI introduceert geavanceerde accountbeveiliging
OpenAI introduceert Advanced Account Security, een nieuwe opt-in instelling voor ChatGPT-accounts die sterke beveiligingsmaatregelen biedt tegen ongeoorloofde toegang. De functie maakt phishing-resistente inloggen mogelijk via passkeys of fysieke beveiligings sleutels, en beperkt accountherstel tot veiligere methoden zoals backup passkeys en beveiligings sleutels. De beveiliging geldt ook voor Codex-accounts en bevat functies zoals kortere sessies, duidelijkere sessiebeheer en automatische uitsluiting van gevoelige conversaties uit het modeltraining. OpenAI werkt samen met Yubico om gebruikers te helpen met betere beveiligingsoplossingen.
29 apr 2026 14:13
Futurism AIAI-achtervolgingscamera's overnemen Amerika
AI-achtervolgingscamera's en andere surveillance-systemen zijn massaal uitgebreid in de Verenigde Staten, met weinig regelgeving of privacybeveiliging. AI-gebaseerde camera's, automatische licentieplaatlezers, drones en biomarker-databases vormen een geïntegreerd netwerk dat gegevens verzamelt zonder toestemming. In tientallen staten mogen politieagenten zonder wettelijke toestemming gegevens ophalen uit het netwerk van Flock Safety. De Fulu Foundation biedt een beloning aan voor een manier om Ring-video-deurbellen te ontkoppelen van Amazon. Activisten en organisaties werken aan het tegenhouden van deze technologie, ondanks de grote investeringen achter deze systemen.
29 apr 2026 10:57
Futurism AIMan in Colorado belandt in dystopische situatie door AI-wachttijd
Een man in Colorado, Kyle Dausman, zit vast in een dystopische situatie door AI-surveillance. Zijn truck is door Flock Safety's automatische licentieplaatlezers gemarkeerd, waardoor hij steeds door politie wordt aangesproken, ondanks het feit dat hij niets verkeerd heeft gedaan. De fout in het systeem komt door een data-entry fout in een waarschuwingsdatabase. Dausman kan niet meer veilig met zijn truck reizen en heeft moeite om uit het systeem te geraken. De situatie benadrukt de risico's van overmatige AI-wachttijd en de moeilijkheden bij het corrigeren van fouten in dergelijke systemen.
29 apr 2026 04:00
OpenAI NewsOpenAI lanceert actieplan voor versterking van cyberveiligheid in de intelligentie-époque
OpenAI heeft een actieplan opgesteld met vijf pijlers om de cyberveiligheid te versterken in de intelligentie-époque. Het plan richt zich op het democratiseren van AI-gestuurde cyberverdediging en het beschermen van kritieke systemen. De maatregelen omvatten het coördineren tussen overheid en bedrijven, het versterken van beveiliging rond nieuwe cybercapaciteiten, het behouden van zichtbaarheid en controle bij implementatie, en het bouwen van infrastructuur om cyberverdedigers te ondersteunen. Het plan is gebaseerd op gesprekken met experts uit de cybersecurity- en nationale veiligheidssector.
29 apr 2026 00:00
MIT News Machine LearningNieuwe methode verhoogt AI-opleiding op dagelijks gebruikte apparaten met 81%
MIT-onderzoekers hebben een nieuwe methode ontwikkeld die de efficiëntie van privacybeveiligde AI-opleiding verhoogt met ongeveer 81%. Deze techniek, genaamd FTTE (Federated Tiny Training Engine), helpt kleine apparaten zoals sensoren en slimme horloges om betere AI-modellen te trainen zonder gebruikersgegevens te delen. De methode werkt door een gedeelde subset van modelparameters te sturen in plaats van het hele model, wat de geheugenbelasting en communicatieoverhead verlaagt. De innovatie maakt het mogelijk om AI te gebruiken in gevoelige sectoren zoals gezondheidszorg en financiën, waar privacy en beveiliging van groot belang zijn. De onderzoekers testen hun framework in simulaties en op echte apparaten, met gunstige resultaten voor scalabiliteit en prestaties.
28 apr 2026 15:56
Futurism AIPolitie gebruikt AI-camera netwerken om vrouwen te stalken
In de Verenigde Staten wordt er gemeld dat politieagenten gebruikmaken van automatische licentieplaatlezers (ALPRs) om persoonlijke romantische interesses te volgen. Volgens een analyse van de Institute for Justice zijn er al 14 gevallen waarin politieagenten worden beschuldigd van het misbruik van ALPR-toegang om te volgen naar partners, ex-partners en zelfs vreemden. De meeste gevallen zijn na 2024 opgedoken, toen de AI-ALPR-bedrijf Flock Safety zijn expansie uitbreidde naar meer dan 4.000 Amerikaanse steden. Hoewel Flock interne veiligheidsmaatregelen heeft, werden de meeste gevallen ontdekt door de slachtoffers, niet door het bedrijf of interne politieonderzoeken. In Milwaukee gaf een agent, Josue Ayala, zijn baan op na het vermoeden dat hij Flock gebruikte om zijn romantische partner en de partner van zijn partner ongeveer 180 keer te volgen. De slachtoffers ontdekten hun stalking pas toen een van hen zijn licentieplaat controleerde op de auditing-site HaveIBeenFlocked.com. Flock werkt nu in meer dan 6.000 Amerikaanse steden met meer dan 76.000 licentieplaatlezers. Jurist Michael Soyfer benadrukt dat de systemen privégegevens over bewegingen in handen leggen van elke politieagent, zonder een wettelijke beperking door een verklaring, leidt tot misbruik zoals stalken van romantische partners.
28 apr 2026 00:00
OpenAI NewsOpenAI stelt maatregelen voor community safety in ChatGPT
OpenAI legt uit hoe het de veiligheid van gebruikers en gemeenschappen waarborgt in ChatGPT. Dit gebeurt via modelbeveiligingen, detectie van misbruik, beleidsexcursie en samenwerking met experts. De maatregelen omvatten ook het detecteren van risico's op schade, het beperken van gevaarlijke instructies en het inzetten van menselijke beoordelaars bij ernstige gevallen.
27 apr 2026 23:29
The Register AI/MLAI-gebruik leidde tot verlies van productiedatabase startup
Een AI-gebruikercodeagent van Cursor, die Anthropic's Claude Opus 4.6 draait, heeft de productiedatabase en back-ups van de startup PocketOS in minder dan 10 seconden verwijderd. De fout werd veroorzaakt door een onjuiste API-token die onbeperkte toegang had. Railway, de infrastructuurprovider, herstelde de gegevens binnen een uur, maar de incidenten benadrukken de noodzaak van betere beveiliging en controle bij het gebruik van AI in productieomgevingen.
27 apr 2026 14:00
OpenAI NewsOpenAI beschikbaar via FedRAMP Moderate
OpenAI heeft FedRAMP 20x Moderate autorisatie behaald voor ChatGPT Enterprise en de OpenAI API, waardoor Amerikaanse federale overheidsinstanties nu veilig kunnen gebruiken van geavanceerde AI-technologieën. Dit maakt het mogelijk voor overheidsdiensten om AI te gebruiken voor onderwerpen als beleidsanalyse, vertalingen en wetenschappelijk onderzoek. De autorisatie maakt gebruik van moderne beveiligingsmethoden zoals Key Security Indicators en automatische validatie. OpenAI biedt nu ook toegang tot modellen zoals GPT-5.5 en Codex Cloud via FedRAMP. Overheidsinstanties kunnen de producten vinden in de FedRAMP Marketplace en contact opnemen met OpenAI voor toegang.
24 apr 2026 00:00
AnthropicAnthropic versterkt veiligheidsmaatregelen voor verkiezingen
Anthropic, een AI-onderzoeksbureau, heeft zijn veiligheidsmaatregelen bijgewerkt om te zorgen dat de AI-models Claude tijdens verkiezingen betrouwbare en neutrale informatie geven. De maatregelen omvatten het trainen van Claude om verschillende politieke standpunten eerlijk te behandelen, het toetsen van de modellen op neutraliteit en het testen van de reacties op schadelijke vragen. De modellen Opus 4.7 en Sonnet 4.6 bleken in tests 95% en 96% te scoren op neutraliteit. Bovendien worden er veiligheidsmaatregelen toegepast om de kans op manipulatie via AI te beperken. Anthropic introduceert ook verkiezingsbanners die gebruikers naar betrouwbare bronnen sturen, zoals TurboVote voor de Amerikaanse midterms.
23 apr 2026 09:00
The Rundown AIAnthropics beveiligde Mythos-model lekte naar Discord-groep
Anthropic's beveiligde AI-model Mythos is volgens rapporten via een datalek toegankelijk gemaakt voor een Discord-groep, ondanks de bedoeling om het op te sluiten. De groep gebruikte lekken uit een andere databreach om toegang te krijgen en stelt dat het model niet wordt gebruikt voor malafide doelen. Het gebeurde binnen dagen van de lancering onder de naam 'Project Glasswing'. De incidenten benadrukken de uitdagingen bij het beheren van gevoelige AI-modellen.
23 apr 2026 05:00
DeepLDeepL breidt data-infrastructuur uit met AWS als sub-processor
DeepL breidt zijn data-infrastructuur uit om wereldwijde schaal en prestaties te garanderen. Door AWS als sub-processor toe te voegen, kan DeepL lagere latentie en real-time vertalingen wereldwijd bieden terwijl de strengste privacystandaarden worden gehandhaafd. De data wordt versleuteld in transit en opslag, en AWS heeft geen toegang tot gebruikersdata in bruikbare vorm. DeepL blijft de data processor en blijft voldoen aan strenge data-privacy- en beveiligingsnormen zoals GDPR, HIPAA en SOC 2 Type 2. Klanten kunnen ook oplossingen krijgen waarbij hun data nooit uit Europa verlaat, indien nodig.
22 apr 2026 21:56
The Register AI/MLOpenAI introduceert opt-in functie om schermbeelden te gebruiken voor Codex
OpenAI heeft een opt-in functie genaamd Chronicle ingevoerd, die schermbeelden van gebruikers opslaat en deze gebruikt om Codex meer context te geven. De functie is alleen beschikbaar in de Codex-app voor macOS en maakt gebruik van OCR-technologie om tekst te extraheren. OpenAI benadrukt dat schermbeelden slechts zes uur opgeslagen worden, maar de gegenereerde tekst kan langer opgeslagen blijven. De functie wordt kritisch beoordeeld vanwege privacy- en beveiligingsrisico's.
22 apr 2026 16:15
Replit BlogReplit introduceert automatische beveiligingsupdates voor code
Replit lanceert een nieuwe functie genaamd Auto-Protect die automatisch beveiligingsupdates aanbiedt voor projecten. Bij een nieuwe kritieke CVE wordt automatisch gecontroleerd of het betreft een afhankelijkheid in het project. Bij match wordt een patch voorbereid en via e-mail gedeeld. Gebruikers kunnen kiezen om automatisch actie te ondernemen of te worden geïnformeerd over nieuwe beveiligingsproblemen.
22 apr 2026 00:00
OpenAI NewsOpenAI lanceert Privacy Filter voor betere privacybescherming in tekst
OpenAI heeft Privacy Filter, een model dat PII in tekst detecteert en redacteert, gelanceerd. Het model werkt efficiënt en kan lokaal worden uitgevoerd, waardoor gevoelige informatie niet hoeft te worden verstuurd naar een server. Het bereikt state-of-the-art prestaties op de PII-Masking-300k benchmark en is beschikbaar onder de Apache 2.0 licentie op Hugging Face en GitHub.
21 apr 2026 14:30
Google AI BlogGoogle introduceert drie nieuwe veiligheidsfuncties voor Google Ads
Google lanceert drie nieuwe veiligheidsfuncties in Ads Advisor om Google Ads veiliger en sneller te maken. De updates omvatten het automatisch detecteren van complexe regelbreuk, 24/7 beveiligingsmonitoring en snelle certificeringen via Gemini. Deze AI-gerichte verbeteringen helpen gebruikers om minder tijd te besteden aan beheer en meer tijd te investeren in het groeien van hun bedrijf.
21 apr 2026 03:00
Replit BlogReplit versterkt beveiliging van AI-ontwikkelomgeving
Replit, een AI-gebaseerde softwareontwikkelplatform, legt uit hoe het platform beveiliging op elk niveau van de ontwikkelomgeving versterkt. Het benadrukt de toepassing van Zero Trust Architectuur, microVMs voor betere isolatie, en een combinatie van regelgebaseerde en AI-gebaseerde beveiligingscontroles. De beveiligingssystemen zijn ontworpen om te voorkomen dat AI-geneerde code onveilig is, en om incidenten snel te detecteren en te beheren.
16 apr 2026 00:00
OpenAI NewsOpenAI en Nvidia stoten aan bij cyberveiligheid met GPT-5.4-Cyber
OpenAI lanceert Trusted Access for Cyber, waarbij bedrijven en veiligheidsorganisaties zoals Nvidia gebruik maken van GPT-5.4-Cyber en $10 miljoen API-grants om de wereldwijde cyberveiligheid te versterken. De initiatiefnemers omvatten onder andere Socket, Semgrep, Calif en Trail of Bits. De programma's doel is om vertrouwen, validatie en verantwoordelijkheid te bevorderen in de toepassing van geavanceerde beveiligingsinstrumenten.
14 apr 2026 00:00
OpenAI NewsOpenAI breidt Trusted Access uit met speciaal afgestemde model voor cyberbeveiliging
OpenAI breidt zijn Trusted Access voor Cyber-programma uit en introduceert het model GPT-5.4-Cyber, afgestemd op cyberbeveiligingsdoeleinden. Het model is speciaal ontwikkeld om veiligheidsanalisten te helpen bij het detecteren en oplossen van kwetsbaarheden. De uitbreiding van het programma richt zich op geverifieerde individuen en organisaties die betrokken zijn bij cyberbeveiliging, met toegang tot geavanceerde functionaliteiten zoals binair reverse engineering.
13 apr 2026 12:30
SiliconANGLE AICommvault lanceert AI-ontwikkelingen om agentele workflows en data te beveiligen
Commvault Systems Inc. lanceert nieuwe AI-ontwikkelingen die bedrijven helpen bij het veilig inschakelen van AI, het beheren van agentele workflows en het beveiligen van data. De functies Data Activate, AI Protect en AI Studio ondersteunen bedrijven bij het begrijpen van risico's, het herstellen van beïnvloede systemen en het bouwen van aangepaste agentele oplossingen. De tools werken in diverse omgevingen, zoals on-premises, SaaS en hybride cloud.
10 apr 2026 00:00
OpenAI NewsOpenAI reageert op aanval op developer-tool Axios
OpenAI heeft maatregelen genomen na een aanval op de developer-tool Axios, waardoor macOS-code-signing-certificaten zijn hersteld en apps worden bijgewerkt. Er is geen aanwijzing dat gebruikersgegevens of systemen zijn gecompromitteerd. De aanval was gericht op een GitHub Actions workflow die deel uitmaakte van de macOS-app-onderdektingsproces.
8 apr 2026 05:00
OpenAI NewsOpenAI lanceert Child Safety Blueprint voor betere bescherming van kinderen online
OpenAI lanceert het Child Safety Blueprint, een richtlijn om AI-responsibel te ontwikkelen met veiligheidsmaatregelen, leeftijdsgemakkelijke ontwerpkeuzes en samenwerking om kinderen online te beschermen. Het document richt zich op drie kernprioriteiten: modernisering van wetgeving tegen AI-generatie en bewerking van kinder seksueel misbruik, verbeterde meldingen en samenwerking tussen leveranciers en veiligheidsmaatregelen die direct in AI-systemen worden opgenomen. De samenwerking met organisaties zoals NCMEC en de Attorney General Alliance benadrukt de noodzaak van een geïntegreerde aanpak.
3 apr 2026 20:36
AWS AI News BlogAmazon lanceert centrale beheerfunctionaliteit voor AI-safeguards in Bedrock
Amazon heeft Amazon Bedrock Guardrails uitgebreid met een functie voor centraal beheer van veiligheidscontroles over meerdere AWS-accounts. Met deze update kunnen organisaties veiligheidsregels uniform toepassen op alle generatieve AI-toepassingen binnen hun organisatie. De functie ondersteunt zowel organisatiebrede als accountspecifieke beheerinstellingen, waardoor beveiligingsmaatregelen automatisch worden toegepast op alle modelaanroepen. De nieuwe functionaliteit vereist het aanmaken van een veiligheidsbeleid en het koppelen van dit aan organisatie-eenheden of individuele accounts.
25 mrt 2026 00:00
OpenAI NewsOpenAI lanceert veiligheidsbugbountyprogramma
OpenAI introduceert een veiligheidsbugbountyprogramma om AI-afspraken en veiligheidsrisico's te identificeren, waaronder agentele kwetsbaarheden, promptinjectie en gegevensuitstrijking. Het programma richt zich op scenario's zoals het misbruik van agentele producten en het lekken van gevoelige informatie. Onderzoekers kunnen zich aanmelden via het veiligheidsbugbountyprogramma.
17 mrt 2026 10:00
OpenAI NewsOpenAI Japan lanceert Teen Safety Blueprint voor jongerenveiligheid
OpenAI Japan lanceert het Japan Teen Safety Blueprint, een nieuw kader om jongeren veilig te laten gebruiken generatieve AI. Het plan bevat sterke leeftijdsspecifieke beschermingen, versterkte veiligheidsbeleid voor jongeren onder 18, uitgebreide ouderscontroles en onderzoek gericht op de mentale welzijn van jongeren. De maatregelen zijn ontworpen om risico's zoals misinformatie en psychologische belasting te beperken.
9 mrt 2026 10:00
OpenAI NewsOpenAI koopt AI-beveiligingsplatform Promptfoo
OpenAI koopt het AI-beveiligingsplatform Promptfoo, dat bedrijven helpt bij het identificeren en oplossen van kwetsbaarheden in AI-systemen tijdens de ontwikkeling. De technologie wordt geïntegreerd in OpenAI Frontier, een platform voor het bouwen en beheren van AI-assistenten. Promptfoo wordt gebruikt door meer dan 25 procent van de Fortune 500-ondernemingen.
6 mrt 2026 10:00
OpenAI NewsOpenAI lanceert Codex Security als onderdeel van research preview
OpenAI introduceert Codex Security, een AI-toepassing voor beveiligingsanalyse die complexe kwetsbaarheden detecteert en oplost met hogere betrouwbaarheid. Het tool maakt gebruik van frontier-modellen en kan systemcontext gebruiken om fouten te valideren en te verhelpen. Codex Security is nu beschikbaar in research preview voor klanten van ChatGPT Pro, Enterprise, Business en Edu. Het tool heeft al meerdere kritieke beveiligingsproblemen in open-source projecten ontdekt, waaronder diverse CVE's.
25 feb 2026 00:00
OpenAI NewsDisrupting malicious uses of AI | Februari 2026
OpenAI publiceert een nieuw rapport over het gebruik van AI door bedreigende actoren in combinatie met websites en sociale media. Het rapport bevat gevalstudies die laten zien hoe bedreigingen vaak meerdere AI-modellen en traditionele tools gebruiken. OpenAI deelt deze inzichten om de industrie en maatschappij beter in staat te stellen om dergelijke bedreigingen te herkennen en te voorkomen.
24 feb 2026 11:43
Last Week in AILaatste week in AI #336 - Sonnet 4.6, Gemini 3.1 Pro, Anthropic vs Pentagon
Anthropic heeft het Claude Sonnet 4.6-model vrijgegeven, dat aanzienlijk verbeterde programmeertechnieken en een aangepaste gratis tier biedt. Google introduceerde het nieuwste AI-model Gemini 3.1 Pro. Daarnaast dreigt de Pentagon met sancties tegen Anthropic vanwege een geschillen over AI-beveiligingsmaatregelen.
13 feb 2026 10:00
OpenAI NewsLockdown Mode en Elevated Risk labels worden ingevoerd in ChatGPT
OpenAI introduceert Lockdown Mode en Elevated Risk labels in ChatGPT om organisaties te helpen bij het bevechten van prompt injection en AI-gebaseerde data exfiltratie. Lockdown Mode is een geavanceerde beveiligingsinstelling die beperkt hoe ChatGPT kan communiceren met externe systemen, terwijl Elevated Risk labels duidelijk maken welke functionaliteiten extra risico’s kunnen met zich meebrengen. Deze updates zijn beschikbaar voor ChatGPT Enterprise, ChatGPT Edu, ChatGPT for Healthcare en ChatGPT for Teachers.
Verder lezen
Meer AI-context naast het nieuws
Veelgestelde vragen
Over AI-nieuws op AI in Beeld
Hoe zijn de AI-nieuwsitems op deze pagina ingedeeld?
De nieuwsitems zijn gekoppeld aan thema’s zoals AI in de Zorg, Big Tech, Privacy en Open Source zodat je sneller per onderwerp kunt bijlezen.
Waarom zijn niet alle nieuwsitems zichtbaar?
Alleen geldige en publiek beschikbare nieuwsitems met bruikbare Qwen-samenvatting worden op de publieke nieuwspagina getoond.