Dossier
Anthropic Claude Mythos en AI-cybersecurity
Mythos als kantelpunt: AI die kwetsbaarheden vindt en mogelijk exploits bouwt.
Nieuwsitems
Gekoppelde artikelen
Mozilla heeft in de afgelopen maanden 271 lekken in Firefox dichtgevlochten met behulp van het AI-model Claude Mythos Preview. Het model, dat door Anthropic is ontwikkeld, veroorzaakte oorspronkelijk zorgen vanwege zijn hoge prestaties in het opsporen van kwetsbaarheden. Mozilla benadrukt dat open source-projecten zoals Firefox eerder last hadden van hobbyisten die chatbots gebruikten om lekken te vinden, maar dat is nu veranderd. Anthropic introduceerde Mythos in april, maar liet het eerst in een gesloten club met veertig bedrijven, waaronder Mozilla, om te testen.
Bruce Schneier bespreekt de gevaarlijke potentie van Anthropics nieuwste AI-model, Mythos, dat zo goed is in het vinden van softwarebeveiligingsvulnerabiliteiten dat het niet voor het publiek is vrijgegeven. Het model wordt alleen gebruikt door een select groep bedrijven om hun software te scannen en te verbeteren. Hoewel andere modellen zoals OpenAI's GPT-5.5 vergelijkbare vermogens hebben, benadrukt Schneier dat de toegang tot zo'n krachtige AI de veiligheid van systemen wereldwijd kan veranderen. Aan de ene kant kunnen hackers gebruikmaken van deze technologie om systemen te hacken, terwijl aan de andere kant ook beveiligingsdeskundigen het kunnen gebruiken om fouten te vinden en te verhelpen. Schneier waarschuwt echter dat de toekomst van AI in het vinden van loopholes in complexe systemen zoals belastingwetgeving en regelgeving nog veel gevaarlijker kan worden. Hij benadrukt dat de impact van AI op de samenleving groot is en dat we ons moeten aanpassen aan deze nieuwe realiteit.
OpenAI lanceert de GPT-5.5-Cyber-versie van zijn model, die minder beperkt is in het uitvoeren van beveiligingsgerelateerde taken. De toegang is beperkt tot gecontroleerde beveiligingsonderzoekers, waaronder partners zoals Cisco, CrowdStrike en Cloudflare. De modelversie staat in directe concurrentie met Anthrpic's Mythos Preview. De GPT-5.5-Cyber kan exploit-code genereren en uitvoeren op testserveren, terwijl standaard chatbots zulke aanvragen blokkeren. De toegang is verdeeld in drie niveaus, waarbij de hoogste toegangssnede alleen beschikbaar is voor geverifieerde beveiligingsdeskundigen. De release komt op een moment dat de White House overweegt regelgeving op te stellen voor dergelijke modellen.
Mozilla heeft met de AI-model Claude Mythos Preview 271 onbekende veiligheidsproblemen in Firefox 150 ontdekt, waaronder fouten die al tot 20 jaar oud zijn. Het bedrijf introduceert een agentic pipeline waarbij de AI zelf testgevallen bouwt en uitvoert om vals positieve meldingen te filteren. In april werden in totaal 423 veiligheidsproblemen opgelost, een record. De AI-technologie heeft ook leiding gegeven tot het plannen van automatische codecontrole in de toekomst. Mozilla publiceerde ook enkele bugreports vroeger dan gebruikelijk, waaronder een 15-jarige fout in de HTML-label-elementen en een 20-jarige fout in de XML-tool XSLT.
Anthropic heeft een nieuwe AI-techniek ontwikkeld genaamd Natural Language Autoencoders (NLAs), die de interne denkprocessen van het model Claude direct omzetten in leesbare tekst. Deze techniek helpt bij het begrijpen van hoe het model werkt, bijvoorbeeld bij het opsporen van fouten, het detecteren van onbewuste evaluatiebewustzijn en het analyseren van mogelijke misalignments. NLAs werken door activaties van het model te verklaren en te reconstrueren, waardoor de interne logica van het model zichtbaar wordt. Hoewel de techniek veel potentieel heeft, zijn er beperkingen zoals hallucinaties en hoge rekenkrachtvereisten.
Mozilla heeft gebruikgemaakt van de Claude Mythos-preview van Anthropic om honderden veiligheidsproblemen in Firefox te identificeren en op te lossen. In slechts een paar maanden is het aantal maandelijkse veiligheidsupdates van 20-30 naar 423 gestegen. De AI-geneerde bug-rapportages werden gebruikt om oude fouten, zoals een 20-jarige XSLT-fout en een 15-jarige fout in de <legend>-element, te herstellen. Mozilla benadrukt dat de bestaande veiligheidsmaatregelen van Firefox de pogingen van de AI-effectief blokken, wat een positief teken is.
Mozilla's security researchers melden dat Anthropic's Mythos model een grote hoeveelheid ernstige bugs in Firefox heeft ontdekt, waaronder fouten die al meer dan tien jaar in de code lagen. Het model is zo krachtig in het opsporen van softwarevulnerabiliteiten dat het duizenden ernstige bugs heeft gevonden die moeten worden opgelost voordat het model openbaar kan worden gemaakt. Mozilla's onderzoekers stellen dat de nieuwste generatie AI-tools een grote sprong voorwaarts heeft gemaakt, vooral dankzij agentele systemen die hun eigen werk kunnen beoordelen en slechte resultaten kunnen filteren. In april 2026 werden 423 bug fixes in Firefox uitgevoerd, tegenover slechts 31 een jaar eerder. Hoewel AI nog niet wordt gebruikt om de bugs direct te fixen, dienen de gegenereerde patches als basis voor menselijke ingenieurs. Anthropic CEO Dario Amodei is optimistisch dat de nieuwe tools de balans in cybersecurity zullen veranderen, terwijl Mozilla's Brian Grinstead benadrukt dat de impact nog niet volledig duidelijk is.
Het Internationaal Monetair Fonds (IMF) waarschuwt dat financiële stabiliteitsrisico's stijgen door de toename van AI-gevoede cyberaanvallen. In een nieuw blogbericht benadrukt het IMF dat tools zoals Mythos, een AI-model van Anthropic, de tijd en kosten om kwetsbaarheden te identificeren en te exploiteren aanzienlijk kunnen verminderen. Dit verhoogt het risico dat belangrijke systemen worden aangepakt. Het IMF roept op tot resiliëntie, toezicht en internationale samenwerking om de globale financiële markten te beschermen. Anthropic heeft Mythos op 7 april aangekondigd, maar heeft het niet openbaar gemaakt vanwege de mogelijke veiligheidsrisico's. Op 22 april bevestigde het bedrijf dat het onderzoekt wordt of onbevoegde gebruikers toegang hebben gekregen tot Mythos. Het IMF benadrukt dat cyberrisico's grenzen niet respecteren en dat ongelijke toezicht over de wereld kan leiden tot zwakking van een wereldwijde verbonden systeem.
Een studie van het Anthropic Fellows Program toont aan dat AI-modellen beter hun waarden volgen als ze eerst leren waarom die waarden belangrijk zijn. De onderzoekers introduceerden een nieuwe fase genaamd 'Model Spec Midtraining' (MSM), waarin modellen worden getraind op synthetisch gegenereerde documenten die de waarden van het model uit verschillende hoeken bespreken. In een test met Qwen3-32B en Qwen2.5-32B daalde de mate van misalignement aanzienlijk, van respectievelijk 54 naar 7 procent en 68 naar 5 procent. De methode vereist ook minder fine-tuning data dan andere benaderingen zoals 'Deliberative Alignment' van OpenAI. De studie benadrukt dat expliciete toewijzing van gedrag aan waarden cruciaal is voor effectieve alignement.
Databricks benadrukt dat het gemiddelde tijdinterval tot detectie (MTTD) in security operations centers (SOCs) wordt belemmerd door datafragmentatie. De oplossing van Databricks, Genie binnen Lakewatch, maakt gebruik van de redeneerkracht van de Anthropic Claude-modellen om automatische agenten in te zetten die gegevens sneller kunnen verwerken en analyseren. Dit vermindert de hoeveelheid tijd die beveiligingsanalisten nodig hebben om data te verzamelen, waardoor onderzoek en detectie sneller en efficiënter kunnen plaatsvinden. De oplossing stelt analisten in staat om vragen in natuurlijke taal te stellen en krijgt direct antwoord, wat de manuele workflows vermindert. Databricks benadrukt dat de snelle ontwikkeling van bedreigingen de noodzaak van machine-gebaseerde detectiemethoden benadrukt, waarbij de menselijke inbreng centraal staat in het beheer van automatisering.
De Amerikaanse overheid heeft vier nieuwe AI-bedrijven toegevoegd aan haar lijst van voorkeursleveranciers, waaronder Microsoft, Reflection AI, Amazon en Nvidia. Deze bedrijven mogen nu hun producten gebruiken op gevoelige militaire operaties. De overheid heeft ook haar positie ten opzichte van Anthropic heroverwogen, na een geschillenproces rond de term 'any lawful use', die Anthropic’s CEO Darius Amodei had geassocieerd met mogelijke toepassingen in surveillance en autonome wapens. De Pentagon heeft een contract van 200 miljoen dollar met Anthropic opgezegd, wat de bedrijf heeft aangekaart in de rechter. De overheid wil nu een diversere basis van AI-technologieën opbouwen om afhankelijkheid van enkele leveranciers te verminderen. De nieuwe AI’s zullen worden gebruikt voor gevoelige gegevens en hoogsecrète informatie, om de Amerikaanse militairen te ondersteunen in complexe operaties. Anthropic’s Claude AI wordt nog steeds gebruikt door veiligheidsorganisaties, terwijl Mythos onder examen staat door 40 organisaties wereldwijd.
De Amerikaanse overheid heeft overeenkomsten gesloten met Google DeepMind, Microsoft en xAI om vroege versies van hun nieuwe AI-modellen te onderzoeken op veiligheid en nationale veiligheid voorafgaand aan de openbaarmaking. De Center for AI Standards and Innovation (CAISI), onderdeel van het ministerie van Handel, benadrukt dat dit onderzoek essentieel is voor het begrijpen van de mogelijkheden van nieuwe AI-modellen en het beschermen van de nationale veiligheid. De overeenkomsten richten zich op risico's rond cybersecurity, biologische veiligheid en chemische wapens. OpenAI en Anthropic sloten al twee jaar eerder vergelijkbare overeenkomsten aan met de Biden-administratie. De nieuwe overeenkomsten komen op het moment dat zorgen groeien over de potentie van de nieuwste AI-modellen, zoals Anthrropics Mythos, om gevaarlijk te zijn voor de openbare veiligheid.
In de april 2026 nieuwsbrief worden updates op AI-modellen zoals Opus 4.7, GPT-5.5 en ChatGPT Images 2.0 besproken. Daarnaast worden prijsverhogingen en nieuwe releases genoemd, met een abonnementsprijs van 10 dollar per maand voor toegang tot de inhoud.
Mythos AI, het nieuwste model van Anthropic, heeft zich als cybersecuritybedreiging blijken opstellen door softwarefouten te vinden en te exploiteren op een ongekende schaal en snelheid. Het model heeft 271 fouten in Firefox en 181 exploits ontwikkeld, en heeft duizenden zero-day fouten in belangrijke software gevonden. Hoewel de capaciteiten van Mythos opvallen, benadrukt de analyse dat de fouten niet nieuw zijn, maar eerder bekende klassen van softwarefouten zijn. Mythos benadrukt de beperkingen in huidige cybersecuritypraktijken en de ongelijke balans tussen verdedigers en aanvallers. Het model is een product van de samenwerking tussen AI en cybersecurity, en niet een revolutionair nieuw type bedreiging.
In deze uitgebreide podcast worden de laatste ontwikkelingen in de AI-wereld besproken, waaronder de lancering van GPT-5.5 door OpenAI, de open-source release van DeepSeek V4, en nieuwe onderzoeken naar AI-safety sabotage. Ook worden belangrijke bedrijfs- en beleidsupdates, zoals Google's investering in Anthropic en de blokkade van Meta's overname van Manus, besproken.
Anthropic, samen met Blackstone, Hellman & Friedman en Goldman Sachs, heeft een nieuwe AI-dienstverlener opgericht die midgrote bedrijven helpt met de integratie van Claude in hun kernprocessen. De samenwerking wordt gesteund door een consortium van alternatieve beleggingsmaatschappijen, waaronder General Atlantic en Sequoia Capital. De nieuwe organisatie werkt met bedrijven in verschillende sectoren, zoals gezondheidszorg en manufacterie, om maatwerkoplossingen te ontwikkelen. De dienstverlener versterkt de aanwezigheid van Claude bij bedrijven die geen in-house expertise hebben voor AI-implementatie. Krishna Rao, CFO van Anthropic, benadrukt dat de samenwerking cruciaal is voor het bereiken van grote ondernemingen en dat de nieuwe maatregel de ecosystemcapaciteit verder uitbreidt.
Het Amerikaanse ministerie van Buitenlandse Zaken toont zorgen aan over Anthropics AI-model Mythos, dat mogelijk cybersecurity-vulnerabiliteiten kan identificeren en benutten. De Trump-beheerders zijn tegen het uitbreiden van de toegang tot Mythos voor 70 extra bedrijven en organisaties, vanwege veiligheidsrisico's. Anthropic heeft de klacht ontkend en benadrukt dat het in productieve gesprekken is met de overheid over de uitbreiding. De spanningen tussen Anthropic en de Amerikaanse defensie zijn al lang aan de orde, met voorgaande conflicten over het gebruik van AI-modellen voor autonome wapens en massasurveillance. De White House lijkt tegelijkertijd te willen gebruiken en te verdenken van Mythos als een nationaal veiligheidsrisico.
De toenemende uitdagingen voor cyberveiligheid in de tijd van kunstmatige intelligentie. AI breidt de aanvalsoverdruk uit en voegt nieuwe complexiteit toe, waardoor oude veiligheidsmethoden minder effectief worden. De tekst bespreekt een lezing uit de EmTech AI-conferentie van MIT Technology Review, waarin wordt benadrukt dat veiligheid moet worden opgebouwd rond AI, niet als een laag erop. Tarique Mustafa, oprichter en CEO van GCCybersecurity en Chorology, presenteert zijn werk aan AI-gebaseerde oplossingen voor dataveiligheid en naleving. Hij heeft meerdere USPTO-patenten en heeft bijdragen geleverd aan onderzoekspublicaties in diverse technologieën, waaronder kunstmatige intelligentie.
Anthropic heeft een nieuw beveiligingsinstrument voor bedrijven gelanceerd, dat beschikbaar is voordat het volledige Mythos-cybersecurity-model van de aanbieder wordt uitgebreid vrijgegeven. Het instrument is bedoeld om organisaties te helpen bij het beheren en beveiligen van gevoelige data. De Mythos-model is bekend om zijn kracht en controversiële aard, wat de betekenis van deze nieuwe tool versterkt. De lancering maakt deel uit van Anthropics strategie om de toepassingsmogelijkheden van generatieve AI in bedrijven te verbreden.
Het Britse AI Security Institute heeft de cyberveiligheidsvermogens van OpenAI's GPT-5.5 geëvalueerd en concludeert dat deze vergelijkbaar zijn met die van Claude Mythos. Hoewel beide modellen gelijkaardig presteren in het opsporen van beveiligingszwachten, is GPT-5.5 al beschikbaar voor het algemeen publiek, terwijl Claude Mythos nog beperkt is. De evaluatie benadrukt de toenemende rol van grote taalmodellen in het detecteren van beveiligingsproblemen. De bron bevat ook verwijzingen naar andere recente AI-ontwikkelingen, zoals het xAI/Anthropic data center deal en updates over Claude 2.
OpenAI heeft zijn nieuwste AI-model, GPT-5.5, op instructie beperkt in het bespreken van goblins en andere fictieve wezens. De instructies voor Codex, een coderingshulpmiddel van OpenAI, verbieden expliciet het bespreken van dergelijke wezens tenzij het absoluut relevant is. De opmerkingen werden opgepakt door gebruikers die meldingen maakten van AI die bugs beschreef als goblins of gremlins. OpenAI reageerde met een blogpost waarin uitleg werd gegeven over hoe de neiging tot het gebruik van dergelijke termen ontstond, onder andere door de training op de 'Nerdy' persoonlijkheid. Het is een voorbeeld van onverwachte fixaties die AI-modellen kunnen ontwikkelen op basis van hun trainingsdata.
In deze aflevering van LWiAI Podcast bespreken de gasten de laatste ontwikkelingen in de AI-sector, waaronder de lancering van ChatGPT Images 2.0, de API-uitgave van Qwen 3.6 Max en de release van Kimi-K2.6. Daarnaast worden ook andere relevante updates besproken, zoals Google's Deep Research, het gebruik van Anthropic's Claude bij Mozilla, en de impact van AI op platforms zoals YouTube en Deezer.
De release van versie 0.32a0 van een AI-model, met nadruk op updates en ontwikkelingen rondom xAI en Anthropic. Er worden ook korte updates gegeven over recente activiteiten in de AI-ecologie, zoals de deal tussen xAI en Anthropic en de uitbreiding van agentic engineering.
AI-bedrijven zoals Microsoft, Anthropic en Google sturen hun kostenbeleid aan door gebruik te maken van gebruiksbasisfacturering voor hun AI-modellen. Microsoft’s GitHub Copilot verplaatst alle abonnementsplannen naar een systeem waarbij gebruikers worden gefactureerd op basis van het aantal tokens dat hun AI-taken verbruiken. De verandering, die op 1 juni in werking treedt, vervangt de oude 'premium request units' door 'GitHub AI Credits'. De nieuwe systeem is bedoeld om de prijs te laten kloppen met de werkelijke kosten. Anthropic en Google hebben ook maatregelen genomen, zoals verlaagde rate-limits en weeklijks gebruikslimieten. De veranderingen kunnen een impact hebben op de toepassing van AI en de reactie van klanten en bedrijven op de stijgende kosten.
Anthropic lanceert een reeks connectors die Claude kunnen gebruiken in creatieve workflows, waardoor creatieve professionals beter kunnen werken met bestaande tools. De connectors ondersteunen software zoals Adobe, Blender, Autodesk Fusion en meer, en maken het mogelijk om taakautomatisering, ideeënontwikkeling en samenwerking tussen verschillende tools te vergroten. Ook wordt er een MCP-connector voor Blender vrijgegeven, die toegang geeft tot de Python API van Blender en helpt bij het analyseren en debuggen van 3D-scènes. Anthropic donatie aan het Blender-project ondersteunt de ontwikkeling van deze integraties.
Google overweegt een aanvullende investering van 40 miljard dollar in Anthropic, wat deel uitmaakt van een grootschalige investeringsoptreden van techbedrijven in AI-datacenters. In 2025 en 2026 is de totale investering van techgiganten in AI-datacenters geschat op ongeveer 700 miljard dollar. De investeringen vormen onderdeel van een groter patroon van steun aan AI-onderzoek en infrastructuur door grote techbedrijven. De tekst bevat echter geen verdere details over de investering of de toekomstige plannen van Google of Anthropic.
OpenAI heeft de coderings- en toolgebruiksfuncties van GPT-5.5 verbeterd, maar blijft achter in gebieden waar Anthropic met Opus 4.7 voorslaat. De vergelijking benadrukt de verschillen tussen de twee grote AI-bedrijven in hun technologische ontwikkeling. De artikeltitel benadrukt de vooruitgang van GPT-5.5 in coderen, maar benadrukt ook dat het model nog niet op dezelfde niveau staat als Opus 4.7 van Anthropic.
Anthropic heeft toegegeven dat het de kwaliteit van Claude verlaagde toen het probeerde het slimmer te maken. De AI-ontwikkelaar onderzocht drie veranderingen in maart en april die klachten van gebruikers veroorzaakten, zoals vertraagde reacties en herhalende antwoorden. De eerste aanpassing was het verlagen van de standaard 'reasoning effort level' van hoog naar middel, wat leidde tot lagere prestaties. Een tweede fout was een bug in de cache-optimisatie die leidde tot vergetelijker gedrag. De derde aanpassing was een systeemprompt die de uitvoer verduidelijkte, maar daarna bleek de prestatie met drie procent te zijn gedaald. Alle veranderingen werden later hersteld, en Anthropic belooft betere communicatie en tests in de toekomst.
Anthropic en NEC hebben een samenwerking aangegaan om Japan’s grootste AI-gerichte engineering-organisatie te bouwen. NEC zal Claude gebruiken om circa 30.000 medewerkers van de NEC Groep te voorzien en wordt het eerste Japanse wereldwijde partner van Anthropic. Samen ontwikkelen ze veilige, sectorgerichte AI-producten voor de Japanse markt, met als eerste doel tools voor financiën, productie en lokale overheid. Binnen NEC wordt ook een Center of Excellence opgericht om een geavanceerde AI-gerichte engineering-organisatie te vormen, ondersteund door trainingen en technische ondersteuning van Anthropic.
Anthropic heeft de versie 4.7 van Claude uitgebracht met sterke beveiligingsmaatregelen, maar dit heeft leiden tot een stijging van onjuiste afwijzingen van gebruikers. Ontwikkelaars rapporteren dat de Acceptable Use Policy (AUP) classifier te agressief is en onschuldige vragen weigert. Problemen zijn onder andere te zien in klachten over het verwerken van Russische prompts, computertoepassingen in de structuurbiologie en het lezen van een cybersecurity-lab. De klachten zijn opgelopen tot meer dan 30 meldingen in april. De AUP-classifier gebruikt mogelijk alleen verboden woorden zonder context te controleren, wat leidt tot veel onjuiste afwijzingen.
Anthropic's beveiligde AI-model Mythos is volgens rapporten via een datalek toegankelijk gemaakt voor een Discord-groep, ondanks de bedoeling om het op te sluiten. De groep gebruikte lekken uit een andere databreach om toegang te krijgen en stelt dat het model niet wordt gebruikt voor malafide doelen. Het gebeurde binnen dagen van de lancering onder de naam 'Project Glasswing'. De incidenten benadrukken de uitdagingen bij het beheren van gevoelige AI-modellen.
Het rapport van de IPPR waarschuwt dat overheden zoals het VK en de VS risico lopen op democratische terugslag als ze niet tonen dat burgers voordelen kunnen halen uit de AI-ontwikkeling. De organisatie benadrukt dat de huidige aanpak van AI-voordelen en -beperkingen onvoldoende is en dat beleid nodig is om AI te sturen naar publieke waarde. De rapportage benadrukt ook dat de huidige concentratie van macht in de AI-sector risico's met zich meebrengt voor de markt en de samenleving.