Dossier

Open models, lokale AI en privacy

Lokale/open modellen als alternatief voor Big Tech-cloud-AI.

Nieuwsitems

Gekoppelde artikelen

9 artikelen

Black Forest Labs, bekend om hun image generation model FLUX, legt uit hoe hun Forward Deployed Engineers samenwerken met klanten om modellen effectief in productie te brengen. Ze benadrukken dat het bouwen van een betrouwbare gebruikerservaring vereist meer dan alleen modelcapaciteit, maar ook gebruiksspecifieke aanpassingen. Ze delen inzichten over hoe zij samenwerken met partners, zoals Microsoft, om prompt engineering, inference pre-processing en output post-processing te optimaliseren. BFL benadrukt dat het succes van een implementatie niet alleen afhangt van de API, maar ook van een geïntegreerd systeem dat afgestemd is op de specifieke behoeften van de klant.

Een nieuw AI-systeem kan nu volledig automatisch wetenschappelijke artikelen genereren, wat een grote verandering betekent voor de toekomst van onderzoek. Het systeem, ontwikkeld door Sakana AI, kan literatuur analyseren, hypothesen formuleren, code schrijven en uitvoeren, resultaten analyseren en een volledig onderzoeksrapport produceren zonder veel menselijke invloed. In maart 2026 werd een paper van het AI-systeem geaccepteerd door de International Conference on Learning Representations en gepubliceerd in de wetenschappelijke tijdschrift Nature. Ook andere systemen zoals Analemma's Fully Automated Research System (Fars) en Google Cloud AI Research's PaperOrchestra tonen aan dat AI steeds beter wordt in het automatiseren van onderzoek. Deze ontwikkeling stelt de wetenschappelijke publicatieinfrastructuur onder druk, terwijl ook creatieve industrieën zoals muziek en podcasten worden beïnvloed door de groeiende rol van AI.

Een nieuw concept voor het opzetten van een persoonlijke wiki die door een LLM wordt onderhouden, zodat context altijd up-to-date blijft. Andrej Karpathy, oprichter van OpenAI, beschrijft hoe je een systeem kunt opzetten met drie kernbestanden (_hot.md, _pending.md en _log.md) die samenwerken om informatie te verzamelen, te indexeren en te beheren. Het systeem zorgt ervoor dat de AI geen herhalingen hoeft te maken bij elke vraag, maar al het relevante materiaal al vooraf is verwerkt. De methode is bedoeld om de productiviteit te verhogen door context te blijven behouden, in plaats van afhankelijk te zijn van tijdelijke chatgeschiedenis. De aanpak is toegankelijk voor elk AI-tool en kan worden gebruikt met systemen zoals GitHub, Codex of andere AI-modellen die bestanden kunnen lezen.

DeepL, een leidende Europese AI-vertaalbedrijf, heeft een samenwerking aangekondigd met Amazon Web Services (AWS), wat opmerkingen oproept binnen de sector. De samenwerking wordt gezien als een risico voor de Europese reputatie in de AI-vertaling, gezien de zorgen over de monopolistische positie van Silicon Valley. DeepL benadrukt dat AWS geen toegang heeft tot klantengegevens, maar zorgen blijven bestaan over data-sovereigniteit en de invloed van Amerikaanse regelgeving. Competitoren als Translated waarschuwen dat de afhankelijkheid van Amerikaanse infrastructuur de Europese concurrentievoordeel kan bedregeken.

Sam Sidhu, CEO van Customers Bank, liet tijdens een conferentiebel weten dat hij een AI-klon gebruikte om de vergadering te voeren. De AI, die hij als een potentiële eerste voor een openbare bedrijfsvergadering beschouwt, werd gebruikt om de voorbereidde opmerkingen te overbrengen. De bank heeft een multiyear samenwerking gesloten met OpenAI om AI-modellen in te zetten in de bankbedrijfsprocessen. Sidhu verwacht dat de AI de efficiëntie van de bank kan verbeteren, bijvoorbeeld door de looptijd van commerciële leningen van 30 dagen naar 7 dagen te verkorten. Zijn actie wordt gezien als een marketingstrategie om de samenwerking met OpenAI te promoten, maar ook als een reflectie van de toenemende AI-enthousiasme in de topmanagementlagen.

Bedrijven en overheden hun eigen data beheren om AI op maat te laten werken. De kern van het artikel ligt in het balanceren tussen data-ownership en de veilige, betrouwbare stroom van hoge kwaliteit data voor betrouwbare inzichten. Het onderwerp wordt geïntroduceerd via een gesprek uit de EmTech AI-conferentie van MIT Technology Review, waarin de rol van AI-factories wordt uitgelegd als middel om schaal, duurzaamheid en governance te verbeteren. Chris Davidson van HPE legt uit hoe HPE strategieën ontwikkelt voor AI Factory-oplossingen en soevereine AI, terwijl Arjun Shankar van Oak Ridge National Laboratory de koppeling tussen computerwetenschap en grote wetenschappelijke ontdekkingen bespreekt. De artikeltitel benadrukt de belangrijkste thema's: schaal en soevereiniteit in AI-ontwikkeling.

Together AI en Adaption hebben een samenwerkingsakkoord gesloten om Together Fine-Tuning direct beschikbaar te maken in Adaptive Data. Dit helpt teams bij het optimaliseren van datasets, het uitvoeren van fine-tuning, het beoordelen van resultaten en het implementeren van sterke open modellen. Adaption, opgericht door Sara Hooker en Sudip Roy, biedt tools om datasetstructuur te analyseren, voorbeelden aan te passen en model-klare data te exporteren. Met de integratie kunnen gebruikers hun Together AI-account verbinden en zo sneller een goed gefine-tuned model opzetten. De samenwerking maakt het mogelijk om datasets van Adaptive Data direct te gebruiken in Together Fine-Tuning, wat leidt tot gespecialiseerde modelgedrag.

Een opinie-artikel benadrukt dat bedrijven steeds moeilijker kunnen switchen tussen verschillende AI-modellen vanwege vendor lock-in en stijgende prijzen. Volgens een onderzoek van Zapier denken 90% van de beheerders dat ze binnen vier weken kunnen overstappen, maar slechts 42% meldt dat dit zonder problemen gelukt is. De moeilijkheden zijn te wijten aan technische afhankelijkheden zoals specifieke APIs, trainingsdata en integraties. Bovendien stijgen de prijzen van AI-modellen, zoals bij OpenAI en Anthropic, wat de kosten voor bedrijven verder verhoogt. GitHub beperkt ook de beschikbaarheid van Copilot en Opus-modellen.

Zuid-Afrika heeft zijn ontwerp van nationaal AI-beleid teruggetrokken na ontdekking dat het gebruikte fictieve bronnen die alleen bestaan in de fantasie van een chatbot. De minister van Communicatie, Solly Malatsi, verklaarde dat de ministerieel bevestigde dat het ontwerp, dat al door de kabinet was goedgekeurd en open voor publieke commentaar stond, 'verschillende fictieve bronnen' in de referentielijst bevatte. De fouten, die als klassieke AI-hallucinaties worden beschouwd, leidden tot het terugtrekken van het document. Malatsi benadrukte dat de fout niet alleen technisch was, maar de integriteit en credibiliteit van het beleid had ondermijnd. De minister kondigde 'consequence management' aan voor de betrokkenen. De zaak benadrukt de noodzaak van menselijke toezicht bij het gebruik van AI, en wordt gezien als een les dat het beleid zelf niet in staat is om basiscontroles uit te voeren.