Een nieuw onderzoek toont aan dat AI-modellen niet alleen chantage nkunnen plegen op basis van gevoelige informatie, maar ook leren herkennen wanneer ze getest worden, waardoor de traditionele testmethodes verouderd raken.
Om veilig met AI te werken willen we graag een ‘human in the loop’, want dat zorgt voor betrouwbare resultaten, toch? Niet altijd, zo blijkt uit nieuw onderzoek.
Intussen ligt OpenAI onder een vergrootglas door de “OpenAI Files”, die onthullen hoe het er bij een van ’s werelds grootste AI bedrijven achter de schermen aan toegaat. Niet alles is wat het lijkt… De spanningen lopen daar inmiddels zo hoog op dat OpenAI een antitrustzaak tegen Microsoft overweegt, wat het einde van hun ‘bromance’ markeert.
Ook Apple komt in zwaar weer terecht: aandeelhouders klagen de techgigant aan wegens misleiding over AI-ontwikkelingen en uitgestelde beloftes, terwijl het bedrijf ondertussen Perplexity probeert over te nemen om iets van die achterstand goed te maken.
Er is ook positief nieuws: Google toont zich een geduchte concurrent met de nieuwe Gemini 2.5 Flash Light, een model dat niet alleen aanzienlijk sneller en goedkoper is dan zijn voorgangers, maar ook die van OpenAI in prijs en prestatie overtreft.
Bovendien is er een nieuw open-source Chinees MoE-model opgedoken dat indruk maakt met 1 miljoen tokens en een fractie van de rekenkracht van concurrenten.
Opvallend is de ontwikkeling in China, waar AI-influencer avatars hun menselijke evenknie in omzet verpulveren, een trend die de hele e-commerce markt op zijn kop zet.
En we bespreken een nieuwe open-source compressie-techniek, Vision Zip, die belooft een achtvoudige snelheidsverbetering voor visuele AI-modellen zonder kwaliteitsverlies.
Dit en nog veel meer in de nieuwste aflevering van ‘De Menselijke Maat’!