Spread the love en help Indignatie
DeepSeek blijft bovenaan de App Store van Apple staan
WTF?! Zou je bereid zijn om de App Store-topper DeepSeek te gebruiken als dat illegaal zou zijn, waardoor je mogelijk 20 jaar achter de tralies zou belanden en een boete van maximaal $ 1 miljoen zou krijgen? Een senator heeft een nieuw wetsvoorstel ingediend om Chinese AI-producten te beperken die dit bizarre scenario werkelijkheid zouden maken.
Het wetsvoorstel van Republikeinse senator Josh Hawley uit Missouri, de Decoupling America’s Artificial Intelligence Capabilities from China Act van 2025, heeft als doel om mensen in de VS te verbieden om AI-mogelijkheden binnen de Volksrepubliek China en voor andere doeleinden te ontwikkelen.
Als de wet wordt aangenomen, worden Amerikaanse ondernemingen die AI-onderzoek uitvoeren met Chinese bedrijven, investeren in Chinese AI-bedrijven, samenwerken met Chinese organisaties aan de technologie of intellectueel eigendom of technologie importeren die in China is ontwikkeld, beroofd van alle licenties, contracten, onderaannemingsovereenkomsten, subsidies of publieke voorzieningen die eerder door federale instanties zijn toegekend, en werknemers kunnen ook een boete krijgen van maximaal $ 1 miljoen.

Het wetsvoorstel verbiedt bovendien de ‘overdracht van onderzoek’, wat gevolgen kan hebben voor onderzoekers die hun werk openbaar maken.
De regels zouden ook gelden voor individuen, die straffen kunnen krijgen op grond van sectie 1760 van de Export Control Reform Act van 2018. Dat zou betekenen dat het downloaden van AI-modellen uit China, zoals DeepSeek, je een boete van $ 1 miljoen en 20 jaar gevangenisstraf kan opleveren. Amerikaanse aandeelhouders in Chinese bedrijven die zich bezighouden met AI-werk, kunnen ook een boete en gevangenisstraf krijgen.
“Elke dollar en gig aan data die naar Chinese AI stroomt, zijn dollars en data die uiteindelijk tegen de Verenigde Staten worden gebruikt”, zei senator Hawley in een verklaring . “Amerika kan het zich niet veroorloven om onze grootste tegenstander te machtigen ten koste van onze eigen kracht. Het verzekeren van de Amerikaanse economische superioriteit betekent China afsnijden van Amerikaanse vindingrijkheid en het stoppen van de subsidiëring van CCP-innovatie.”
Ook wij hebben jou steun nodig in 2025, gun ons een extra bakkie koffie groot of klein.
Dank je en proost?
Wij van Indignatie AI zijn je eeuwig dankbaar
Wow. Congress just tabled a bill that would *actually* kill open-source. This is easily the most aggressive legislative action on AI—and it was proposed by the GOP senator who slammed @finkd for Llama.
Here’s how it works, and why it’s different to anything before it. pic.twitter.com/XKIWWY7oYv
— Ben Brooks (@opensauceAI) February 1, 2025
Hawley noemt DeepSeek specifiek in zijn verklaring, dat hij omschrijft als een “data-harvesting, goedkoop AI-model dat internationale bezorgdheid wekte en de Amerikaanse technologie-aandelen deed kelderen.” De waarde van Nvidia daalde met $ 600 miljard , het grootste verlies op één dag in de Amerikaanse geschiedenis, en de markt raakte in een neerwaartse spiraal na de opkomst van DeepSeek en de beweringen dat de ontwikkelingskosten een fractie waren van die van concurrerende AI-bedrijven (hoewel ze waarschijnlijk een stuk hoger waren dan beweerd ).
Na de lancering van DeepSeek’s open-source R1-model, waarvan gezegd wordt dat het vergelijkbare prestaties levert als OpenAI’s o1, bracht Alibaba zijn Qwen 2.5-Max -model uit. De Chinese e-commercegigant zegt dat zijn product de mogelijkheden van DeepSeek’s aanbod overtreft.
Het is onduidelijk hoe het wetsvoorstel gehandhaafd zal worden, vooral omdat DeepSeek de hoogst genoteerde app is in de Amerikaanse Apple App Store.
Het goede nieuws voor DeepSeek-gebruikers is dat het wetsvoorstel vorige week is ingediend. Het kan dus zomaar worden afgewezen, ook zonder dat er direct tegen is gestemd.
In januari herinnerde de Amerikaanse marine haar personeel eraan geen generatieve AI-apps te gebruiken voor werk of persoonlijk gebruik, waarbij DeepSeek werd benadrukt vanwege de “potentiële beveiligings- en ethische zorgen die verband houden met de oorsprong en het gebruik van het model”.