DeepSeek aggiorna il modello R1: ora pensa più a lungo e scrive meglio

https://www.hdblog.it/tecnologia/articoli/n620091/deepseek-r1-0528-nuovo-modello-ai/

HDblog.it May 29, 2025 · 2 mins read
DeepSeek aggiorna il modello R1: ora pensa più a lungo e scrive meglio
Share this

L’aggiornamento del modelloDeepSeek R1, rilasciato il 28 maggio con la sigla R1-0528, sta già facendo parlare di sé tra sviluppatori e appassionati di AI. L’azienda cinese, inizialmente poco nota, aveva già sorpreso a inizio anno con il rilascio della prima versione di R1: un modello di ragionamento open source, capace di competere con i giganti del settore come OpenAI, Anthropic e Google. Ora la nuova iterazione sembra fare un ulteriore salto di qualità, non solo in termini di prestazioni, ma anche di profondità analitica e naturalezza linguistica.

L’elemento che più colpisce di questa nuova versione è la sua capacità di "pensare" più a lungo: utenti sulla piattaforma X (ex Twitter) riportano sessioni di ragionamento prolungate fino a un’ora, con performance simili a quelle di modelli come Gemini di Google. Secondo quanto condiviso, DeepSeek-R1-0528 riesce non solo a produrre codice funzionante al primo tentativo, ma lo fa anche con uno stile pulito e test inclusi. Questo approccio ha colpito positivamente sviluppatori che lo hanno messo alla prova con sfide di programmazione complesse.

Un punto di forza riconosciuto di DeepSeek rimane la sua efficienza. L’azienda è riuscita a ottenere risultati eccellenti con un uso contenuto di risorse, grazie a scelte tecniche raffinate: tra queste spiccano l’architettura MoE (Mixture-of-Experts), tecniche di compressione avanzate, capacità di previsione multi-token e un addestramento basato principalmente sul reinforcement learning.

Tra i primi test pubblici, uno dei più interessanti è quello di LiveCodeBench, un benchmark utilizzato per valutare le capacità di programmazione dei modelli linguistici. In questo contesto, DeepSeek-R1-0528 ha raggiunto il quarto posto in classifica, superando alternative ben più note come o4 Mini e Grok-3-mini. Il balzo prestazionale è significativo se si considera che si tratta ancora di un modello gratuito e open source, a disposizione della comunità su piattaforme come Hugging Face.

Oltre alla programmazione, sono stati segnalati miglioramenti evidenti anche nei compiti di scrittura. I testi generati risultano più naturali, meglio strutturati e con uno stile coerente. Questo lo rende adatto non solo per sviluppatori, ma anche per utenti che desiderano generare contenuti complessi in modo fluido e leggibile. Mentre si attendono benchmark ufficiali da parte di DeepSeek, la risposta positiva della comunità è un chiaro segnale del potenziale di questo aggiornamento.