Skip to main content

Ogni settimana proponiamo una selezione di notizie sull’IA generativa fra quelle che più ci hanno colpito e stimolato.

Noi vi consigliamo di prendervi del tempo, di leggere ed approfondire ma, se preferite, andate alla fine di questo post dove troverete il podcast con queste notizie raccontate e spiegate in dettaglio così da rimanere sempre aggiornati anche mentre siete in palestra, bloccati nel traffico o passeggiando con il cane.

  • Mustafa Suleyman di Microsoft ha dichiarato che i contenuti pubblicati sul web aperto possono essere copiati e utilizzati liberamente, equiparandoli a “freeware”.
    Ha affermato che esiste un contratto sociale implicito che consente tale utilizzo, nonostante le leggi sul copyright negli Stati Uniti indichino che un’opera è automaticamente protetta dal copyright dal momento della sua creazione.
    Ha discusso anche dell’uso del file robots.txt per impedire la scansione non autorizzata dei contenuti web, pur riconoscendo che non è un documento legale vincolante. Microsoft e OpenAI affrontano cause legali per l’uso non autorizzato di contenuti protetti per l’addestramento dei loro modelli di AI.
    Per approfondire clicca qui
  • Apple ha ottenuto un ruolo di osservatore nel consiglio di amministrazione di OpenAI come parte di un nuovo accordo strategico sull’AI. Questa collaborazione permette ad Apple di avere una visione privilegiata sulle operazioni e le decisioni strategiche di OpenAI, senza diritto di voto. L’accordo potrebbe portare benefici per entrambe le parti, con Apple che integra tecnologie avanzate di OpenAI nei suoi prodotti, e OpenAI che sfrutta l’esperienza di Apple nella creazione di hardware e software innovativi. Questo solleva interrogativi su come queste alleanze influenzano la concorrenza, l’innovazione e le implicazioni etiche e regolamentari nel campo dell’AI.
    Leggi tutto a questo link
  • Meta ha annunciato il rilascio di modelli pre-addestrati che utilizzano un approccio di previsione multi-token, migliorando lo sviluppo e l’uso dei modelli linguistici di grandi dimensioni (LLM). Questa tecnica permette ai modelli di prevedere simultaneamente più parole future, promettendo migliori prestazioni e tempi di addestramento ridotti, con impatti positivi sui costi e sull’impatto ambientale degli AI. I modelli sono disponibili per la ricerca non commerciale su Hugging Face, democratizzando l’accesso all’AI. Tuttavia, emergono sfide etiche e di sicurezza, con critiche riguardo all’uso di modelli più efficienti e i rischi di disinformazione e minacce informatiche. Meta ha anche rilasciato progressi nella generazione di immagini a testo e nel rilevamento del parlato generato dall’AI, evidenziando il suo ruolo di leader in vari domini dell’AI.
    Ti interessa il tema? Vai qui 

 

Open in Spotify