Le notizie di questa settimana rivelano nuove iniziative e sfide in vari campi dell’intelligenza artificiale (AI), dai social media alla difesa militare. Midjourney e Meta introducono strumenti di editing e modelli open-source, mentre Anthropic esplora i potenziali rischi di sabotaggio legati all’AI. Nel contesto educativo, aumentano le preoccupazioni sull’affidabilità dei rilevatori di AI, e il Pentagono progetta la creazione di deepfake realistici per operazioni di intelligence. Questi sviluppi pongono interrogativi etici e di sicurezza, con implicazioni che spaziano dall’integrità accademica alla protezione dei dati personali.
- Midjourney si prepara a lanciare una funzione che permetterà agli utenti di modificare immagini tramite AI direttamente dal web, offrendo possibilità creative e sfide legali. Con questa novità, si potranno cambiare dettagli visivi con descrizioni testuali, mentre moderatori umani e AI vigileranno per prevenire abusi. Aumentano le preoccupazioni sul copyright e sui deepfake, in un contesto in cui le immagini generate da AI sono difficili da distinguere dalle reali.
Per approfondire clicca qui —> https://techcrunch.com/2024/10/21/midjourney-ai-image-editing-web-tool/
- L’uso dei rilevatori di AI nelle scuole americane sta causando casi di false accuse contro studenti, come Moira Olmsted, erroneamente ritenuta colpevole di aver usato l’AI per un compito. Gli errori di questi strumenti possono penalizzare studenti neurodivergenti o non madrelingua, sollevando dubbi sull’affidabilità. Gli sviluppatori cercano di ridurre i falsi positivi, ma insegnanti e istituzioni devono esercitare cautela nel valutare i risultati.
Per approfondire clicca qui —> https://www.bloomberg.com/news/articles/2024-10-21/do-ai-detectors-work-students-are-being-wrongly-accused-of-cheating
- Il Comando per le Operazioni Speciali degli Stati Uniti cerca aziende per creare profili internet deepfake da utilizzare in missioni segrete. Questo programma mira a generare falsi utenti con immagini e contesti virtuali realistici per operazioni di influenza e raccolta dati. Tuttavia, il governo statunitense rischia contraddizioni, poiché ha spesso criticato l’uso dei deepfake da parte di avversari stranieri.
Per approfondire clicca qui —> https://theintercept.com/2024/10/21/pentagon-deepfake-ai-special-operations/
- Grazie al video scraping economico alimentato dall’AI, è ora possibile estrarre dati con precisione da qualsiasi registrazione video. Questa tecnica, che sfrutta modelli AI multimodali come Gemini di Google, può organizzare dati non strutturati e offre grandi opportunità per giornalisti e analisti. Tuttavia, la facilità di accesso ai dati visivi solleva dubbi etici e di privacy.
Per approfondire clicca qui —> https://arstechnica.com/gadgets/2024/10/cheap-video-scraping-with-ai-can-now-pull-data-from-any-screen-recording/
- Anthropic ha condotto test sui rischi di sabotaggio dei modelli di AI, esplorando scenari in cui l’AI potrebbe ingannare o sabotare decisioni umane e processi digitali. I modelli Claude 3 Opus e 3.5 Sonnet sono stati esaminati, dimostrando che i rischi attuali sono bassi, ma richiedono maggiore attenzione con l’avanzamento dell’AI. La ricerca sottolinea l’importanza di test realistici per proteggere gli utenti da attacchi futuri.
Per approfondire clicca qui —> https://mashable.com/article/anthropic-ai-sabotage-evaluation
- Meta ha presentato Spirit LM, un modello multimodale open-source che integra input e output di testo e voce con espressività naturale. Sviluppato dal team Meta FAIR, Spirit LM mira a creare un linguaggio vocale più realistico e pieno di emozioni. Disponibile solo per scopi non commerciali, Meta spera che questo rilascio promuova innovazioni nelle interazioni vocali.
Per approfondire clicca qui —> https://venturebeat.com/ai/meta-launches-spirit-lm-open-source-multimodal-ai-model/
- A partire da dicembre 2024, Meta utilizzerà il riconoscimento facciale per bloccare truffe pubblicitarie che sfruttano immagini di celebrità. Questa nuova funzione verificherà gli annunci pubblicitari confrontando le immagini delle celebrità per prevenire frodi legate agli investimenti. L’obiettivo è tutelare l’immagine pubblica e ridurre le truffe, offrendo ai personaggi famosi l’opzione di non partecipare.
Per approfondire clicca qui —> https://www.theguardian.com/technology/2024/oct/22/meta-facial-recognition-celebrity-investment-scams