Matteo Flora

  • Autore: Vários
  • Narratore: Vários
  • Editore: Podcast
  • Durata: 380:09:18
  • Altre informazioni

Informações:

Trama

Ciao INTERNET! Sono MATTEO FLORA, dirigo una Reputation Agency e 5 volte alla settimana vi parlo di Internet e Digitale, di come usarli al meglio e di quali errori evitare. Ogni giorno un nuovo video per essere sempre aggiornato sui temi di primo piano in pochi minuti!

Episodi

  • Siamo arrivati a 100.000 iscritti, ed è merito vostro! #1423

    30/06/2025 Durata: 08min

    Dopo 10 anni e oltre 1450 giorni trascorsi insieme, abbiamo raggiunto l'importante traguardo dei 100.000 iscritti sul canale.Oltre all’emozione personale e all’aspetto simbolico, l’arrivo del Play Button diventa un momento di riflessione sull’evoluzione della rete, da quando il canale si chiamava ''Dharma Digitale'' fino a ''Ciao Internet'' di oggi. Dalla blogosfera ai social media, fino all'intelligenza artificiale, il nostro percorso è anche la testimonianza tangibile di come è cambiato il modo di comunicare rispetto agli inizi nel 2015.Ma questo traguardo non riguarda solo chi crea contenuti: coinvolge la community intera che rende possibile tutto questo. Dietro ogni numero ci sono persone, interazioni, confronti (a volte persino scontri), ma soprattutto un dialogo continuo con voi.Grazie!~~~~~ INGAGGI E SPONSORSHIP ~~~~~ Per contatti commerciali: sales@matteoflora.comPer consulenze legali: info@42LawFirm.it~~~~~ SOSTIENI IL CANALE! ~~~~~Con la Membership PRO puoi supportare il Canale » https://link.mgpf.i

  • Accessibilità siti web obbligatoria: quali aziende, quale fatturato, che siti web? #1422

    27/06/2025 Durata: 21min

    Nuova normativa accessibilità digitale: entro il 28 giugno 2025 tutti gli e-commerce italiani B2C con più di 2 milioni di euro di fatturato annuo o più di 10 dipendenti dovranno adeguarsi agli standard internazionali WCAG 2.1 AA. Una scadenza importante e obbligatoria che riguarda la fruibilità dei siti web da parte di persone con disabilità visive, motorie e cognitive, anziani e utenti temporaneamente impossibilitati.In questo approfondimento chiariremo in modo definitivo chi e cosa è realmente obbligato a fare, sfateremo alcuni dei peggiori miti che circolano in rete (e che rischiano di farti spendere inutilmente migliaia di euro) e analizzeremo le principali criticità della normativa italiana rispetto a quella europea.Non essere conforme comporta il rischio di incorrere in multe fino a 40.000 euro da parte di AgID dopo apposita segnalazione. Tuttavia le sanzioni potrebbero aumentare rapidamente per chi non rimedia tempestivamente.Quali reali implicazioni economiche e operative ci attendono? È giusto includ

  • Trump blocca il Tribunale Internazionale usando Microsoft? Il caso ICC e i rischi per lEuropa #1421

    25/06/2025 Durata: 06min

    Gli Stati Uniti hanno bloccato l'accesso alle mail del Tribunale Penale Internazionale (ICC), ospitate su server Microsoft. L'amministrazione Trump, in risposta all'indagine dell'ICC contro Israele e Netanyahu, ha infatti utilizzato una procedura legale statunitense per ottenere dati sensibili che si trovavano su infrastrutture americane. Microsoft, rispettando la normativa USA, non ha potuto fare diversamente che concedere l'accesso, bloccando così gran parte dell'apparato operativo del tribunale.Questo evento apre scenari preoccupanti sulle conseguenze dell'affidarsi a provider informatici extra-europei, specialmente per istituzioni internazionali o sensibili.Quali sono i rischi reali per la sovranità digitale europea? Quali implicazioni geopolitiche ed economiche derivano da questa eccessiva dipendenza tecnologica dagli Stati Uniti, soprattutto nell'Era Trump?~~~~~ INGAGGI E SPONSORSHIP ~~~~~ Per contatti commerciali: sales@matteoflora.comPer consulenze legali: info@42LawFirm.it~~~~~ SOSTIENI IL CANALE! ~~

  • W33K Ep.18 ~ 23.06.2025

    24/06/2025 Durata: 01h23min

    ✨ W33K: il Lunedì che fa la differenza!Un'ora circa per iniziale la settimana con consapevolezza e una marcia in più. I topic di questa puntata:00:02:04 - Festeggiamenti per i 10 anni del progetto e i 100.000 iscritti su YouTube.00:09:33 - Rischio biologico e livello di sicurezza 3 per i nuovi modelli di AI.00:11:46 La partnership tra Microsoft e OpenAI è in discussione per il rinnovo.00:14:12 - Cause per diritto d'autore: la BBC fa azione legale contro Perplexity.00:17:11 - Un'azienda cita in giudizio Google per disinformazione causata dall'AI Overview.00:19:05 - Meta rimanda il lancio della pubblicità su WhatsApp in Europa almeno al 2026.00:21:21 - Elon Musk è insoddisfatto perché l'AI Grok non conferma i suoi bias personali.00:24:44 - Il tribunale amministrativo di Parigi sospende l'obbligo francese di verifica dell'età online.00:27:26 - Guerra dei talenti nel settore AI: Meta offre cifre enormi per sottrarre ingegneri.00:29:28 - Meta acquisisce Scale AI, azienda che prepara dati per addestrare l'intellige

  • Pagare ransomware sarà ILLEGALE? Una legge (forse) cambierà tutto! Con Marco Tullio Giordano #1420

    23/06/2025 Durata: 10min

    Una nuova proposta di legge italiana propone di vietare alle aziende il pagamento dei riscatti in caso di cyber-attacchi ransomware, introducendo sanzioni amministrative per chi decide di cedere ai criminali informatici. L'obiettivo dichiarato è quello di interrompere il circolo economico di guadagno dei criminali, diminuendo così gli attacchi ransomware, ormai sempre più frequenti e dannosi anche per le realtà non tecnologiche.Come funzionerà il nuovo disegno di legge? Le aziende smetteranno effettivamente di pagare i riscatti o troveranno nuove vie, magari tramite provider stranieri e triangolazioni? Se da un lato la normativa introduce anche possibili aiuti con fondi di garanzia statale, dall'altro rischia di aumentare ulteriormente i costi a carico delle aziende e creare pericolose zone grigie normative.

  • La tua memoria contro di te: il pericolo PPC (Persistent Personal Chronoscript) #1419

    20/06/2025 Durata: 12min

    Nel video di oggi definisco Persistent Personal Chronoscript (PPC) i sistemi innovativi (come OpenAI Memory e Microsoft Recall) che registrano continuamente la nostra attività digitale e personale per creare un archivio dettagliato e permanente della nostra vita.Sebbene offrano enormi benefici pratici, queste tecnologie pongono rischi critici per la privacy, la sicurezza personale e la libertà individuale: un database costante della nostra memoria potrebbe divenire un'arma di controllo sociale o una leva per manipolazioni, ricatti e frodi personalizzate. E la raccolta sistematica e permanente delle nostre interazioni digitali potrebbe precluderci il diritto umano all'oblio, alla rimozione selettiva dei ricordi dolorosi e alla rilettura personale del nostro passato.Stiamo forse avviandoci verso una società basata su una sorveglianza totale, in cui privacy cognitiva e riservatezza cerebrale sono messe definitivamente in gioco?Occorre avviare un dibattito aperto e consapevole su come governare e limitare questi

  • Schifani e ChatGPT: il POST della vergogna o un GENIALE salvataggio social? #1418

    18/06/2025 Durata: 09min

    Ci sono cose peggiori di usare ChatGPT per scrivere un post. Tipo pubblicare anche i commenti di GPT.È successo davvero: sulla pagina ufficiale del presidente della Regione Sicilia, Renato Schifani, è comparso un post che iniziava con “Ecco una proposta per il post su Facebook…”. Un copia-e-incolla maldestro direttamente da ChatGPT, sparito poco dopo, ma non abbastanza in fretta da passare inosservato.Ora, lo dico chiaramente: usare ChatGPT non è un errore, anzi. In molti casi, è meglio di cugini improvvisati e professionisti distratti. Il problema non è l’AI. Il problema è non avere una strategia, non leggere nemmeno ciò che si pubblica, trattare la comunicazione come un riempitivo.La comunicazione pubblica dovrebbe essere parte di un disegno, non un tappabuchi. E un team che lavora così, senza cura e senza visione, è un problema a prescindere dagli strumenti usati.ChatGPT non ti salva dalla sciatteria. E la sciatteria, soprattutto nelle istituzioni, non si può permettere.#Comunicazione #ChatGPT #AI #CrisisM

  • OpenAI obbligata a salvare tutte le chat: addio privacy in Europa? Forse no... #127

    17/06/2025 Durata: 18min

    Una recente decisione di una corte americana obbliga OpenAI a conservare tutte le conversazioni degli utenti (inclusi utenti europei e non registrati), come parte della causa avviata dal New York Times sul tema del diritto d'autore e dei contenuti utilizzati per addestrare l'IA.La richiesta del giudice pone importanti interrogativi sulla compatibilità di una simile conservazione di dati con il Regolamento europeo sulla privacy (GDPR). Questa situazione ha sollevato molte domande: l'obbligo del giudice statunitense potrebbe entrare in conflitto con il diritto degli utenti europei a chiedere la cancellazione dei propri dati? È proporzionata una raccolta indiscriminata di conversazioni per finalità processuali? Ed è legittimo per una corte americana imporre tali obblighi su utenti globali?Ne parliamo con Guido Scorza analizzando quali potrebbero essere le reali implicazioni per la privacy e la normativa europea, valutando gli aspetti legali e tentando di chiarire i punti di potenziale criticità.Un giudice americ

  • AI, Agenti e Antitrust: il silenzioso tsunami #1417

    16/06/2025 Durata: 18min

    La rivoluzione dell'intelligenza artificiale non è più una questione di futuro, ma una realtà già in atto. ChatGPT e i nuovi modelli generativi sono solo la punta dell'iceberg: dietro le quinte, ''agenti IA'' stanno già sostituendo silenziosamente interi processi aziendali e professionali, eliminando posti di lavoro e trasformando radicalmente il mercato del lavoro mondiale.Grandi multinazionali come Microsoft, Walmart e Spotify stanno già adottando politiche di ''Quiet Firing'', limitando le assunzioni umane a favore della produttività algoritmica. Ma il vero punto critico non è la singola interazione con strumenti come ChatGPT: è l'implementazione silente e pervasiva degli agenti IA, basati su foundation model, che cambierà profondamente il tessuto sociale, umano ed economico con implicazioni che vanno oltre l'efficienza lavorativa.Da Sam Altman con la sua visione utopica a Dario Amodei con lo scenario del ''bloodbath per i colletti bianchi'': quale futuro stiamo scegliendo? Siamo certi di guardare nella di

  • Apple dice che la AI non pensa: ma è vero? #1416

    13/06/2025 Durata: 03min

    Apple sembra essere rimasta indietro nella corsa all'intelligenza artificiale, e un recente paper pubblicato dai suoi stessi ricercatori mette indirettamente in evidenza proprio questo gap. Nel paper intitolato ''The illusion of thinking'', gli autori sostengono che gli LLM (modelli di linguaggio di grandi dimensioni) non possano ''pensare'' in maniera reale, mostrando problematiche legate sia a task troppo lunghi che a quelli troppo semplici, producendo spesso ragionamenti errati o inutilmente complicati.Tuttavia, sostituendo mentalmente il termine LLM con ''teenager'', si nota una curiosa coincidenza: gli stessi limiti elencati sono propri anche degli esseri umani. Questo apre a una domanda fondamentale: abbiamo davvero una definizione chiara di cosa significhi ''pensare''? E cosa implica questa incertezza quando parliamo di Intelligenza Artificiale rispetto a quella umana?Cosa ne pensate voi? Siamo di fronte a un limite dell'IA o forse anche noi, dopotutto, ragioniamo in maniera meno lucida di quanto credi

  • Zelensky, le Ville, gli Yacht: ecco come nasce la Propaganda #1415

    11/06/2025 Durata: 06min

    Un filmato di Federico Rampini racconta come il presidente ucraino Zelensky avrebbe usato fondi destinati agli aiuti per acquistare ville e yacht di lusso.Ma è veramente successo o siamo di fronte a un esempio ben confezionato di propaganda e fake news? Un esempio da manuale di manipolazione dei video per esplorare le meccaniche della disinformazione e Governo delle Narrative che influenzano l'opinione pubblica e le decisioni politiche.Per iniziare a parlare di Governo delle Narrative e di Difesa delle Narrative.~~~~~ INGAGGI E SPONSORSHIP ~~~~~ Per contatti commerciali: sales@matteoflora.comPer consulenze legali: info@42LawFirm.it~~~~~ SOSTIENI IL CANALE! ~~~~~Con la Membership PRO puoi supportare il Canale » https://link.mgpf.it/proSe vuoi qui la mia attrezzatura » https://mgpf.it/attrezzatura~~~~~ SEGUIMI ANCHE ONLINE CON LE NOTIFICHE! ~~~~~» CANALE WHATSAPP » https://link.mgpf.it/wa» CANALE TELEGRAM » https://mgpf.it/tg» CORSO (Gratis) IN FUTURO » https://mgpf.it/nl» NEWSLETTER » https://mgpf.it/nl~~~~~

  • [W33K - Cosa accade in Rete] ~ Ep.17 ~ 09.06.2025

    10/06/2025 Durata: 01h16min

    ✨ W33K: il Lunedì che fa la differenza!Un'ora circa per iniziale la settimana con consapevolezza e una marcia in più. I topic di questa puntata:00:00:47 - Caso spyware Paragon e la risposta del Copasir 00:08:22 - Ordine della corte USA a OpenAI di conservare le chat degli utenti 00:13:15 - Denuncia di Reddit contro Anthropic per scraping di contenuti 00:18:59 - Esempio AI usata male: Manager di Business Insider e i libri falsi 00:20:34 - Esempio AI usata male: Chatbot di Meta consiglia metanfetamine 00:22:18 - Esempio AI usata male: Ministro britannico usa ChatGPT per le policy 00:24:49 - Uso dell'IA per la moderazione dei contenuti su Meta e il rischio di ''deresponsabilizzazione'' 00:29:15 - Blocco di Pornhub in Francia per le leggi sulla verifica dell'età 00:42:48 - Teoria del ''Persistent Personal Chronoscript'' e i rischi per la privacy 00:56:32 - Critica alla posizione di Apple sull'IA e al paper ''The Illusion of Thinking'' 01:00:37 - TikTok bandisce l'hashtag ''skinny talk'' che promuove l'anoressia ~

  • Intelligenza Artificiale nella Pubblica Amministrazione: efficienza o caos? con Ernesto Belisario

    10/06/2025 Durata: 26min

    L’Intelligenza Artificiale è già qui, anche nella Pubblica Amministrazione italiana. Sebbene in molti uffici venga già utilizzata, non sempre si tratta di un uso consapevole e corretto.Mancando politiche definite, governance efficace e consapevolezza, il rischio è di generare una burocrazia ancora più difensiva, in cui ogni problema rimane ''colpa'' degli algoritmi.Quali opportunità reali porta davvero l’IA alla pubblica amministrazione italiana? Quali errori rischiamo nei prossimi anni, e come possiamo prevenirli?Abbiamo discusso di questi temi delicati nella nuova puntata di #Compliance con Giuseppe Vaciago di 42 Law Firm e con ospite Ernesto Belisario di E-Lex, esplorando casi concreti, norme europee, problematiche di trasparenza e responsabilità, e indicazioni operative per un’adozione consapevole dell’IA. Scopri le checklist di 42 Law Firmhttps://42lf.it/check_list/~~~~~ INGAGGI E SPONSORSHIP ~~~~~ Per contatti commerciali: sales@matteoflora.comPer consulenze legali: info@42LawFirm.it~~~~~ SOSTIENI IL CA

  • Truffa SPID: nessuno è al sicuro! Sei già vittima e non lo sai? #1414

    09/06/2025 Durata: 18min

    Una grave vulnerabilità del sistema SPID (Sistema Pubblico di Identità Digitale) consente di creare diverse identità digitali usando lo stesso codice fiscale, senza che il titolare venga minimamente avvisato. Tramite questa falla è possibile attivare credenziali parallele, rubare informazioni personali, dirottare bonifici e pensioni, aprire conti correnti e addirittura avviare pratiche pubbliche a nome delle vittime inconsapevoli.Il problema era noto già da tempo, denunciato da esperti di cyber security ( Stefano Fratepietro e Paolo Dal Checco, tra gli altri) e portato recentemente alla luce da segnalazioni di enti autorevoli come l'INPS, che conferma la rapida diffusione di queste truffe. Al momento, non esistendo alcun database centralizzato che consenta di controllare se sono stati attivati altri SPID a proprio nome, l'unico metodo è contattare singolarmente i 12 provider di identità digitali per richiedere informazioni.Oggi provo a spiegare l'origine della frode, le dinamiche e i rischi reali, e le proced

  • È stato ChatGPT a farmelo fare: di scuse astruse e visibilità... #1413

    06/06/2025 Durata: 13min

    Dichiarare ''è stato ChatGPT'' per sfuggire alle proprie responsabilità online non solo è inefficace, ma rivela anche una profonda incomprensione del funzionamento degli algoritmi e delle dinamiche social della rete. Una recente vicenda di cronaca ha visto protagonista una persona che, messa di fronte alle conseguenze delle proprie azioni, ha tentato di spostare la colpa sull'intelligenza artificiale. Ma davvero i sistemi come ChatGPT o Grok possono incitarci a comportamenti scorretti, offensivi o addirittura violenti?In questo approfondimento analizziamo il fenomeno del ''math-washing'', la pratica di attribuire le scelte personali agli algoritmi o all’intelligenza artificiale per scaricare le proprie responsabilità. E parliamo di quanto è intensa la pressione generata dalla visibilità online improvvisa e come può essere difficile da gestire.

  • Sembrava AI ma erano... indiani! Lo scandalo Builder.ai e un miliardo in fumo! #1412

    04/06/2025 Durata: 05min

    Builder.ai, startup indiana del valore di oltre un miliardo di dollari, prometteva app create su misura con una sofisticata intelligenza artificiale. Ma la realtà era ben diversa: dietro all'AI non c'era altro che lavoro umano svolto da sviluppatori, da un giro di fatture false per gonfiare artificialmente i ricavi.Il crollo di credibilità conseguente a questo scandalo non si limita soltanto a danneggiare Builder.ai e i suoi investitori (Microsoft, SoftBank e altri istituzionali), ma getta anche ombre inquietanti sull'intero settore dell'intelligenza artificiale.Si parla in questo caso di ''AI-washing'', una pratica simile a quella nota nell'ambito ''greenwashing'', ''pink-washing'' e ''rainbow-washing''. È evidente che urge ripensare metodologie di auditing, transparency framework e meccanismi di controllo più affidabili per difendere l'integrità dell'intera industria.~~~~~ INGAGGI E SPONSORSHIP ~~~~~ Per contatti commerciali: sales@matteoflora.comPer consulenze legali: info@42LawFirm.it~~~~~ SOSTIENI IL CAN

  • [W33K - Cosa accade in Rete] ~ Ep.16 ~ 02.06.2025

    03/06/2025 Durata: 01h11min

    ✨ W33K: il Lunedì che fa la differenza!85 minuti per iniziale la settimana con consapevolezza e una marcia in più. I topic di questa puntata:00:02:11 - Minacce Meloni: IA usata come scusa e la sovraespisizione00:05:37 - Errore Piracy Shield italiano replicato in Spagna: bloccato Google Fonts. 00:07:52 - ''AI slop'': errori IA in documenti ufficiali del report della Casa Bianca. 00:10:05 - Causa a Character.AI: Giudice nega protezione Primo Emendamento a output IA. 00:13:51 - CEO Anthropic: IA impatterà colletti bianchi

  • New York Times vende i suoi dati ad Amazon: la mossa strategica che fa tremare OpenAI? #1411

    02/06/2025 Durata: 15min

    Il New York Times ha annunciato un accordo commerciale con Amazon per la vendita e l'utilizzo dei propri contenuti, inclusi articoli protetti da paywall, per l'addestramento di sistemi di intelligenza artificiale. Questa decisione sorprende e solleva molte riflessioni, soprattutto considerando la causa pendente avviata proprio dal NYT contro OpenAI e Microsoft per utilizzo non autorizzato degli stessi contenuti.Quali saranno gli effetti di questa manovra sul contenzioso in atto? Questo accordo potrebbe rappresentare un precedente legale fondamentale in materia di diritti d'autore e IA? Sarà finalmente riconosciuto economicamente il ''giusto valore'' dei contenuti giornalistici online?Oltre alla questione legale in sé, la notizia affronta temi cruciali che riguardano il futuro del diritto d'autore, il concetto di ''fair use'', i diritti connessi degli autori e interpreti, e la fondamentale battaglia tra colossi digitali sul trattamento normativo dei dati nell'era dell'intelligenza artificiale.Ne parliamo con l

  • Cosa significa ASL-3, lAutomated Safety Level 3 di Anthropic? [DeepDive] #1410

    30/05/2025 Durata: 09min

    In questo episodio speciale inauguriamo DeepDive, una nuova rubrica pensata per approfondimenti su temi accademici e complessi legati all’Intelligenza Artificiale. Ma con una novità radicale: l’analisi e il dibattito non li faccio io… li fa direttamente una IA.Partiamo dal progetto ASL3, i recentissimi sistemi di salvaguardia sviluppati da Anthropic per raggiungere il cosiddetto “livello 3” di sicurezza. Ma cosa significa “ASL-3”? Sta per Automated Safety Level 3, un framework in cui l’IA monitora se stessa, genera test per valutare il proprio comportamento, e propone autonomamente modifiche ai propri parametri per rimanere allineata a obiettivi di sicurezza. È il primo passo concreto verso un sistema in cui l’intelligenza artificiale non è solo controllata dagli umani, ma contribuisce attivamente alla propria regolazione, aprendo scenari tanto promettenti quanto inquietanti.Fammi sapere nei commenti cosa ne pensi: questo nuovo approccio è solo un trucco o può davvero aprire una nuova frontiera nella divulga

  • La mia nuova Tesla spia le persone. Il lato oscuro delle auto intelligenti! #1409

    28/05/2025 Durata: 05min

    Le nuove Tesla e altri veicoli smart possono diventare sistemi involontari di sorveglanza di massa? Dopo aver applicato uno sticker ironico contro Elon Musk sulla mia nuova Tesla, è accaduto qualcosa di curioso: grazie alla modalità Sentinella, che registra costantemente ciò che avviene intorno al veicolo, molte persone si sono avvicinate per fare foto, sorridere e commentare.Apparentemente divertente, questa funzione apre però a scenari inquietanti per la privacy e la sorveglianza generalizzata. In effetti, dispositivi sempre più sofisticati e accessori aftermarket consentono di raccogliere dati video, immagini e informazioni meteo, con possibilità di archiviarli e addirittura venderliOltre ai benefici tecnologici e sociali (utili per migliorare la guida autonoma e la sicurezza stradale), esiste un evidente rischio di abuso. Più che semplici auto, ci troviamo davanti a migliaia di strumenti ''invisibili'' pronti a monitorare vite quotidiane e intere città.Quali implicazioni sulla libertà personale e sulla pr

pagina 2 Digita qui 50