-Agenti di intelligenza artificiale: non accettare IA dagli sconosciuti

Segnaliamo dal sito  Touch Grass dell’associazione Fight for the Future un interessante post intitolato “Please dont share our Signal messages with our IA agent”:

“Abbiamo seguito lo sviluppo di OpenClaw nelle ultime due settimane con un misto di entusiasmo e orrore. Da un lato, inviare un SMS a un agente autonomo con una lista di cose da fare e uscire per una lunga passeggiata nel bosco sembra una buona idea. Dall’altro, dare a un software non testato, incline ad allucinazioni e a iniezioni immediate, l’accesso completo ai propri file privati sembra una follia. Quindi, sebbene personalmente non utilizzeremmo mai OpenClaw sui nostri computer allo stato attuale, rispettiamo il diritto di ogni individuo di rovinare la propria vita digitale come meglio crede.
Il problema è che, come ha chiarito Meredith Whittaker di Signal, non saranno solo i tuoi dati a essere esfiltrati se la tua configurazione fa schifo o qualcuno trova una pericolosa vulnerabilità zero-day. Saranno tutti coloro che entrano in contatto con te, su qualsiasi piattaforma tu dia accesso al tuo agente.
Se intendi utilizzare un agente di intelligenza artificiale, che si tratti di un’istanza OpenClaw modello locale o di qualsiasi altra spazzatura lesiva della privacy che Microsoft inevitabilmente fornirà in risposta, ti prego, ti prego, ti prego, non dargli accesso al tuo account Signal.
O al tuo iMessage, WhatsApp, Google Foto, Apple Foto, Google Docs condivisi, messaggi diretti di Instagram, ecc., ecc.
Perché quando lo fai, non stai solo mettendo a rischio i tuoi dati. Stai anche mettendo a rischio, senza il tuo consenso, i dati condivisi con te da amici, familiari e colleghi.””

Commenta Michele Bottari:
“Mentre Rampini e soci si perdono nelle elucubrazioni filosofiche di bot che “discutono”, qui si parla di rischio concreto, immediato e collettivo. È il classico caso in cui la vera minaccia è così banale da essere noiosa, e quindi sarà ignorata.
Cosa dice davvero il messaggio? Sfatare il mito dell'”agente autonomo”.
OpenClaw e simili non sono compagni digitali intelligenti. Sono software sperimentali, pieni di bug e “allucinazioni” (cioè *inventano cose*), a cui si sta chiedendo di gestire dati sensibili. È come dare le chiavi di casa a un bambino di tre anni molto persuasivo, cocainomane e bugiardo cronico.
Il rischio non è individuale, è di rete. Questo è il punto fondamentale. Non è solo la tua vita digitale che puoi “rovinare come meglio credi”.
Stai violando, di fatto, la privacy di chiunque sia nella tua rubrica, nei tuoi gruppi, nelle tue condivisioni. Stai trasformando il tuo dispositivo, con il tuo consenso informato (ma spesso non informato affatto), in un cavallo di Troia per accedere ai dati dei tuoi contatti.
È un danno collaterale di massa, un tradimento della fiducia digitale.
La complicità delle Big Tech. Il passaggio su “qualsiasi altra spazzatura lesiva della privacy che Microsoft inevitabilmente fornirà”
è perfetto: puntualizza che il problema non sono l’hacker solitario o lo startupparo spericolato. Sono le stesse aziende che già oggi hanno un rapporto malato con i nostri dati (Meta, Google, Microsoft, Amazon, Twitter, Apple) che ci stanno vendendo questi “assistenti” come se fossero aspirapolvere, non potenti software di automazione con accesso totale.
Questa è l’unica “rivolta” di cui dovremmo preoccuparci! Ed è già in corso. È la rivolta dell’incoscienza aziendale e dell’ignoranza indotta, venduta come innovazione. Ci stanno spingendo ad abdicare al controllo per comodità, usando un linguaggio magico (“agente autonomo”, “AI personale”) che nasconde la realtà: stai installando un potenziale spyware con il permesso dell’amministratore. E così vanno in fumo anni di paranoie hacker, di password lunghe 25 caratteri, di crittografia a chiave doppia.
La prossima volta che leggete un articolo su fantomatiche “coscienze AI”, ricordatevi di questa segnalazione. Il pericolo non è che l’AI diventi malvagia. Il pericolo è che l’AI sia, per sua natura intrinseca attuale (inaffidabile, opaca, ingovernabile in mani non esperte) il perfetto vettore per una catastrofe della privacy collettiva, mentre i suoi venditori guardano dall’altra parte e i giornalisti parlano di fantafilosofia.
Il consiglio finale non è “non usare l’IA”. Anzi sì. Ma se proprio non riuscite a farne a meno, trattatela con lo stesso sospetto e le stesse precauzioni con cui trattereste uno sconosciuto a cui state per consegnare il vostro telefono sbloccato, la vostra rubrica e l’accesso a tutte le chat dei vostri amici. Perché è esattamente quello che state facendo.”

Commenta Francesca Palazzi Arduini: “Il mito del “servitore fedele” che riassume per noi, esegue comandi per noi, ci ascolta ubbidiente, è come il mito della Cloud personale: non abbiamo spazi “personali” in una nuvola di nostra proprietà ma solo un piccol segmento di una memoria accessibile in tutto per chi ce la affitta. Con la IA il problema si decuplica: diamo in pasto ad una macchina, che ha i suoi bei proprietari, ogni tipo di informazione senza alcuna garanzia di privacy.
Il problema del nostro -punto di vista- è sempre lo stesso: ciò che la macchina riassume per noi è anche ciò che riasumerà per altri, col regalo di tutti i dati che gli abbiamo fornito anche a nostra insaputa. L’uso politico dei dati è evidente: l’intelligenza artificiale viene usata per selezionare le “parole sbagliate” dell’amministrazione USA, e quella selezione determina azioni politiche,… i milioni di files del processo Epstein, impossibili da leggere con mezzi umani in un tempo limitato, vengono “selezionati” e censiti per dare rilievo ad alcuni fatti ed occultarne altri: il dominio sulla moltitudine è sempre quello di chi ha la proprietà dei mezzi di produzione, non dei cittadini, il cui punto di vista resta limitato anche se l’uso della IA gli dà la sensazione di poter governare la complessità”.

 

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *