L'argomento del giorno è sicuramente il lancio, ormai prossimo, di Threads, la nuova applicazione di Meta (la stessa di Whatsapp, Facebook e Instagram) che punta a fare concorrenza a Twitter. Cos'ha di diverso? Dovrebbe integrarsi nel fediverso (ma non subito). Cosa ha Meta da guadagnarci? E il mondo del fediverso, dovrebbe gioire?
Venendo all'unione europea, invece, vediamo che l'AI Act (per ora ancora una bozza) includerà delle limitazioni sia sulle AI generative sia sull'uso di AI all'interno della sorveglianza biometrica. Decisamente meno positivo quel che si muove in Francia, dove il governo vuole rispondere alle fortissime proteste che contestano la violenza della polizia con maggiori dispositivi di sorveglianza, repressione e censura.
A seguire, un po' di notiziole.
Secondo la valutazione della privacy policy e dei termini di servizio svolta da PrivacySpy e ToS;DR, Telegram è messo meglio, non peggio, di Signal, WhatsApp, Element (istanza ufficiale) e altri.
PrivacySpy: Telegram 8.8, Signal 8, Element 7.2, WhatsApp 4.7
ToS;DR: Element B, Signal B, Telegram B, WhatsApp C
Penso che siamo tutti d'accordo in teoria: Telegram è peggiore degli altri in quanto ha la crittografia e2e solo nelle chat 1:1 e non di default ed il server closed source, con client e protocollo aperti e build riproducibili. In pratica, bisogna considerare come funzionano i protocolli e le implementazioni.
WhatsApp è closed source con binari offuscati e nessuno è in grado di verificare cosa faccia effettivamente l'applicazione. La fiducia richiesta in meta è massima.
Signal, considerato da molti il miglior protocollo per le applicazioni di comunicazione, ha alcuni problemi abbastanza gravi:
La migliore alternativa per le applicazioni di messaggistica è Element/Matrix poiché è completamente open source ed e2ee, ma soprattutto federato e quindi favorisce la decentralizzazione del sistema distribuendo il potere nelle mani degli utenti. Inoltre, supporta il cross-signing che risolve il problema TOFU e il backup delle chat in modo abbastanza intuitivo.
C'è un progetto di matrix per renderlo p2p ovvero privo di qualunque server e fiducia in terze parti.
Anche qui occorre fare attenzione a non utilizzare l'istanza ufficiale di Element che non è buona dal punto di vista della privacy e della raccolta dei dati personali. Alcuni difetti di Element/matrix sono i client PC basati su electron che consumano molte risorse CPU/memoria e il maggior consumo di traffico dati oltre all'assenza di una videoconferenza integrata attualmente basata su jitsi (questo dovrebbe essere risolto a breve).
Ringrazio Emilia che ha scritto nel canale Telegram/Matrix di Monitora-Pa questo breve riassunto della situazione delle principali app di messaggistica cosidetta istantanea.
La città impone alle aziende che usano la Ai per le assunzioni di non discriminare sulla base di razza e genere
Le aziende di New York City che utilizzano dei programmi d’intelligenza artificiale per gestire le assunzioni dovranno dimostrare che il software che impiegano non segue criteri discriminatori, sessisti o razzisti. Questa nuova legge, entrata in vigore mercoledì, è la prima al mondo del suo genere, e sicuramente detterà la linea da seguire per le aziende che vogliono avvalersi dell’ausilio di intelligenze artificiali per assumere personale
Questi software, chiamati automatic employment decision tool, strumento di decisione automatica sull’occupazione, o Aedt, hanno la funzione sia di segnalare i candidati promettenti, che di scartare quelli ritenuti non idonei, aprendo così la strada a tutta una serie di preoccupazioni riguardanti i criteri di valutazione delle intelligenze artificiali. Una donna in età fertile è una candidata appetibile al pari di un uomo della stessa età? E una persona non bianca?
Fallisce l'ultimo tentativo di scollegare la Federazione russa dal Web mondiale con una rete autonoma da Vladivostok a Krasnodar. Per 4 ore nella notte del 5 luglio si è spento tutto: stazioni, aeroporti, siti pubblici e di informazione. La rete russa per i russi non ha funzionato, neanche per un minuto
Per isolarsi si sono danneggiati. Meglio: per costringere tutti i “governati” all’isolamento, si sono paralizzati. Si parla della Russia. Il 5 luglio, dalla mezzanotte alle quattro dell’alba (ora di Mosca), il paese di Putin ha provato a disconnettersi completamente da Internet, ha provato a tagliare quei deboli fili che ancora lo collegano alla rete mondiale.
I risultati sono stati disastrosi. Anche stavolta sono stati disastrosi. Sì, perché da tempo, da qualche anno prima dell’invasione dell’Ucraina, la Russia sta testando quello che Putin chiama “il sistema Internet sovrano”: una rete che parte da Krasnodar e finisce a Vladivostok e che non ha “porte” verso l’esterno. Dove ovviamente qualsiasi cosa sarebbe controllata dal Cremlino.
Certo vi sorprenderà scoprire che le cosiddette Terre Rare, un gruppo di 17 elementi chimici che prende il nome dall’inglese Rare Earth Elements, rare non lo sono affatto: il cerio è presente tanto quanto il rame e i due elementi più rari della serie (tulio e lutezio) sono 200 volte più abbondanti dell’oro. Il problema è che estrarre questi metalli tanto indispensabili alle tecnologie – fibre ottiche, auto ibride, pannelli solari, computer, touchscreen, ma anche radar militari – è un processo complesso e molto difficile.
Solo per fare un esempio, servono tremendi solventi. Tremendi per chi? Qui, come sempre, arrivano le note dolenti, anzi dolorrosissime. Ce le racconta in questo articolo, tratto da Valori, in modo molto chiaro Anna Radice Fossati. Qui anticipiamo solo che la Cina che produce circa il 60% delle terre rare mondiali, ne lavora e raffina il 90% e detiene il 37% circa delle riserve mondiali. Però ha pensato bene di “esternalizzzare” il problema a Myanmar, la terra insanguinata dai vecchi generali birmani
In questo podcast uno scambio di opinioni sull'AI Act con l'ospite speciale Alessandro Longo, direttore responsabile di agendadigitale.eu. l'AI Act è il regolamento Europeo per l'intelligenza artificiale, il primo al mondo. E' stato approvato dal Parlamento Europeo ed è l'inizio di una nuova negoziazione con le altre due istituzioni - Commissione e Consiglio. Non è ancora la versione definitiva, né è ancora in vigore.
Diversi spunti interessanti a cominciare dalla mancanza di regolamentazione delle applicazioni di intelligenza artificiale per applicazioni di tipo militare. Il secondo punto di attenzione è la questione dell'appropriazione dei dati pubblicati nel web, poiché il fatto che siano accessibili a tutti non vuol dire automaticamente che siano utilizabili per l'addestramento di AI senza consenso.
E poi c'è una questione che non è legata direttamente al regolamento: "l'intelligenza artificiale cambierà tutto in un momento in cui non siamo sicuri che quelli che rischiano di rimanere indietro siano in grado invece di avere voce in capitolo e quindi non siamo sicuri che tutta questa grande rivoluzione poi porterà benessere a tutti".
L'azienda di Zuckerberg si era rivolta alla CGUE per contestare un'indagine dell'Antitrust tedesca. Ma i giudici hanno scoperchiato un vaso di Pandora
Sono tempi difficili per Mark Zuckerberg in Europa. In attesa dell’inizio dei controlli ai sensi del Digital Service Act -che partiranno il prossimo 25 agosto – la CGUE (Corte di Giustizia Europea) è andata contro un ricorso presentato da Meta nei confronti di un’indagine avviata dall’Antitrust tedesca. Tutto era partito da un’inchiesta per “abuso di posizione dominante” avviata dalla Bundeskartellamt, con Menlo Park che aveva contestato la legittimità delle autorità nazionali di intervenire su questi ambiti. E la risposta ha deluso le aspettative della holding che controlla Instagram, Facebook e Whatsapp.
I garanti della privacy di Italia, Austria e Francia avevano confermato che Google Analytics non rispetta il GDPR (Regolamento generale sulla protezione dei dati). L’autorità svedese ha invece deciso di sanzionare due aziende locali.
Il garante svedese ha esaminato i casi di CDON, Coop, Dagens Industri e Tele2. Dato che le misure tecniche implementate dalle quattro aziende non garantiscono un sufficiente livello di protezione dei dati inviati negli Stati Uniti, l’autorità ha ordinato di non usare più Google Analytics. Tele2 ha già rispettato l’ordine, ma dovrà pagare una multa di 12 milioni di corone (circa un milione di euro). Una sanzione di 300.000 corone (circa 25.400 euro) è stata invece inflitta a CDON.
Le temute truffe di identità basate sulle immagini sintetiche si sono concretizzate e sono in corso; i siti di disinformazione generano fiumi di falsità per incassare milioni; e le immagini di abusi su minori generate dal software travolgono, per pura quantità, chi cerca di arginare questi orrori.
Quando sono stati annunciati pubblicamente i primi software di intelligenza artificiale capaci di generare immagini e testi, per molti imprenditori la reazione istintiva è stata un entusiasmo sconfinato di fronte all’idea di poter tagliare i costi di produzione dei contenuti mettendo al lavoro questi nuovi servitori digitali al posto delle persone. Ma per molti altri, anche non esperti di informatica, la reazione è stata ben diversa. Paura, pura e semplice. Paura per il proprio posto di lavoro e paura per i possibili abusi, facilmente prevedibili, di questa tecnologia.
Questa è la storia di come quella paura del possibile è oggi diventata reale, raccontata attraverso tre casi recenti che sono un campanello d’allarme urgente. Le temute truffe di identità basate sulle immagini sintetiche si sono concretizzate e sono in corso; i siti di disinformazione generano fiumi di falsità per incassare milioni; e le immagini di abusi su minori generate dal software travolgono, per pura quantità, chi cerca di arginare questi orrori. La politica nazionale e internazionale si china su queste questioni con i suoi tempi inevitabilmente lunghi, ma nel frattempo i danni personali e sociali sono già gravi e tangibili, ed è decisamente il momento di chiedersi se si possa fare qualcosa di più di un coro tedioso di meritatissimi “Ve l’avevamo detto”.
Benvenuti alla puntata del 30 giugno 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane – e questa settimana inquietanti – dell’informatica. Io sono Paolo Attivissimo.
In caso di mancato rispetto della previsione dell’articolo 4 co. 1 dello Statuto dei lavoratori si profilano due responsabilità di diversa natura: penale del datore di lavoro, inteso quale rappresentante legale della Società, e amministrativa dell’ente derivante dalla violazione della normativa privacy. Facciamo chiarezza
Esistono importanti rischi sanzionatori collegati alla violazione dell’art. 4 co. 1 dello Statuto dei Lavoratori relativo al controllo a distanza dei lavoratori.
In caso di mancato rispetto della previsione normativa, infatti, possono profilarsi due responsabilità di diversa natura. La prima riguarda la responsabilità penale del datore di lavoro, inteso quale rappresentante legale della Società.
La seconda riguarda la responsabilità amministrativa dell’ente derivante dalla violazione della normativa sulla protezione dei dati personali (Codice Privacy e GDPR).
Analizziamo le norme per fare un po’ di chiarezza.