400 Bad Request: rate_limit_error.
1
 
 

🌈 Dopo una lunga attesa, è uscito il secondo livello di PrivaSì.

💡 In questo livello, leggermente più avanzato, si comincia a mettere le basi per un cambio pragmatico di strumenti usati. A partire dai cookie, risolti con browser e estensioni, passando per negozi e mappe libere, fino ad arrivare a coprire tutte le connessioni di un dispositivo.

🎨 Ma non è finita qui, tra le novità del sito ci sono un nuovo tema completamente ripensato da zero, con un comodo indice dei paragrafi e tasti per l'articolo successivo e la revisione di quasi tutto il livello 1, sia della narrazione che degli strumenti consigliati. Buona lettura!

🔮 https://privasi.eticadigitale.org/indice/

P.S. fateci sapere cosa ne pensate qui nei commenti, sul nostro gruppo Telegram o compilando questo sondaggio

2
 
 

Cos'è Etica Digitale

Etica Digitale è un gruppo volontario indipendente attivismo con l’intento di riportare la persona e i diritti al centro del dibattito tecnologico.

Ci occupiamo di diritti digitali, privacy e protezione dei dati personali, sorveglianza, software libero e commons, diritto alla riparazione e open hardware, impatto economico, sociale e politico del digitale e della tecnologia, trend tecnologici (come blockchain, social network, AI generativa) con una prospettiva critica. Le tematiche di cui è possibile parlare sono volutamente ampie perché ED è anzitutto un gruppo di attivismo che mira ad un cambiamento sociale e culturale.

Siamo attivi anche su altri canali sociali, trovate una lista a questo link. Se vi stiamo simpatichə, seguiteci! Per contatti con collaborazioni preferiamo la mail.

Abbiamo alcuni progetti all'attivo come Privasì, la guida accessibile alla privacy.

Dove posto cosa?

Queste sono solo delle linee guida e delle preferenze per tenere più ordinata questa istanza Lemmy, sentitevi liberə di fare come volete.

  • I post legati alla privacy in senso pratico e in particolare su software o servizi alternativi, per esempio se "è meglio Tutanota o Proton?" stanno meglio su [email protected]
  • I post strettamente legati all'informatica, per "esempio cosa significa il codice HTTP 418?", non vanno qui ma su [email protected]
  • I post sull'economia circolare possono andare qui se si parla di diritto alla riparazione, altrimenti o in crossposting su [email protected]
  • I post sull'intelligenza artificiale possono andare qui, sopratutto se non sono tecnici e se contribuiscono al dibattito culturale e sociale, in crossposting o in alternativa su [email protected]. Anche guide su come usare ( e non usare ) le AI generative sono accettate.
  • I post sulle criptovalute sono ok, sopratutto se sono post critici o comunque bilanciati. Invece verranno rimossi post che promuovano l'acquisto o l'investimento di qualsiasi criptovaluta. Siamo consapevoli che ci sono criptovalute come Monero che sono consigliate per la privacy, tuttavia non è questo lo spazio per discuterne, specialmente se viola la regola 6
  • I post sulla sorveglianza sul posto di lavoro possono essere pubblicati qui, in crossposting o in alternativa su [email protected]

Per una lista di comunità legate alla tecnologia rimandiamo a questo post. Il consiglio generale è che se un link è in tema, può arricchire o ampliare la visione di chi legge e magari un domani vorreste recuperarlo, allora pubblicatela pure qui. Preferiamo la qualità alla quantità, gli articoli lunghi a quelli brevi e vogliamo delle slow news per uno slow Internet.

Questa è una comunità aperta e inclusiva (anche) verso persone che non hanno un background STEM o informatico. E' estremamente importante per noi che ci sia un pubblico amplio, variegato e multiculturale, e che anche persone con background non-informatico contribuiscano al dibattito sulla tecnologia e i diritti digitali.

Regolamento

  1. Rispetto e cordialità sempre
  2. Niente troll
  3. Niente pubblicità
  4. Evitare di andare fuori tema nelle discussioni
  5. Evitare discorsi con sfondi politici o propagandistici che non siano strettamente correlati agli argomenti trattati
  6. No attività illegali
  7. Non importunare le e gli utenti in privato.

Note sulla moderazione

Lə amministratorə potrebbero pubblicare dei commenti per aggiungere un maggior contesto ad alcuni post. Un esempio


Questo non è un thread permanente, potrebbe subire modifiche in futuro

3
 
 

Gli Stati Uniti affermano che i presunti suprematisti bianchi hanno cercato di usare Telegram per scatenare una guerra razziale

I pubblici ministeri affermano che i sospettati hanno sollecitato attacchi contro persone nere, ebree, LGBTQ e immigrati
Le accuse comportano pene detentive fino a 20 anni se gli imputati sono condannati

@eticadigitale

https://www.reuters.com/world/us/us-charges-alleged-white-supremacist-gangsters-with-trying-incite-race-war-2024-09-09/

4
 
 

No, la tecnologia non è neutrale ed ecco come ha condizionato la vita delle donne

In Tecnologia della rivoluzione, Diletta #Huyskes apre una riflessione sulle responsabilità sociali di chi innova. Dal forno a microonde all'AI

@eticadigitale

https://www.wired.it/article/tecnologia-donne-pregiudizi-rivoluzione-progresso-diletta-huyskes/

5
 
 

Il tweet di Durov sui prossimi cambiamenti in Telegram

@eticadigitale

🎉 Telegram ha raggiunto 10 milioni di abbonati paganti. 10 milioni di persone stanno ora usufruendo di Telegram Premium!

🆕 Oggi, stiamo introducendo nuove funzionalità e ne stiamo eliminando alcune obsolete.

⛔ Abbiamo rimosso la funzionalità Persone vicine, che era utilizzata da meno dello 0,1% degli utenti di Telegram, ma aveva problemi con bot e truffatori.

🛍️ Al suo posto, lanceremo "Aziende vicine", che metterà in mostra aziende legittime e verificate. Queste aziende saranno in grado di mostrare cataloghi di prodotti e accettare pagamenti senza problemi.

✂️ Abbiamo anche disabilitato i nuovi caricamenti multimediali su Telegraph, il nostro strumento di blogging autonomo, che sembra essere stato utilizzato in modo improprio da attori anonimi.

☝️ Mentre il 99,999% degli utenti di Telegram non ha nulla a che fare con la criminalità, lo 0,001% coinvolto in attività illecite crea una cattiva immagine per l'intera piattaforma, mettendo a rischio gli interessi dei nostri quasi miliardi di utenti.

✊ Ecco perché quest'anno ci impegniamo a trasformare la moderazione su Telegram da un'area di critica a un'area di lode.

https://x.com/durov/status/1832054680899215647

6
 
 

L'autorità olandese per la protezione dei dati ha multato Clearview AI di 30 milioni di euro per la "raccolta illegale di dati per il riconoscimento facciale"!

Oltre alla multa di 30,5 milioni di euro, commina a #Clearview AI una sanzione per inadempienza fino a oltre 5 milioni di euro. Clearview è un'azienda americana che offre servizi di riconoscimento facciale. Tra le altre cose, Clearview ha creato un database illegale con miliardi di foto di volti, compresi quelli di olandesi. La DPA olandese avverte che è vietato anche l'utilizzo dei servizi di Clearview.

@eticadigitale

https://www.autoriteitpersoonsgegevens.nl/en/current/dutch-dpa-imposes-a-fine-on-clearview-because-of-illegal-data-collection-for-facial-recognition

7
 
 

L’ultimo scontro «per i diritti» di un tycoon che obbedisce solo alla destra

Dai licenziati in massa dell'ex Twitter agli ordini eseguiti nell'India di Modi e nella Turchia di Erdogan. È la punta avanzata e più ricca della filosofia Tescreal, il credo dei super miliardari digitali

@eticadigitale

Segnalato da @wrathofkahn sul suo canale telegram

https://t.co/5jyvibPouT

8
 
 

Apple, TikTok, Google e Facebook forniscono i tuoi dati alle forze dell'ordine fino all'80% delle volte

Le grandi aziende tecnologiche spesso non rivelano quali informazioni sono state condivise e tendono a dire semplicemente che "alcune" informazioni sono state condivise con le forze dell'ordine.

@eticadigitale

https://cybernews.com/security/apple-tiktok-google-facebook-give-data-police/

9
 
 

Il co-fondatore di La Quadrature du Net, Sonntag: “Snowden è caduto nella trappola: il caso Durov è molto più complesso”

@smaurizi ha intervistato l'ingegnere informatico e imprenditore tecnologico francese @vincib Benjamin Sonntag, esperto di sicurezza e co-fondatore di @LaQuadrature per chiedergli la sua opinione sull'arresto del CEO di Telegram, Pavel Durov.

@eticadigitale

https://www.ilfattoquotidiano.it/2024/08/28/la-quadrature-du-nets-co-founder-sonntag-snowden-fell-into-the-trap-the-durov-case-is-a-lot-more-complex/7672339/

10
 
 

Questo articolo di The Verge mostra le potenzialità del nuovo Pixel 9 e del suo Magic Editor arrivando alla conclusione che nessuno di noi è pronto per tutto questo. Nell'articolo ci sono alcuni esempi di fotografie modificate senza conoscenze tecniche e in poco tempo che sono pazzesche.

Articolo su The Verge

11
 
 

Quello di Telegram è un equilibrio precario. L'intervista di @violastefanello a @evacide direttrice della sicurezza informatica di @eff

«L'arresto di Pavel Durov preoccupa per la possibilità di maggiori pressioni dei governi sulle piattaforme, ma anche l'assenza di controllo è una prospettiva allarmante»

@eticadigitale

https://www.ilpost.it/2024/08/27/conseguenze-arresto-pavel-durov-telegram/

12
 
 

La frontiera politica dello smartphone. A pochi giorni dall'arresto di Durov, JC De Martin riflette sulla trasformazione politico-sociale causata dall'accoppiata smartphone/social media

«L’infrastruttura grazie alla quale miliardi di persone comunicano realizza i due sogni del potere: sapere chi parla con chi e influenzare le conversazioni»

@eticadigitale

https://t.co/ehaWgExAGA

13
 
 

Gli Stati membri delle Nazioni Unite hanno approvato il primo trattato per combattere la criminalità informatica, un testo immediatamente criticato dai difensori dei diritti umani e dalle principali industrie tecnologiche che mettono in guardia contro uno strumento di "sorveglianza" globale. Dopo tre anni di negoziati formali e una sessione finale di due settimane a New York, la "Convenzione delle Nazioni Unite contro la criminalità informatica" è stata approvata per consenso e sarà successivamente sottoposta all'Assemblea Generale per l'adozione formale.

Il testo prevede in particolare che uno Stato possa, per indagare su qualsiasi reato punibile con almeno quattro anni di reclusione ai sensi della propria legislazione nazionale, richiedere alle autorità di un altro Stato qualsiasi prova elettronica collegata a tale reato e richiedere i dati di accesso. Sarà "una catastrofe per i diritti umani ed è un momento buio per le Nazioni Unite", ha detto Deborah Brown di Human Rights Watch, descrivendo uno "strumento di sorveglianza multilaterale senza precedenti".

"Può essere usato per reprimere giornalisti, attivisti, persone LGBT, liberi pensatori e altri, oltre confine", ha lamentato. In questo contesto, l'Alto Commissario delle Nazioni Unite per i diritti umani aveva espresso serie riserve sul testo, invitando questa settimana gli Stati a "garantire che i diritti umani siano al centro della Convenzione". "I difensori dei diritti, i ricercatori e i bambini non dovrebbero temere la criminalizzazione delle attività protette."

14
 
 

La Commissione ha detto che ByteDance – la società cinese proprietaria di TikTok – ritirerà definitivamente dall’Unione Europea TikTok Lite e che si impegnerà a non sviluppare app dal funzionamento simile per aggirare le norme del DSA.

La Commissione voleva che TikTok fornisse prove convincenti che la funzione non creasse dipendenza e che fossero stati creati dei sistemi efficaci per impedire che venisse usata da minorenni. TikTok non aveva però fornito alcun documento entro la scadenza prevista (il 18 aprile), e questo aveva portato la Commissione ad aprire un’indagine formale.

15
 
 

Questo articolo di Daniele Zinni per Il Tascabile mi è sembrato molto interessante.

Ne riporto una piccola parte, è abbastanza lungo e la versione completa è su Il Tascabile.

Più nei social cerchiamo il controllo, più troviamo il doomscrolling. Un estratto da Sta arrivando la fine del mondo?

Scorrendo il pollice in su, lungo lo schermo del telefono, incontriamo di anno in anno più resistenza. Estraiamo contenuti social dal basso, li osserviamo brevemente, e poi li scartiamo verso l’alto.

“Una specie europea su cinque (tra animali e vegetali) è a rischio estinzione.”

scroll

“Gaza, è strage tra i profughi in fila per gli aiuti.”

scroll

“La nostra soglia di attenzione è di 8 secondi, meno di un pesce rosso.”

scroll

Nel corso del tempo il gesto è rimasto lo stesso, ma sono aumentate le energie emotive e mentali necessarie ad avanzare nel feed. Scaviamo attraverso strati di materiali che ci riempiono d’inquietudine. Gas mefitici si liberano dalle sacche sotterranee in cui erano compressi. Temiamo che il fondo ceda e un abisso ci inghiotta.

“Onu, senza contromisure c’è un alto rischio di nuove pandemie.”

scroll

“Intelligenza artificiale, in Italia a rischio oltre 8 milioni di posti di lavoro.”

scroll

“Davos, 14 milioni di morti entro il 2050 per la crisi del clima.”

scroll

I contenuti social sono davvero diventati più pesanti e difficili da maneggiare: persino le piattaforme un tempo considerate “frivole” traboccano ormai di aggiornamenti e testimonianze strazianti da crisi locali e globali. Anche la pressione interna è cresciuta: i confronti online sono diventati più aspri, i giudizi incrociati più taglienti; per ottenere maggiore visibilità, conviene trattare da nemico chiunque non abbia la nostra stessa posizione in un dibattito, ma anche chi mostri incertezza sulla posizione da adottare o chi verso quell’incertezza esprima comprensione. Il periodo storico fa la sua parte – ci offre scenari preoccupanti tra catastrofi naturali, orrori artificiali e tensioni sociali – ma la fatica e l’angoscia che proviamo mentre ci facciamo strada nel pozzo dipendono dalle abitudini collettive di consumo mediatico.

La sensazione di assistere, tramite i feed social, a un’apocalisse permanente, che non possiamo materialmente impedire e dalla quale non possiamo moralmente distogliere lo sguardo, è abbastanza diffusa da aver fatto emergere nel 2020 un neologismo per descriverla: doomscrolling. Idea suggestiva, lo “scrolling apocalittico”, e tuttavia autoassolutoria, perché si concentra solo sul nostro ruolo passivo, spettatoriale, mentre è attivo il nostro contributo al sovraccarico di contenuti deprimenti. Vale senz’altro per chi ne pubblica o ne condivide, ma vale anche per chi interagisce con essi o si sofferma a osservarli per più di qualche secondo: basta questo per segnalare all’algoritmo che persone con interessi compatibili coi nostri potrebbero volerli vedere e che noi stessi desideriamo vederne ancora.

Continua su Il Tascabile

16
 
 

Xshitter ha stabilito il silenzio assenso per fare in modo che la sua IA Grok vi utilizzi come se foste una bambola gonfiabile

@eticadigitale

Senza che tu te ne renda conto, X userà post, interazioni, informazioni che inserisci a scopo di addestramento e ottimizzazione

Per disattivare l'opzione (per ora potete farlo solo da browser e non dalla app!!!) dovete andare a questo link

https://x.com/settings/grok_settings

(segnalato da sonoclaudio su... X)

17
 
 

Il caso Crowdstrike-Microsoft deve far suonare un alert in tutte le aziende: è ora di cambiare il modo di fare cyber. Il commento di @jaromil su #WiredItalia

L'evento collegato a un bug di un aggiornamento ha messo ko computer in tutto il mondo: open source e software libero sono la strada

@eticadigitale

https://www.wired.it/article/crowdstrike-microsoft-problema-acquisti-cyber-software-libero/

18
 
 

Il rumore degli algoritmi

Bolle di filtraggio e appiattimento culturale.

La cultura è diventata rumore di fondo, gli algoritmi pilotano ciò che vediamo suggerendocelo, trasformano i contenuti adattandoli alla circolazione priva di attrito dei feed automatizzati. Le idee che attraversano Filterworld. Come gli algoritmi hanno appiattito la cultura (ROI, 2024) di Kyle Chayka, giornalista del New Yorker, subito sembrano vere, ma ti chiedi se non sia sempre stato così, con i mezzi di distribuzione a far convergere la popolarità verso determinati punti e non altri. “Eccoci qua, facci divertire”: ricordo pomeriggi convinto che ascoltare Smell Like Teen Spirit fosse libero arbitrio, invece era la programmazione di MTV. Nel libro di Chayka, però, c’è più dell’ovvio: l’autore è nato in Connecticut e dice che lì “internet era lo spazio culturalmente più radicale alla mia portata”, ma c’è stato un momento in cui la rete è cambiata, a metà degli anni Dieci. Pare preistoria ma una volta su Instagram guardavi le foto dei tuoi amici e il feed di Twitter si aggiornava cronologicamente. Poi gli algoritmi di suggerimento si sono fatti strada, dalla home di Netflix al brano successivo di Spotify, creando quello che Chayka chiama il “mondo filtrato”: è impossibile che un pezzo di cultura circoli senza gli algoritmi, oggi è il feed a costruire il pubblico.

Prima dei suggerimenti automatizzati c’erano gli appassionati che spargevano consigli. Prima che internet venisse svuotata dalle poche aziende che controllano le piattaforme, l’attenzione dei naviganti si diffondeva in una costellazione di siti web di piccole dimensioni. I gesti che davano forma a quella costellazione erano la profonda conoscenza di qualcosa e il suo scambio, perlopiù nel modo gratuito del dono. Internet senza un centro di inizio secolo con le sue bizzarrie, le pratiche al limite od oltre la legalità, “come modello di distribuzione culturale, così come esisteva negli anni Duemila, non riesco a pensare a nulla di meglio dell’ecosistema dei forum e del file sharing”, scrive Chayka. I suggerimenti culturali condivisi da persone erano “atti sociali e morali”, l’inizio di percorsi fuori dai circuiti stabiliti.

Dalla stanza del computer fisso – una volta i computer erano fissi e avevano stanze dedicate – Chayka si collegava ai forum dove si parlava di videogiochi, trovava i file di un anime non tradotto in inglese di Yoshitoshi Abe, si accorgeva che quelle atmosfere sospese prendevano ispirazione dal romanzo di Haruki Murakami La fine del mondo e il paese delle meraviglie e infine arrivava a Tanizaki Jun’ichirō, per scoprire che gli piaceva l’estetica delle ombre, l’opposto dell’ostentazione visiva occidentale. Quel tipo di scambio personale, quel tipo di percorso eccentrico è stato sostituito dai sistemi di raccomandazione automatizzata, i feed algoritmici: un modello che con “la scusa di accelerare i tempi, in realtà ostacola lo sviluppo organico della cultura e privilegia invece la piattezza e l’uniformità, le estetiche più trasmissibili attraverso le reti digitali”. Si avvera la vecchia profezia di Douglas Coupland: “le economie di scala cancellano le alternative, il libero arbitrio”.

In Filterworld Hallie Bateman racconta come ha vissuto, da artista, il passaggio da un internet eccentrico, costellato da siti personali, a quello uniformato delle applicazioni sullo smartphone. Bateman è un’illustratrice e amica di Chayka, i feedback ricevuti su Instagram l’hanno aiutata a costruire la fiducia nel suo lavoro: “mi sembrava che l’universo mi desse la possibilità di continuare a fare quello che stavo facendo”. Intorno alle sue illustrazioni si era creata una piccola comunità, ma nel 2017 qualcosa è cambiato. Il pubblico che incoraggiava il suo stile personale era diventato un gruppo di estranei che commentava con acredine. I suggerimenti di Instagram “spingevano il suo lavoro verso un pubblico che non ne comprendeva il contesto”, riassume Chayka. Bateman si accorge di una misteriosa volontà a farle replicare i lavori che avevano successo, a rifare quello che funziona. È una sensazione che i creator conoscono bene e che può riguardare non solo le opere ma l’intera persona. Nel suo l’Industria degli influencer (Einaudi, 2024), la ricercatrice Emily Hund riprende una dichiarazione della blogger Tavi Gevinson a proposito del conflitto tra autenticità e consenso social: “credo di essere arrivata a vedere il mio io online come quello autentico e di aver seppellito così in profondità qualsiasi propensione che potesse minacciare la sua capacità di attrarre dei like da dimenticarne persino l’esistenza”.

Quando si è accorta del cambiamento nella forza dell’algoritmo, Hallie Bateman ha deciso di cambiare approccio, passando da una super esposizione sui social all’indispensabile autopromozione del suo lavoro. Ha smesso di indovinare cosa volesse l’algoritmo di Instagram e si è concentrata sul tipo di arte che voleva proporre al di là dei feedback immediati, decidendo in sostanza di non fare del proprio lavoro un castello di sabbia. Gli algoritmi delle piattaforme sono volatili, ti portano su, ti spazzano via. “Ansia da algoritmo” è la sensazione con cui i creator cercano di indovinare cosa attrae più consenso, mentre ripetere ciò che il pubblico si aspetta è il modo in cui cercano di capitalizzare l’attenzione. Bateman ha detto a Chayka: “se mi adatto a ogni tendenza, se salgo su ogni nuova piattaforma e cerco di costruirmi un seguito, costruirò un castello di sabbia dopo l’altro”. Secondo Chayka le illustrazioni di Bateman riescono a incorporare molto sentimento, come nel suo lavoro È un miracolo che si siamo incontrati, e un recente post politico, una galleria che inizia con “ho visto la foto di una mamma palestinese piangere sua figlia e ho spento il computer”, e finisce con la scritta “cessate il fuoco” ripetuta quattro volte.

Erano i giorni in cui All Eyes on Rafah diventava l’immagine generata con l’intelligenza artificiale più condivisa di sempre. Si è molto discusso dell’illustrazione che secondo NPR avrebbe un’attribuzione incerta: una prima versione è stata pubblicata su Facebook da Zila AbKa, mentre l’immagine virale è di Amirul Shah. AbKa ritiene che Shah abbia ritoccato l’immagine che lei aveva creato, rimuovendo il marchio con il suo nome e aggiungendo le montagne innevate sullo sfondo, mentre Shah sostiene di non aver mai visto l’immagine di AbKa, creata con il tool AI di Microsoft, e spiega che le immagini create con l’intelligenza artificiale si diffondono più facilmente e più in fretta. Lo studio di Renee Diresta e Josh Goldstein per l’osservatorio internet di Stanford ha analizzato un centinaio di pagine Facebook che pubblicano prevalentemente immagini generate con l’AI. Si tratta di pagine ingannevoli che riescono a ottenere alti livelli di coinvolgimento, click ricevuti da persone che scambiano per vere immagini improbabili o assurde. Le immagini generate con strumenti di intelligenza artificiale vengono mostrate dall’algoritmo di Facebook anche a persone che non seguono quelle pagine, come è nell’evoluzione attuale dei feed, che segue il modello di riferimento del “Per te” di TikTok. Secondo Diresta e Goldstein è probabile che uno dei criteri per mostrare le immagini generate con l’AI a nuovi spettatori è che l’utente abbia cliccato altre immagini generate con l’intelligenza artificiale. Immagini che l’utente realizza facilmente ottengono ampia circolazione e, per una quantità di ragioni, l’algoritmo classifica la visione delle immagini AI come fattore per proporre altre immagini sintetiche.

Che le AI creino loop l’aveva già notato Sam Altman di Open AI: utenti chiedono a ChatGPT di scrivere compite email partendo da un elenco puntato, il ricevente chiede a ChatGPT di ridurre compite email in elenchi puntati. I sistemi di rete con grandi quantità di opzioni generano il feedback loop: contenuti che riescono a emergere vengono rafforzati dalla raccomandazione di altri utenti o dagli algoritmi che promuovono i contenuti con maggiore capacità di circolazione, fino all’effetto valanga che premia pochi o pochissimi contenuti rispetto a quelli disponibili. Le immagini generate con l’AI, in particolare, creano un tipo di loop che evidenzia la differenza tra generare traffico e avere un pubblico. Possiamo pensare al paradosso di intelligenze artificiali addestrate su contenuti prodotti da intelligenze artificiali che ottengono traffico grazie a feed automatizzati a cui le persone prestano poca o nessuna attenzione; e via da capo con l’addestramento, la produzione e il traffico, in un ciclo che – paradossalmente – potrebbe coinvolgere pochi umani e ottenere comunque grandi risultati numerici. Nel caso del pubblico, al contrario, la presenza umana è centrale. La differenza tra pubblico e traffico è cruciale nel dibattito sulle prospettive di Internet, ma può aiutare anche a indagare gli effetti dei consigli automatizzati, che portano all’appiattimento della cultura descritto in Filterworld. Il contrario di ciò che fa l’arte.

Continua su Il Tascabile

19
 
 

FRANCIA: PRIMA VITTORIA IN TRIBUNALE CONTRO LA SORVEGLIANZA AUDIO ALGORITMICA

@eticadigitale

A più di tre anni dal nostro ricorso, il tribunale amministrativo di Orléans ha appena confermato che l'audio sorveglianza algoritmica (ASA) installata dall'attuale municipio di Orléans – microfoni installati negli spazi pubblici e abbinati alla videosorveglianza, destinati a identificare i cosiddetti situazioni anomale – è illegale.

https://www.laquadrature.net/2024/07/17/premiere-victoire-contre-laudiosurveillance-algorithmique-devant-la-justice/

20
 
 

La lunga estate dell'identità digitale europea

La Commissione lavora al prototipo dell'app dove caricare e condividere documenti e dati personali. Ed è pronta a spendere altri 20 milioni per progetti di uso, mentre si discute sulle regole di sicurezza. Ma cosa resta di quello che è stato fatto finora?

@eticadigitale

https://www.wired.it/article/identita-digitale-europa-wallet-bando-privacy-crittografia/

21
 
 

Doomscrolling, l'apocaliscroll di chi scorre lo schermino del telefono come se non ci fosse un domani: ecco perché lo smartphone rovina il sonno

No, non è la luce blu dello smartphone a disturbare il sonno, ma i contenuti spesso negativi e ansiogeni che visualizziamo. Gli esperti consigliano di evitare l’uso di smartphone a letto e preferire attività rilassanti come leggere libri cartacei

@eticadigitale

https://www.agendadigitale.eu/cultura-digitale/doomscrolling-ecco-perche-lo-smartphone-rovina-il-sonno/

22
 
 

La Commissione Europea invia conclusioni preliminari a X per violazione del Digital Services Act: Musk rischia multe fino al 6% del suo fatturato globale

Sulla base di documenti interni, interviste s esperti e cooperazione con i coordinatori nazionali dei servizi digitali, Xshitter non sembra conforme al #DSA: confonde gli utenti, non fornisce un archivio pubblicitario adeguato e blocca l'accesso ai dati per i ricercatori

@eticadigitale

https://ec.europa.eu/commission/presscorner/detail/en/IP_24_3761

23
 
 

"Non c'è una cura"! La macchina della dipendenza - Lo smartphone è stato progettato per rubarci l'attenzione, e il tempo: esiste un modo per disintossicarsi?

@eticadigitale

Qualche anno fa avevo disinstallato Facebook dal telefono, tolto quasi tutte le notifiche. In poco tempo mi ero reso conto che il tempo guadagnato finiva nelle notizie selezionate da Google e Apple. Ho disinstallato anche quelle e provato a dedicare ogni micro-momento sul telefono a un’applicazione che sceglievo attivamente, non seguendo il principio del “mi fa sentire meglio” o “devo farlo”. I micro-momenti sono un’unità di misura del marketing: porzione di tempo sospesa, pausa tra un’attività e l’altra, dove si insinua l’uso compulsivo del telefono. I principi del “mi fa stare meglio”, “devo farlo”, sono quelli che guidano i comportamenti di dipendenza da internet, secondo Matthias Brand.

Diego Viarengo lavora nell’editoria digitale, si occupa di crescita dei blog e strategia dei contenuti. L'articolo è di febbraio ma solo oggi ci è capitato sotto occhio su mastodon grazie a @bardamu e vale la pena leggerlo

iltascabile.com/scienze/la-mac…

24
 
 

"Non c'è una cura"! La macchina della dipendenza - Lo smartphone è stato progettato per rubarci l'attenzione, e il tempo: esiste un modo per disintossicarsi?

@eticadigitale

Qualche anno fa avevo disinstallato Facebook dal telefono, tolto quasi tutte le notifiche. In poco tempo mi ero reso conto che il tempo guadagnato finiva nelle notizie selezionate da Google e Apple. Ho disinstallato anche quelle e provato a dedicare ogni micro-momento sul telefono a un’applicazione che sceglievo attivamente, non seguendo il principio del “mi fa sentire meglio” o “devo farlo”. I micro-momenti sono un’unità di misura del marketing: porzione di tempo sospesa, pausa tra un’attività e l’altra, dove si insinua l’uso compulsivo del telefono. I principi del “mi fa stare meglio”, “devo farlo”, sono quelli che guidano i comportamenti di dipendenza da internet, secondo Matthias Brand.

Diego Viarengo lavora nell’editoria digitale, si occupa di crescita dei blog e strategia dei contenuti. L'articolo è di febbraio ma solo oggi ci è capitato sotto occhio su mastodon grazie a @bardamu e vale la pena leggerlo

iltascabile.com/scienze/la-mac…

25
 
 

ICPEN Sweep rileva che la maggior parte dei siti Web e delle app mobili si avvale di schemi volutamente opachi nel marketing dei servizi in abbonamento

Globale | Martedì 9 luglio 2024
Un'indagine globale su Internet che ha esaminato i siti web e le app mobili di 642 trader ha rilevato che il 75,7% di loro impiegava almeno un dark pattern e il 66,8% ne impiegava due o più

@eticadigitale

https://icpen.org/news/1360

view more: next ›