Archivio per la categoria General

Cine(rd) forum a Forte Prenestino

Un percorso cinematografico tra le attualità del mondo hacker per avvicinarsi all’hackmeeting.

Sono quattro i filcinerd-201504m proposti, dall’InsomniaLab, al Centro Sociale Forte Prenestino (Roma) dal 31 marzo al 12 maggio.

Si tratta di film documentari su argomenti e personaggi che hanno segnato e segnano la storia dell’informatica alternativa alle gradi multinazionali del digitale.

Sono storie di geni e carcere, di ribellioni e repressione, ma soprattutto sono storie che fanno riflettere sull’uso della tecnologia.

Cosa c’è dentro queste scatole “magiche” che usiamo quotidianamente senza chiederci nulla sui processi che ne permettono il funzionamento? Chi ha interesse a far si che funzionino nel modo in cui oggi funzionano? E’ possibile fare in modo che funzionino diversamente? E cosa succede a chi cerca di cambiare le cose?

Queste domande spesso sono le stesse che gli hackers italiani si pongono durante l’hackmeeting, l’annuale incontro che si tiene tutti gli anni (quest’anno a Napoli dal 19 al 21 giugno). E’ anche per questo motivo che il ciclo di film vuole essere sia uno stimolo per discutere dei temi proposti dai documentari, sia come tappe di avvicinamento ad HackIt!! Prosegui la lettura »

2 Commenti

Chiacchierata radiofonica su smart city dal basso con Radio Onda Rossa

Se qualcun* preferisse farsi raccontare cosa ho scritto nel post smart city si, ma dal basso ed ecocompatibile, può ascoltare la chiacchierata con Radio Onda Rossa sul tema.

1 Commento

Smart City si, ma dal basso ed ecosostenibili

Il 23 novembre 2013 si è tenuto a Roma un incontro promosso da “Roma Smart City” dedicato alla città partecipata e collaborativa.
Si tratta di un lodevole tentativo di definire un percorso verso la Smart City romana che sia occasione di partecipazione dei cittadini al governo della città.

Molte altre iniziative del genere si stanno organizzando in varie città.
Tuttavia a me pare che sui temi legati a Smart City, Open Data, Internet delle cose (che poi sono tre argomenti fortemente interconnessi) si stiano riponendo aspettative salvifiche esagerate. Di volta in volta uno dei tre argomenti viene descritto come la panacea per uscire fuori dalla crisi economica, o per creare posti di lavoro. Altre volte se ne parla come il mezzo principale per ridurre l’inquinamento atmosferico (grazie all’adozione di auto elettriche).

Le Smart Cities possono essere intese in due modi.

Prenderò a prestito le parole di Alberto Cottica, che di OpenData e smart city si occupa da molto tempo (e che mi è particolarmente simpatico per essere stato uno dei fondatori dei Modena City Ramblers, ai cui concerti andavo da pischello):

Uno considera che l’intelligenza delle città si concentri nelle sue università e nei laboratori di ricerca e sviluppo delle grandi imprese, e assegna ai cittadini il ruolo di consumatori dei vari gadget che queste producono. L’altro, al contrario, considera che l’intelligenza delle città sia dispersa tra tutti i cittadini, e lavora per creare spazi in cui la creatività di tutti possa esprimersi. La prima concezione di smart cities fa auto elettriche; la seconda fa ciclofficine, hackerspaces e agricoltura urbana.”

Chiaro no? Una città non è più smart e i propri cittadini non vivono meglio se le grandi imprese immettono grandi quantità di sensori collegati in rete che raccolgono dati (che finiscono in server di proprietà dell’impresa stessa e quindi vengono espropriati ai cittadini che li producono) con il fine (di facciata) di usarli per riprogettare meglio le città. Un esempio è il progetto Ofelia di Pisa, che prevede la messa in opera nelle strade della città di sensori collegati in rete per regolare i semafori in funzione del flusso del traffico (a Pisa!). La prospettiva, neanche tanto lontana, è quella di avere il frigorifero in rete che rileva la mancanza di yougurt, si collega con il supermercato e ordina la marca di yougurt preferita.

Al contrario i cittadini di una città vivono meglio, per fare un esempio, se si possono spostare più facilmente senza inquinare: illuminazione a led, piste ciclabili e microsolare. In sostanza i cittadini vivono meglio se vengono utilizzate tecnologie decentrate e controllabili dal basso.

Il rischio è invece il solito: grandissime imprese che calano dall’alto la loro tecnologia, non controllabile dai cittadini, si impossessano dei dati prodotti dai cittadini stessi (non dimentichiamo che i principali sensori che forniscono dati sono gli smartphone) per farne un uso solo in parte pubblico.

Quali sono le tecnologie controllabili?

Si fa presto a dire tecnologie decentrate e controllabili, ma quali sono nella realtà?

Per prima cosa, va da se, il software deve essere libero (free software). La caratteristica di essere libero offre la possibilità a chiunque di ispezionarne e modificarne il codice sorgente, garantendo la sicurezza (se ci fosserò backdoor qualcun* prima o poi se ne accorgerebbe) e la possibilità di cambiarne il funzionamento. Al contrario, il software proprietario e certo software open source non danno garanzie che non ci siano entrate nascoste (si veda il caso di PRISM) e non consentono di modificarne il funzionamento a meno che non lo facciano i proprietari del software stesso. Per fortuna lo sviluppo del software libero ha raggiunto e molto spesso superato l’affidabilità e la qualità del software proprietario in tutti i campi. L’unico motivo per cui ancora non viene adottato a livello di massa e nella PA (anche se sta aumentando notevolmente il numero di programmi Open Source o liberi installati), è legato a convenienze economiche delle lobby industriali internazionali.

Anche l’hardware dovrebbe essere libero, ma in realtà quasi la totalità di computer e dispositivi elettronici sono proprietari. Le difficoltà rispetto allo sviluppo del software libero sono enormemente maggiori e, tutto sommato, facili da immaginare: primo fra tutti gli alti costi di produzione. Attualmente l’esperimento più avanzato e diffuso è Arduino, con il quale si possono fare molte cose utili per una smart city: piccoli dispositivi come controllori di luci, di velocità per motori, sensori di luce, temperatura e umidità e molti altri progetti che utilizzano sensori, attuatori e possono comunicare con altri dispositivi.

Un’altra questione fondamentale a vari livelli è il controllo della connettività. Ad oggi dorsali internazionali via cavo, satelliti, ed antenne sono pressoché  tutte controllate da consorzi mondiali di società private di telecomunicazioni (AT&T, Verizon, etc.). Fossero almeno controllate da enti pubblici sarebbe, secondo me, un passo avanti, ma purtroppo non è così; tranne in pochi casi (i cavi che dalla Sardegna vanno a Civitavecchia ed a Mazzara del Vallo sono di proprietà, anche, della regione Sardegna).
Almeno nella gestione dell’ultimo miglio (la tratta di cavo che connette le centrali telefoniche agli utenti finali), però, associazioni di cittadini e fondazioni stanno facendo molto per rendere indipendenti gli utenti finali dalle grandi imprese. Un esempio importante è costituito dalla catalana GUIFI Net. Si tratta di un network aperto e basato sulla logica del peer to peer. In sostanza GUIFI aiuta le persone (ma anche imprese ed associazioni) ad ampliare la rete internet (via cavo o wifi) in maniera autonoma, portando la rete a casa propria, in modo da essere proprietari dell’ultimo miglio e quindi indipendenti dalle grandi aziende. In Italia esiste Ninux, meno estesa di GUIFI, ma presente in città importanti (Roma, Milano, Firenze, Palermo, etc). Altro esempio importante, stavolta pubblico/privato, è provinciaWiFi della provincia di Roma, che ha adottato OpenWisp, sistema OpenSource progettato e realizzato da Caspur (oggi CINECA).

Ecosostenibilità

amsmarterdam city

Il luogo comune vuole che le nuove tecnologie siano “pulite” da un punto di vista ecologico. Si sostiene che l’uso dei computer riduca l’uso della carta; che l’ottimizzazione del traffico nelle città e l’uso di auto elettriche consenta di consumare meno carburante  e quindi di emettere meno CO2; che l’uso di sensori per regolare luci, accensione di riscaldamenti, etc, consenta di risparmiare energia. Tutto vero (probabilmente)!

Ci sono, però, almeno tre aspetti che vengono spesso taciuti: la difficoltà nello smaltimento dei rifiuti elettronici, il grande consumo di energia delle nuove tecnologie, l’inquinamento elettromagnetico.

A causa della velocissima obsolescenza, indotta, dei computer, che porta gli utenti a cambiare device (computer, smartphone, tablet, etc) ogni due, e a volte ogni anno, genera una grande quantità di rifiuti elettronici. Il problema è che questo genere di rifiuti  è pericoloso e difficilmente riciclabile, a causa della presenza di sostanze considerate tossiche per l’ambiente e non biodegradabili.

Un altra questione non chiara è la quantità di energia che i grandi data center consumano. Secondo uno studio di Tony Walsh (artista canadese) e da Nicholas Carr (editor della Harvard Business Review) il consumo di energia elettrica di un singolo Avatar di Second Life (vi ricordate di Second Life?) e’ di 1,752 kWh all’anno. Leggermente meno del consumo medio annuo di un brasiliano: 1,884 kWh (a tal proposito: la (im)possibile sostenibilità della tecnologia). Non ho dati relativi alla “città server di Google“, ma non è difficile immaginare che il consumo sia anche superiore…

C’è poi un’altra questione di cui si parla molto poco: l’inquinamento elettromagnetico.
Come abbiamo visto, le smart cities prevedono la connessione continua alla rete, da parte di persone e cose, in qualsiasi punto della città. Infatti stanno spuntando come funghi grandi antenne per il segnale dei telefoni cellulari. Ma questi ripetitori sono fonte di inquinamento elettromagnetico.
La questione, pur essendo controversa, comincia ad essere pressante. Quel che appare certo, negato quasi da nessuno ormai, è che l’esposizione prolungata alle onde elettromagnetiche comporta rischi per la salute; sia per il calore che sviluppano le onde, sia per i cambiamenti che possono produrre alla struttura cellulare. E’ altrettanto certo che maggiore è la potenza delle onde elettromagnetiche, maggiore è il rischio per la salute degli essere umani. E proprio parlando di potenza, secondo PowerWatch, un ente  indipendente che si occupa di ricerca sugli effetti delle onde elettromagnetiche, 20 minuti di telefonata al cellulare corrispondono a 16 ore di esposizione in una classe di scuola con 20 computer accessi e collegati in wifi. E’ vero che PowerWatch mette in guardia anche dal picco di potenza ed è anche vero che le misurazioni che ho fatto in proprio, pur con strumenti non professionali, per il wifi hanno rilevato potenze molto più basse di quelle riportate dal sito di PowerWatch.

Comunque, a prescindere da quanto sia la differenza di potenza di onde assorbita da un essere umano, quel che appare certo è che il wifi ha una potenza molto minore di un smartphone, di un telefono cordless, di una torre per le antenne per cellulari. Volendo applicare una politica di riduzione del danno, si potrebbe dire che bisognerebbe ridurre l’uso di smartphone (e in generale di connessioni UMTS e HSPA) e utilizzare connessioni wifi  anche per le telefonate (tecnologia VOIP: telefonate via internet).

Ma c’è anche un altro ragionamento che mi fa preferire la connessione wifi alla 3g (o 4g): il wifi si può spegnere! E lo può spegnere la maestra della classe di mia figlia o il barista che aderisce a provinciaWifi. Mentre le antenne per la connessione cellulare le possono spegnere solo le compagnia di telecomunicazione che le possiedono. E torniamo al discorso di prima: una città smart usa tecnologie controllabili dal basso!

Questi secondo me sono temi ineludibili volendo ragionare di città smart per cittadini smart, altrimenti si rischia di alimentare falsi miti che non servono veramente a migliorare la vita delle persone.

LINK

Di seguito una serie di link a letture, a volte enciclopediche, a volte di parte, a volte giornalistiche, che consentono di farsi un’idea.

6 Commenti

applicazioni multidevice: quali tecniche utilizzare

Per lavoro sono sempre più spesso di fronte alla domanda su quali tecnologie utilizzare per sviluppare applicazioni per web, smartphone, tablet.

Quando è il caso di sviluppare un’applicazione nativa per mobile? e quando un’applicazione web che tenga conto anche dei device mobili? e in questo caso quali tecniche utilizzare?

Per avere le idee più chiare segnalo una serie di articoli che illustrano punti di vista, tecniche ed esperienze relative all’argomento.

buona lettura

, , ,

1 Commento

Open data, Camera dei deputati: spesi 12 milioni per software nel 2011.

Luci ed ombre sul bilancio spese della camera dei deputati.
Le luci sono costituite dalla possibilità di vedere quanto spendiamo e a quali fornitori diamo i soldi.
Le ombre sono relative all’oggetto della fornitura, sul quale c’è spesso una cortina fumogena.

Mi sono concentrato sulle spese relative all’informatica. Sapere, per esempio, che vengono dati ad Engineering 638.000 euro per “Acquisto software” non aiuta a capire se il software acquistato è davvero utile e se esistano sul mercato alternative altrettanto valide e, magari più economiche. Oppure: sapere che Agile s.r.l. (ex Eutelia, in amministrazione straordinaria) percepisce più di un milione di euro per assistenze informatiche aiuta ben poco a capire per cosa la Camera paga Agile s.r.l..
Prosegui la lettura »

, , ,

2 Commenti

Mela marcia. la mutazione genetica di Apple

la copertina del libroPresentazione del libro “Mela marcia. La mutazione genetica di Apple”
Venerdì 25 marzo alle ore 22
al C.S.O.A. Forte Prenestino di Roma

Parteciperanno gli autori (NGN – Nessun Grande Nemico):

  • Ferry Byte, cyber-hacktivist della prima ora, fondatore della mailing list Cyber Rights. È autore di I motori di ricerca nel caos della rete.
  • Mirella Castigli scrive su Pc Magazine, Computer Idea e ITespresso.it dal 2000.
  • Caterina Coppola, editor di Gizmodo Italia e giornalista presso la redazione di Gay.it.
  • Franco Vite, storico ed esperto di GNU/Linux, tiene corsi sui software liberi.

Il libro, edito da Agenzia X, non se la prende solo con Apple ma con tutte le multinazionali della tecnologia che sempre più spesso cercano profitti a tutti i costi a discapito degli interessi degli utenti.
Un’occasione per ragionare di consapevolezza nell’uso della tecnologia, di libertà della rete e delle persone, di privacy, di neutralità della rete, di condivisione dei saperi…
Prosegui la lettura »

Nessun commento

Cosa si nasconde dietro la guerra a Wikileaks

La guerra a Wikileaks mi lascia senza parole. Anzi no, le voglio dire alcune cose che mi lasciano allibito!

Il sito di Wikileaks viene chiuso illegalmente, – si illegalmente, – non c’è una sola legge dei paesi “democratici” che contempli un solo reato per ciò che viene pubblicato sul sito.  Se fosse successo in Cina si sarebbero sprecate le prese di posizione contro una così vile azione antidemocratica!! Invece nulla. Anzi il nostro ministro degli esteri si rallegra e dice che era ora!!!

In seguenza:

  • Amazon, che ospitava i server di Wikileaks, ha chiuso il sito senza preavviso nè spiegazioni.
  • l’ICANN, l’organismo internazionale che gestisce i nomi di dominio, ha fatto in modo che il dominio wikileaks.org non fosse più raggiungibile. Anche in questo caso senza motivo altro, se non le pressioni del governo americano. Alla faccia della Net Neutrality.
  • PayPal, il più diffuso sistema di pagamenti online, per la verità non nuovo a queste azioni unilaterali immotivate, ha chiuso l’account di wikileaks impedendo ai sostenitori di donare somme di denaro al sito. Anche in questo caso “solo” per le pressioni del dipartimento di stato americano, come ammesso da PayPal stesso.

Prosegui la lettura »

2 Commenti

Perché la PA dovrebbe incentivare l’uso di software Libero/Open Source.

La regione Puglia ha firmato un protocollo d’intesa con Microsoft Italia al fine di promuovere l’innovazione e l’eccellenza nell’ideazione, sviluppo e utilizzo delle tecnologie e delle soluzioni informatiche, valorizzando il ruolo della Regione nelle relazioni dirette con i più grandi gruppi internazionali del settore.

Il protocollo d’intesa ha scatenato una serie di reazioni del mondo del software libero, come già successe nel caso del protocollo firmato tra il governo e microsoft.
Vendola ha risposto sostanzialmente trincerandosi dietro la neutralità della rete e della PA, sostenendo che non è compito delle amministrazioni pubbliche scegliere tra competitor. Ha inoltre aggiunto, cosa per altra avvenuta, che la regione Puglia avrebbe emanato una legge per la migrazione dell’amministrazione a software libero. Staremo a vedere cosa ne verrà fuori quando la legge verrà approvata.

Intanto mi sento di dirla una cosa: la neutralità tecnologica intesa in questo modo è un regalo a chi sostiene il software proprietario. Flavia Marzano lo spiega nel suo blog su Wired
Sempre Marzano spiega per quali motivi una Pubblica Amministrazione dovrebbe adottare e incentivare l’uso di FLOSS (Free Libre Open Source Software), spiegandone anche gli aspetti normativi, nel suo “Il FLOSS nella Pubblica Amministrazione” (in “Il software Libero in Italia”, a cura di Andrea Glorioso, 2010, Shake edizioni – Milano).
In estrema sintesi si tratta dell’Indipendenza dai fornitori, della maggior concorrenza tra gli operatori del settore, della maggior sicurezza.

Ma quì voglio concentrarmi su lavoro che l’adozione e l’incentivo al software libero verrebbe generato localmente, nel territorio che le PA governano. In una situazione di crisi e di perdita di posti di lavoro non è un dettaglio da sottovalutare.
Prosegui la lettura »

, ,

2 Commenti

Luoghi comuni e software libero

Non sono un integralista, in nulla nella vita. Ciò che penso a proposito del software libero non fa eccezione, ma ne sono un sostenitore, sviluppo applicazioni multimediali e le rilascio con licenze libere e sono convinto che l’uso intensivo di FLOSS (Free Libre Open Source Software) sarebbe una boccata d’ossigeno per la libertà e l’economia di ogni persona. Ma su questo tornerò nel prossimo futuro, ora vorrei mettere in risalto e confutare alcuni luoghi comuni che ancora circondano il software libero ed open source.

Lo spunto per queste righe me lo ha dato una discussione in una delle molte mailing-list che seguo (prometto sempre a me stesso di seguirne meno, ma non ci riesco mai).

Prosegui la lettura »

,

5 Commenti

Programmare è un po’ narrare

Durante l’hackmeeting di Roma del 2-3-4 Luglio 2010 presso il centro sociale “La Torre”, ho tenuto, insieme a Vito e Francesco,  il seminario  dal titolo “programmare è un po’ narrare”.
L’intento del seminario, che è il frutto di un lungo lavoro di ricerca di Stefano Penge dal titolo “Analisi linguistica degli artefatti digitali” è quello di verificare se il codice sorgente possa essere analizzato dal punto di vista stilistico, linguistico, sociologico.
La partecipazione è stata decisamente numerosa ed attiva e, tutto sommato, la maggior parte dei partecipanti sembravano concordare con un approccio di questo genere, che tra le altre cose, restituisce ai programmatori la loro dignità di creativi!
A conclusione del seminario è stata presentata la proposta di creazione di un museo del codice sorgente. Prosegui la lettura »

Nessun commento