Second Life Materials: normal map e specular map, cosa sono?

ll progetto Materials è ormai implementato stabilmente nel viewer Linden a partire dalla versione 3.6, e fra le varie novità spiccano ovviamente quelle relative alle nuove possibilità delle texture.

Nel pannello Texture sono presenti diverse nuove opzioni. Alcune riguardano la gestione delle trasparenze delle texture di tipo diffuse, ovvero le consuete texture, e permettono di definire come debba essere gestito il canale alpha, altre riguardano le proprietà di riflettanza.

L’elenco a discesa Texture si è arricchito di ulteriori due voci: oltre alla consueta Texture (diffuse), ora troviamo anche Bumpiness (normal) e Shininess (specular).

Cosa saranno? E a cosa servono?

Il nuovo pannello Texture.

Il nuovo pannello Texture.

L’obiettivo è abbastanza intuibile, trattandosi di texture: creare una visualizzazione più accurata degli oggetti in Second Life (mi è capitato di leggere “più fotorealistica”, ma non è obbligatorio, il fotorealismo è solo una delle possibilità se quello è l’effetto voluto. Per esempio, a me sembra che poter applicare tre texture diverse a un oggetto rappresenti un bel mixer di immagini. Però è soltanto una mia idea).

Inoltre, probabilmente si tratterà di caratteristiche che reagiscono alla luce, poiché riguardano le superfici e i riflessi.

Comunque, per apprezzarne l’effetto è necessario che sia attivo l’Advanced Lightning Model. Quindi, per prima cosa selezionate Me > Preferences e nel pannello Graphics verificate che la casella di controllo Advanced Lightning Model sia attiva. Se no, attivatela.

Se non disponete di un computer da guerra e la vostra scheda grafica con le ombre va in crisi, sappiate che non è necessario attivarle per godere del nuovo motore di rendering, che sicuramente vi offrirà un’esperienza visuale migliore. Il mio consiglio è di lasciare attiva questa opzione, ha molto più effetto sulle performance ridurre eventualmente di un po’ la Draw Distance.

Per i più tecnici, l’Advanced Lightnining Model di Second Life utilizza un modello custom di BRDF, o Bidirectional Reflectance Distribution Function. Insomma, definisce in che modo un oggetto rifletterà la luce.

Quindi, per sfruttare questa possibilità avremo bisogno di tre texture (già, spendendo anche il triplo per caricarle): la nostra consueta texture,  più le corrispondenti texture di Bumpiness e Shininess. Come crearle?

Per la normal map, probabilmente l’opzione più semplice è usare un software come CrazyBump, che però è a pagamento. Se usate Photoshop, un plugin gratuito viene da NVidia: NVIDIA Texture Tools for Adobe Photoshop. Se qualche lettore conoscesse altre utility, aggiungetele nei commenti e provvederò ad aggiornare il post.

Il mio obiettivo è creare una normal map dell’affresco di Giotto visibile nell’immagine seguente.

L'affresco di Giotto in Photoshop.

L’affresco di Giotto in Photoshop.

Dopo aver installato il plugin, in Photoshop, selezionate Filter > NVDIA Tools > NormalMapFilter. Consiglio di leggere il manuale, le opzioni disponibili sono davvero molte. Comunque, otterremo un’immagine che dovrebbe assomigliare alla seguente.

La normal map dell'affresco.

La normal map dell’affresco.

Salvate l’immagine e caricate sia l’immagine di partenza sia la normal map in SL. Vediamo che succede.

In SL, create un oggetto ed applicate la texture diffuse come di consueto. Nell’elenco a discesa Texture selezionate Bumpiness (normal) e la normal map creata, che verrà applicata all’oggetto. Noterete senza dubbio dei cambiamenti nella visualizzazione.

Applicare la normal map.

Applicare la normal map.

Per valutare cosa accade, create una luce e trascinatela intorno all’immagine: la normal map ridefinisce le aree riflettenti dell’immagine di base. Assegnate un colore diverso dal bianco alla luce per comprendere con maggiore chiarezza.

Alcune aree dell'immagine appaiono rosate, poiché il punto luce sta proiettando luce di colore rosso.

Alcune aree dell’immagine appaiono rosate, poiché il punto luce sta proiettando luce di colore rosso e la normal map la riflette.

Attenzione, non è un’immagine renderizzata con dei punti luce in un software 3D e importata: l’effetto è dinamico, cambia con il punto di vista, l’intensità della sorgente luminosa e ovviamente con la luce ambiente. Le due immagini possiedono impostazioni differenziate: provate a modificare un po’ Horizontal e Vertical Offset della normal map per vedere come e dove si disloca.

La Shininess (specular) map invece permette di definire come reagiscono alla luce determinate aree dell’immagine, una spece di filtro sulla normal map.

Si tratta in genere di un’immagine in toni di grigio, dove il nero rappresenta la massima opacità e il bianco la riflettanza più elevata. Il metodo più semplice per ottenerla è ovviamente convertire in toni di grigio l’immagine di partenza e lavorare un po’ con  livelli per ottenere l’effetto desiderato, ma nulla vieta di inventare effetti più creativi utilizzando immagini del tutto diverse.

Per capire molto velocemente cosa fa una specular map, create un’immagine quadrata metà nera e metà bianca, e caricatela: la metà dell’immagine su cui la applicate non rifletterà più il punto luce precedentemente creato.

Un affresco su... lamiera.

Un affresco su… lamiera lucida.

Non è facile fare un libro

Bozza ad alta voce

Diceva ieri il Venerandi “non è facile fare un ebook“. Le analisi proposte nel post sono tutte condivisibili, è evidente che nelle soluzioni proposte dai vari attori del mercato per la realizzazione di libri elettronici c’è qualcosa che non va, che si tratti di mobi, di epub o altri formati più o meno esotici e ciascuno con richieste tecniche differenti. C’è chi inventa le proprie specifiche, chi prende quelle degli altri e le riadatta alle proprie necessità, chi ne inventa di nuove.

La mancanza di uniformità produce ovviamente gran confusione e grandi costi aggiuntivi, poiché è necessario produrre più versioni dello stesso documento per soddisfare ogni tecnologia. Ovviamente i vari formati e le periferiche utilizzabili per leggerli sono fra loro incompatibili, lo chiamano “mercato”.

Ha senso? Non molto, ovviamente. Il gran pasticcio deriva secondo me da un fatto molto semplice: si continua a chiamare libro quello che in realtà oggi è il sistema di distribuzione. La carta o i formati digitali non fanno altro che rendere distribuibili dei contenuti, non sono più “il libro”. Lo vuoi in formato elettronico? Pronto, eccoti il link da cui scaricare. Lo vuoi di carta? Certo, te lo stampo e te lo fornisco a casa, se vuoi.

Se questi contenuti venissero prodotti utilizzando correttamente gli strumenti che da anni i vari programmi per scrivere o impaginare rendono disponibili, non saremmo nemmeno qui a discuterne: i documenti sarebbero già dotati in partenza di tutto il necessario sia per la distribuzione elettronica, sia per quella su carta.

Il problema, o perlomeno uno dei problemi più importanti, nasce secondo me dalla procedura ancora oggi utilizzata per produrre i materiali: in linea di massima, si procede a “appicciconi”, a continui rattoppi e adattamenti, magari fatti da mani diverse che non sanno utilizzare correttamente un word processor.

Quello che avrebbe potuto essere un documento elettronico pronto per la distribuzione diventa una poltiglia ingestibile, che deve essere pazientemente ripulita e reimpaginata da qualcun altro. Alla fine poi ognuno riconvertirà al proprio formato di distribuzione quanto prodotto, convinto di avere in pugno il mercato. È soltanto un tentativo di controllo, baby.

Sarebbe tutto infinitamente più semplice se, per esempio, la produzione dei testi venisse effettuata utilizzando strumenti come PressBook. Un sistema di authoring e publishing gratuito, già organizzato e con quello tutto che serve per scrivere un libro, e che soprattutto permette di salvare il proprio lavoro in quei formati di markup che garantiscono interoperabilità, trasparenza, accessibilità, universalità, oltre che nei consueti PDF, epub, ecc… proprio quello che servirebbe.

È soltanto un esempio fra i molti che mi vengono in mente, e mi rendo conto che in questa maniera si andrebbe a perdere molto del divertimento che deriva dall’aggiustamento della poltiglia redazionale e si abbasserebbero troppo costi e tempi di produzione. E poi come si fa a giustificare quel prezzo di copertina?

Quello che comunque è evidente, oggi ancora di più, che il libro non è la carta o il pixel e la loro presunta lotta: il libro è il contenuto.

Dal word processor a epub: alcune possibili soluzioni

Passare da un formato doc, docx, rtf o odt a epub può essere abbastanza complicato. Molto dipende da come è stato preparato il file di partenza, ovviamente. Valgono le stesse regole necessarie per produrre file PDF accessibili, di cui abbiamo parlato tante volte: uso corretto degli stili di paragrafo, niente formattazioni locali selvagge, niente allineamenti a colpi di tab, barra spaziatrice o tasto Invio a raffica.

Quasi tutti i word processor, anzi direi tutti, dispongono di un’opzione Salva in HTML. Benché con diversi livelli di qualità del risultato, in ogni caso l’HTML prodotto non è adatto ad essere utilizzato in un epub direttamente, bisognerà come minimo ripulirlo da tutto il codice presentazionale (potete anche non farlo, ma ricordate che il contenuto del vostro file epub è in chiaro, chiunque lo potrà vedere e giudicare la qualità del vostro lavoro).

Esistono però alcune soluzioni sul mercato che aiutano molto in queste attività, anche se in qualche caso a pagamento. Di seguito alcuni programmi, scelti con il criterio del rapporto qualità/prezzo, secondo me da valutare. Ovviamente, se qualche lettore volesse aggiungere qualche ulteriore tool, ben contento di completare questa piccola lista.

ePub Maker

ePub Maker (costo attuale 59 $) è un programma che converte file doc e HTML in epub. È piuttosto completo ed efficace, e permette di convertire in batch anche gruppi di file. Il codice prodotto è abbastanza pulito, pronto per essere aperto in Sigil (non penserete che il lavoro sia finito, vero?).

Interfaccia di ePub Maker

Atlantis Word Processor

Questo word processor è davvero sorprendente: ha un basso costo (potete temporaneamente comprarlo a un prezzo speciale di 14.23 euro), ha un’interfaccia praticamente identica a quella di Word 2003, richiede pochissime risorse al computer (pochi mega sull’hard disk, altrettanto in ram), funziona anche in versione portable ed è dotato di tutte le funzioni di un moderno word processor. È ovviamente in grado di aprire i file di Word.

I file possono essere salvati in epub, anche in questo caso con buoni risultati.

No, non è Word, è Atlantis Word Processor

Se visitate il sito del produttore, non dimenticate di scaricare l’utility free Tweak EPUB: è un ottimo coltellino svizzero per fare aggiustamenti e modifiche sui file epub.

Tweak Epub

Writer2ePub

Writer2ePub è un’estensione per il Writer di LibreOffice/OpenOffice (ed è di conseguenza gratuito, anche se viene aggiunta una pagina di “pubblicità” in fondo al file epub prodotto [1. Disattivabile nelle preferenze, come fa notare l’autore del plugin nei commenti]). Per poterlo utilizzare quindi è necessario installare una di queste suite, e nella barra degli strumenti del Writer troverete tre nuovi pulsanti, dedicati alla generazione di file epub a partire dal documento aperto nel programma.
Il risultato è buono ed è possibile personalizzare l’output tramite un pannello di opzioni.

Writer2Epub in Libre Office

E la portentosa Agenda Digitale? Lettera fantasiosa ai Ministri competenti

Decreto digitalia, italia digitale, pacchetto sviluppo. No, non raccontateci ancora balle.

Il primo marzo 2012, con decreto del Ministro dello sviluppo economico di concerto con il Ministro per la pubblica amministrazione e la semplificazione, il Ministro per la coesione territoriale, il Ministro dell’istruzione, dell’università e della ricerca e il Ministro dell’economia e delle finanze è stata istituita una “Cabina di regia” per coordinare,  ai sensi del decreto-legge del 9 febbraio 2012, n. 5 art. 47, gli interventi pubblici volti alle medesime finalità da parte di regioni, province autonome ed enti locali allo scopo di definire la strategia italiana per l’Agenda Digitale, in coerenza con la Comunicazione della Commissione europea COM(2010) 245 del 26 agosto 2010. Duemiladieci.

Il risultato dei lavori, il decreto Digitalia, avrebbe dovuto diventare pubblico in giugno, poi in luglio, poi a settembre… ma anche settembre è ormai terminato.

Intanto sul Web gli appassionati si combattono a colpi di scoop sulle bozze, rettifiche, correzioni, ammiccamenti (io si che lo so so, perché sono il cuggino di…). E abbiamo avuto anche la Agenda Digitale Italiana Discussione Pubblica. A cosa è servita? A niente, probabilmente.

E scusate, ma anche questa cosa del direttore dell’Agenzia Digitale è diventata ridicola. A parte la guerriglia fra ministeri che impedisce di arrivare a una soluzione, ma avete pure sbagliato l’indirizzo email a cui spedire le candidature nel bando sulla Gazzetta Ufficiale… che già era corretto a penna.

Ma la parte più avvilente è che ora sembra che tutto questo ritardo (di un decreto che dovrebbe avere nel suo DNA nientepopodimenoche il salvataggio dell’Italia) sia dovuta a discussioni con i tecnici del Tesoro, che avvisano che mancano i fondi. Non lo sapevano prima, visto che anche loro partecipano in forze ai lavori della Cabina Digitale (ma chi è che inventa questi nomi? In Italia ricordano tanto Totò, scusate la sincerità. Mike:” Signor duca, vuole uscire dalla cabina?”…Totò: “Qui dentro ci sto benissimo, mi sono ambientato!”)?

Uno va a vedere cos’è che manca, e scopre che sul versante divario digitale e diffusione della banda larga mancherebbero all’appello 100 milioni su un totale di 150 nonché i 50 milioni del fondo start up e 50 per il fascicolo sanitario elettronico. Problemi di copertura anche per il documento digitale unificato per il quale servirebbero circa 80 milioni di euro l’anno, una volta a regime, e 30 milioni per l’avvio del progetto.

Cioè il fondo per le startup, che dovrebbero essere la poderosa macchina da guerra che ci salva tutti vale cinquanta milioni di euro, che non ci sono e non si trovano, quando la sola regione Lazio spende quattordici milioni di euro all’anno per la benzina e le mancette della Giunta Regionale e altri quindici per il fondo regionale Cinema 2012? Il 50% dell’intero finanziamento? Si potrebbe trovare qualcuno che accontenti questo papà e con quei soldi finanziare il fondo startup.

Come fa notare Futre nei commenti, per finanziare tutto questo basterebbero i soldi già spesi per il fantastico Ponte sullo Stretto. 400 milioni di euro fumati dice qualcuno, per il nulla.

E speriamo di non finire in televisione e in compagnia del Gabibbo per parlare di startup.

Prima o poi questo “Pacchetto Sviluppo” uscirà, ma cosa ce ne facciamo senza i relativi decreti attuativi e senza un direttore per l’Agenzia Digitale? E anche avendolo, cosa mai potrà fare questo direttore, in queste condizioni? Niente o poco, purtroppo.

Perché mai chiudere di tutta fretta quattro enti pubblici responsabili dei processi di innovazione e digitalizzazione del Paese e sostituirli con una incorporea Agenzia per l’Italia Digitale senza direttore e che ancora non esiste bloccando così anche il poco che c’era?

E perché mai affidare l’Agenda Digitale italiana e l’Agenzia Digitale alle competenze del ministero dello Sviluppo Economico e non porle invece sotto il controllo di Palazzo Chigi, come accade in tutti i paesi europei?

Ditemi che mi sono sbagliato, che non ho capito, per favore. Perché tutto questo è molto deprimente. Restart Italia? Mah.

Ontologicamente esiste solo nell’immaginazione…

Libri di testo elettronici per le scuole, a chi servono?

E’ una domanda un po’ oziosa, lo so. Ma in rete sembra essersi aperto un dibattito piuttosto inutile sulla circolare Circolare 18 del 9 febbraio 2012 del MIUR, che semplicemente indica i criteri per le adozioni dei libri di testo per le scuole proseguendo un percorso iniziato fin dal 2008 e che ora si conclude.

Risulta perciò un po’ buffo leggere post che iniziano affermando “Arriva una notizia incredibile da parte del Ministero dell’Istruzione italiano, una di quelle che in un paese come l’Italia non ci si aspetterebbe mai” ma vabbè.

Secondo me invece la cosa incredibile è che l’Italia fin dal 2008 è dotata di strumenti che stabiliscono come devono essere fatti, questi libri.

Stiamo parlando del Decreto 30 aprile 2008, più volte discusso su questo blog. Perché parlarne ancora? Sembra che al MIUR si dimentichino sempre di questo decreto, come se non esistesse. La stessa cosa fanno gli editori, facendo finta di nulla (entrambi sanno benissimo che esiste).

Inutile girarci intorno: fin dal 2004, la Legge 04 detta Stanca stabilisce che:

Art. 5.

(Accessibilità degli strumenti didattici e formativi)

    1. Le disposizioni della presente legge si applicano, altresì, al materiale formativo e didattico utilizzato nelle scuole di ogni ordine e grado.

    2. Le convenzioni stipulate tra il Ministero dell’istruzione, dell’università e della ricerca e le associazioni di editori per la fornitura di libri alle biblioteche scolastiche prevedono sempre la fornitura di copie su supporto digitale degli strumenti didattici fondamentali, accessibili agli alunni disabili e agli insegnanti di sostegno, nell’ambito delle disponibilità di bilancio.

Il decreto attuativo dell’Art. 5 è appunto quello del 30 aprile 2008 citato, che stabilisce le regole tecniche secondo le quali devono essere realizzati TUTTI i libri elettronici e l’eventuale software per il loro utilizzo.

Al MIUR continuano a pensare che esistano versioni speciali anche elettroniche per ciechi e ipovedenti, e pubblicano circolari fuori legge. Questo sì che è incredibile! Riusciranno prima o poi a capire, MIUR ed editori, che le regole stabilite dal Decreto 30 aprile 2008 si applicano a TUTTA l’editoria scolastica, non solo a quella speciale?

Ovviamente, già fioriscono librerie in rete che forniscono libri di testo didattici fuori da ogni controllo. Lo sapranno che sono fuori legge? Mah.

Canzone di Buon Natale e Anno Nuovo per i passanti

Che dire, un altro anno è andato… vanno così in fretta! Chissa cosa direbbero se potessero parlare… hey hey hey hey woah woah woah.

 

My cats fight,
And play all night,
And drive me crazy.
I wake up and
They just sleep all day.

Time went by,
The old ones died,
So we got new ones.
If they could talk,
I wonder what they’d say.

Hey, hey, hey, hey
Whoa, whoa, whoa, whoa

Disposizioni per lo sviluppo economico, la semplificazione, la competitività nonché in materia di processo civile, e quando una mano non sa cosa fa l'altra…

Molto brevemente: è stato pubblicato il DECRETO DEL PRESIDENTE DEL CONSIGLIO DEI MINISTRI 26 aprile 2011 – Pubblicazione nei siti informatici di atti e provvedimenti concernenti procedure ad evidenza pubblica o di bilanci, adottato ai sensi dell’articolo 32 della legge 18 giugno 2009, n. 69, che decreta, appunto, alcune norme riguardo la modalità di pubblicazione nei siti informatici degli atti e provvedimenti di amministrazioni ed enti pubblici concernenti procedure ad evidenza pubblica o i propri bilanci.

Questo di per sé nonè certamente un male, ma la parte “tecnica” è a mio parere discutibile. Passiamo agli allegati.

L’Allegato 1 obbliga all’uso di metadati Dublin Core con una spiegazione a dir poco approssimativa, e richiede espressamente di

…inseriti strumenti di notifica degli aggiornamenti (“Really Simple Syndication – RSS”) sia a livello di singola sezione (da codificare sull’apposito file XML entro l’elemento <channel> attraverso i sottoelementi <title>nome_sezione</title> e <link>link_alla_sezione</link>) che di singolo argomento (da codificare con i sottoelementi <Item> di <channel>)”…

utilizzando il seguente codice (dal testo originale) da aggiungere alle intestazioni:

<link rel="alternate" type="application/rss+xml" title="nome feed" href="posizione_file_feed rss/nome_file_rss.xml" />

La pagina web raggiunta tramite questo link mostrerà in locale gli RSS della sezioni. È una scelta poco comprensibile tecnicamente, non tutti i browser supportano quel type (non tutti gli utenti utilizzano le ultime versioni disponibili) e la pagina generata non sarà accessibile, poiché strutturata da XML con gli elementi di RSS e non con i necessari elementi HTML.

L’Allegato 2 propone il codice da inserire in una ipotetica tabella, anche in questo caso proponendo del codice.

Per esempio,

<th scope="col" abbr="RequisitiQualificazione"> Requisiti di Qualificazione</th>

L’attributo abbr dell’elemento th dovrebbe specificare una versione abbreviata del contenuto di una cella. RequisitiQualificazione è l’abbreviazione di Requisiti di Qualificazione? A cosa serve? Non aiuta leggere gli altri esempi di codice perché sono realizzati tutti così.

Oppure, intendevano usare un elemento abbr, che dovrebbe contenere nell’attributo title l’espansione del termine abbreviato che viene citato nel testo, per esempio
<p>The <abbr title="Hyper Text Markup Language">HTML</abbr> is the publishing language of the World Wide Web.</p>

Boh. Dov’è il termine abbreviato da espandere e dov’è il relativo title nell’elemento abbr?

Proseguendo nella lettura, una perla:

L’accessibilità alle informazioni dovrà essere garantita secondo gli standard del World Wide Web Consortium (W3C) ed in particolare, rispettando le specifiche HTML 4.01 e WCAG 1.0

Già, come se la Legge Stanca e tutto il dibattito e il lavoro fatto fossero completamente trasparenti, semplicemente non sanno che esiste una legge dello stato italiano che prescrive di realizzare le pagine Web diversamente.

Un Decreto fuorilegge… che altro dire. E certo ignorando l’esistenza della Legge appare impossibile sapere della conoscenza di un intero portale dedicato all’accessibilità dei siti della Pubblica Amministrazione e di un back office a disposizione se necessario, che si riempirà di segnalazioni di non conformità quando questo decreto verrà applicato.

 

Apologo sull’onestà nel Paese dei corrotti

“C’era un paese che si reggeva sull’illecito. Non che mancassero le leggi, nè che il sistema politico non fosse basato su principi che tutti più o meno dicevano di condividere. Ma questo sistema, articolato su un gran numero di centri di potere, aveva bisogno di mezzi finanziari smisurati (ne aveva bisogno perchè quando ci si abitua a disporre di molti soldi non si è più capaci di concepire la vita in altro modo) e questi mezzi si potevano avere solo illecitamente, cioè chiedendoli a chi li aveva in cambio di favori illeciti. Ossia, chi poteva dar soldi in cambio di favori, in genere già aveva fatto questi soldi mediante favori ottenuti in precedenza; per cui ne risultava un sistema economico in qualche modo circolare e non privo di una sua autonomia.

Nel finanziarsi per via illecita, ogni centro di potere non era sfiorato da alcun senso di colpa, perchè per la propria morale interna, ciò che era fatto nell’interesse del gruppo era lecito, anzi benemerito, in quanto ogni gruppo identificava il proprio potere col bene comune; l’illegalità formale, quindi, non escludeva una superiore legalità sostanziale. Vero è che in ogni transazione illecita a favore di entità collettive è usanza che una quota parte resti in mano di singoli individui, come equa ricompensa delle indispensabili prestazioni di procacciamento e mediazione: quindi l’illecito che, per la morale interna del gruppo era lecito, portava con sé  una frangia di illecito anche per quella morale. Ma a guardar bene, il privato che si trovava ad intascare la sua tangente individuale sulla tangente collettiva, era sicuro di aver fatto agire il proprio tornaconto individuale in favore del tornaconto collettivo, cioè poteva, senza ipocrisia, convincersi che la sua condotta era non solo lecita ma benemerita.

Il paese aveva nello stesso tempo anche un dispendioso bilancio ufficiale, alimentato dalle imposte su ogni attività lecita e finanziava lecitamente tutti coloro che lecitamente o illecitamente riuscivano a farsi finanziare. Poiché  in quel paese nessuno era disposto non diciamo a fare bancarotta, ma neppure a rimetterci di suo (e non si vede in nome di che cosa si sarebbe potuto pretendere che qualcuno ci rimettesse), la finanza pubblica serviva ad integrare lecitamente in nome del bene comune i disavanzi delle attività che sempre in nome del bene comune si erano distinte per via illecita. La riscossione delle tasse, che in altre epoche e civiltà poteva ambire di far leva sul dovere civico, qui ritornava alla sua schietta sostanza di atto di forza (così come in certe località all’esazione da parte dello Stato si aggiungeva quella di organizzazioni gangsteristiche o mafiose), atto di forza cui il contribuente sottostava per evitare guai maggiori, pur provando anziché  il sollievo del dovere compiuto, la sensazione sgradevole di una complicità passiva con la cattiva amministrazione della cosa pubblica e con il privilegio delle attività illecite, normalmente esentate da ogni imposta.

Di tanto in tanto, quando meno ce lo si aspettava, un tribunale decideva di applicare le leggi, provocando piccoli terremoti in qualche centro di potere e anche arresti di persone che avevano avuto fino ad allora le loro ragioni per considerarsi impunibili. In quei casi il sentimento dominante, anziché  di soddisfazione per la rivincita della giustizia, era il sospetto che si trattasse di un regolamento di conti di un centro di potere contro un altro centro di potere. Così che era difficile stabilire se le leggi fossero usabili ormai soltanto come armi tattiche e strategiche nelle guerre tra interessi illeciti oppure se i tribunali per legittimare i loro compiti istituzionali dovessero accreditare l’idea che anche loro erano dei centri di potere e di interessi illeciti come tutti gli altri.

Naturalmente, una tale situazione era propizia anche per le associazioni a delinquere di tipo tradizionale, che coi sequestri di persona e gli svaligiamenti di banche si inserivano come un elemento di imprevedibilità nella giostra dei miliardi, facendone deviare il flusso verso percorsi sotterranei, da cui prima o poi certo riemergevano in mille forme inaspettate di finanza lecita o illecita. In opposizione al sistema guadagnavano terreno le organizzazioni del terrore che usavano quegli stessi metodi di finanziamento della tradizione fuorilegge e con un ben dosato stillicidio d’ammazzamenti distribuiti tra tutte le categorie di cittadini illustri e oscuri si proponevano come l’unica alternativa globale del sistema.

Ma il loro effetto sul sistema era quello di rafforzarlo fino a diventarne il puntello indispensabile e ne confermavano la convinzione di essere il migliore sistema possibile e di non dover cambiare in nulla. Così tutte le forme di illecito, da quelle più sornione a quelle più feroci, si saldavano in un sistema che aveva una sua stabilità e compattezza e coerenza e nel quale moltissime persone potevano trovare il loro vantaggio pratico senza perdere il vantaggio morale di sentirsi con la coscienza a posto. Avrebbero potuto, dunque, dirsi unanimemente felici gli abitanti di quel paese se non fosse stato per una pur sempre numerosa categoria di cittadini cui non si sapeva quale ruolo attribuire: gli onesti.

Erano, costoro, onesti, non per qualche speciale ragione (non potevano richiamarsi a grandi principi, né  patriottici, né  sociali, né  religiosi, che non avevano più corso); erano onesti per abitudine mentale, condizionamento caratteriale, tic nervoso, insomma non potevano farci niente se erano così, se le cose che stavano loro a cuore non erano direttamente valutabili in denaro, se la loro testa funzionava sempre in base a quei vieti meccanismi che collegano il guadagno al lavoro, la stima al merito, la soddisfazione propria alla soddisfazione di altra persone. In quel paese di gente che si sentiva sempre con la coscienza a posto, gli onesti erano i soli a farsi sempre gli scrupoli, a chiedersi ogni momento che cosa avrebbero dovuto fare.

Sapevano che fare la morale agli altri, indignarsi, predicare la virtù sono cose che riscuotono troppo facilmente l’approvazione di tutti, in buona o in mala fede. Il potere non lo trovavano abbastanza interessante per sognarlo per sé  (o almeno quel potere che interessava agli altri), non si facevano illusioni che in altri paesi non ci fossero le stesse magagne, anche se tenute più nascoste; in una società migliore non speravano perchè sapevano che il peggio è sempre più probabile.

Dovevano rassegnarsi all’estinzione? No, la loro consolazione era pensare che, così come in margine a tutte le società durate millenni s’era perpetuata una contro società di malandrini, tagliaborse, ladruncoli e gabbamondo, una contro società  che non aveva mai avuto nessuna pretesa di diventare “la” società, ma solo di sopravvivere nelle pieghe della società dominante ed affermare il proprio modo di esistere a dispetto dei principi consacrati, e per questo aveva dato di sè (almeno se vista non troppo da vicino) un’immagine libera, allegra e vitale, così la contro società degli onesti forse sarebbe riuscita a persistere ancora per secoli, in margine al costume corrente, senza altra pretesa che di vivere la propria diversità, di sentirsi dissimile da tutto il resto, e a questo modo magari avrebbe finito per significare qualcosa di essenziale per tutti, per essere immagine di qualcosa che le parole non sanno più dire, di qualcosa che non è stato ancora detto e ancora non sappiamo cos’è.

Bè adesso sappiamo cos’è”.

Italo Calvino, “Apologo sull’onestà nel Paese dei corrotti“, La Repubblica 15 marzo 1980

Risultati delle ricerche, Google, la Cronologia Web e la ricerca personalizzata

google search“Wow! Sono in prima pagina di Google”, mi annuncia soddisfatto un amico. “Ah, complimenti”, dico io. Controllo. “No, guarda che sei in sesta pagina come prima”. “Ma come? No no, sono in prima pagina”.

Già successo, vero? A un certo punto il proprio sito si mette a scalare tutte le classifiche e giunge in primo piano, se non al primo posto fra i primi nei risultati delle ricerche Google. Dopo un certo entusiasmo, si capisce che c’è qualcosa che non funziona e alternativamente si dà la colpa a Google che non “indicizza bene”, ai browser, al transito di Plutone.

Una cosa da sapere è che se utilizzate un servizio Google, per esempio Gmail, nel vostro profilo è presente una impostazione che influisce sui risultati delle ricerche: Cronologia webRicerca personalizzata invece funziona sempre, è in un cookie di durata 180 giorni.

Entrambe queste opzioni salvano le vostre ricerche, ed influenzano le pagine dei risultati mettendo in primo piano le vostre ricerche più frequenti. Cronologia Web è attiva se fate il login a Google, Ricerca personalizzata è sempre attiva ed è è l’elenco delle ricerche precedenti su Google memorizzate dal browser.

Quindi prima di dichiarare sono in prima pagina, disattivate l’opzione nel vostro profilo Google e ripetete la ricerca, aggiungendo in coda all’URL che Google mostra dopo aver fatto una ricerca il parametro &pws=0. Premere invio per aggiornare la pagina e voilà, i veri risultati. Forse, speriamo.

Francamente, non capisco a cosa possa servire una cosa del genere: i miei risultati di ricerca anche con le stesse parole chiave non saranno mai uguali a quelli di un’altra persona. Google dice che è per “Con la personalizzazione dei risultati ci auguriamo di offrirti le informazioni più utili e pertinenti possibili su Internet”. Io ci metterei un bel boh pure qui.

Edgard Morin, la voce del net e la complessità

Edgard Morin. “Pensare per costellazioni e correlazioni di concetti”. “Articolare ciò che è collegato e collegare ciò che è disgiunto”. “Etica della comprensione planetaria”. Mamma mia, c’è di che eccitare la mente di ogni webbista. Il pensiero ipertestuale è affascinante, è vero.

Ieri sera c’è stata una dimostrazione pratica molto efficace. Contesto: un appuntamento di Meet The Media Guru con Edgard Morin, appunto. Teatro pieno, nessuna voglia di folla. Fa niente, che c’è di meglio che seguire la conferenza in streaming, magari da Second Life nel bell’auditorium dell’ambasciata virtuale dell’Estonia, realizzata dal famoso architetto di SL Scope Cleaver, “specializzato in costruzioni moderne e futuristiche, e che ha realizzato opere per Princeton University, la sede e l’auditorium dell’ambasciata estone (che verrà completato tra una settimana, e che useremo in anteprima)” – come annuncia Brain2Brain, il primo cluster digitale delle idee?

Neuroni impazziti (una volta erano gli ormoni, ma non è più di moda. Personalmente sarei per un deciso ritorno al passato in questo caso, ma è solo la mia opinione).

Il “web 2.0” va fuori di testa, Twuitter, Facebook, chat sullo streaming, annunci sulle bacheche di tutti i “social media”…

Ma, che succede? All’ora fissata per l’evento qualcosa non va. L’audio in Second Life non si sente, si vede qualcosa a scatti ma non è certamente compresibile, una parola sì cento no.

L’auditorium estone è piuttosto affollato, ma nessuno sa bene cosa stia accadendo. Lascio Second Life per vedere lo streaming, magari la situazione migliora se lascio libera un po’ di banda.

Mi lancio nell’arena dello streaming, dotato di chat per i commenti live. Vabbè, preferivo l’ambasciata estone ma fa niente, va bene anche qui. Si vede e si sente un po’ meglio, ma a me quelli sul palco non sembrano né Morin né altri annunciati ospiti, e anche il posto non mi sembra nemmeno il teatro Dal Verme, boh.

Intanto la gente commenta, ora arriva Morin, no viene dopo, hai visto cosa ha detto… nessuno sembra accorgersi che quello che sta parlando nello streaming è Ron Dembo, e che si tratta di un evento del 2008. MMG ha lasciato sovrapposto al video l’annuncio dell’evento di Morin e tutti pensano che quello sia lo streaming di Morin… cerco di avvisare nella chat ma uno si arrabbia pure.

Torno su Second Life, in ogni caso nell’auditorium è presente in forma di avatar di un francese che ha lavorato con Morin e Latouche alla famosa “Charte des biens communs” ed è disponibile per chiacchierare in voice, interessante comunque.

Avviso le persone presenti di quello che sta succedendo. Già, il titolo del convegno è “Le sfide della complessità”, la Voix du Net…

L’ilarità arriva al suo apogeo quando spiego che l’organizzazione di Meet the Media Guru ha annunciato che lo streaming non è disponibile per problemi tecnici… “lo streaming di Morin non funziona perché causa saturazione della cella a causa dei cellulari in sala, lo streaming non è al momento operativo”.

Cioè, tutti con cellulari e periferiche di ogni tipo accesi pronti a twittare qualsiasi cosa Morin avesse detto, a pubblicare inutili messaggi sulle proprie bacheche di Facebook hanno intasato la cella che l’organizzazione pensava di usare per lo streaming.

Ma come si fa a pensare di usare un telefono cellulare per lo streaming, boh… La Voix du Net, già.

Il francese ride… farfuglia qualcosa sul caos e l’Italia, chiudo baracca un po’ incazzato un po’ divertito. Vabbè, mi guarderò il convegno domani in streaming on demand, come dice il sito.

Stamattina lo streaming on demand non è disponibile. Rettifico: ora, ore 19:56, lo streaming esiste!

Sono andato a bere il caffè e due operai mi hanno chiesto di cambiare lato della strada perché fumavo e loro stavano aprendo le tubature del metano, senza chiudere il rubinetto… Ho visto un manifesto che annuncia una rassegna della microeditoria a Chiari, un paese qui vicino. Ospiti Margherita Hack, Rizzo, Messori, Davide Van De Sfroos e… Solange. Forse farà previsioni sull’editoria elettronica.

La ragazza del bar ha un sorriso e un seno confortanti. Due occhi grandi. È vera, ne sono certo.

E dire che penso di essere strano io.

Fa niente, Morin lo vedrò a febbraio da Pondicherry. Una mia amica abita a Auroville, e le riprese le farà lei, con una telecamera vera e vere attrezzature. Non è un bene comune, ma pazienza (questa è una citazione). L’arte per la coscienza, già. Ma non in Italia, siamo più interessati a trans e prostitute, a scrivere qualcosa su Twitter, FF o Facebook. Il medium come prova dell’esistenza in vita, il contenuto chi se ne frega. Che tristezza.

“Une plateforme dédiée à la reliance des expressions créatives favorisant, le développement de la personne humaine, à la fois psychologique, créatif, éthique et social, sera prochainement en ligne (janvier 2010) sur ce site lavoixdunet.org”>.

Già, speriamo di avere la linea, almeno. Altro che Orione.