giovedì 22 febbraio 2018

Le profezie di Bill Gates

Circa venti anni fa, Bill Gates nel suo libro 'Business @ the Speed of Thought' faceva 15 previsioni che all’epoca risuonarono come folli e impossibili ma che oggi si sono realizzate e fanno parte della maggior parte delle innovazioni tecnologiche moderne.
L’imprenditore nel 1999 aveva pensato a un grande proliferare dei siti per paragonare i prezzi, in particolare quelli legati ai vestiti e agli accessori. Per Gates questo sarebbe stato normale perché la concorrenza creata dalla Rete avrebbe portato a delle soluzioni per agevolare il consumatore nella scelta più conveniente possibile. Al giorno d’oggi siti del genere sono ampiamente utilizzati. Alcuni di questi portali permettono anche di fare preventivi per spese molto più importanti di un semplice abito.

I wearable
Al giorno d’oggi i wearable non stupiscono. Quasi tutti abbiamo un oggetto intelligente che portiamo sempre con noi e che indossiamo come se niente fosse. Nel libro Gates scrisse: “In futuro tutti avremo un piccolo dispositivo intelligente e indossabile. Questo ci permetterà di fare chiamate, di lavorare, leggere notizie e prenotare dei voli”. In pratica ha anticipato gli smartwatch.
Pagamenti e assistenza sanitaria
Nel libro “Business @ the Speed of Thought”, Gates ha previsto anche i pagamenti online di bollette e servizi e le comunicazioni con il proprio medico direttamente da particolari portali telematici. Per quanto riguarda i pagamenti Bill Gates ha azzeccato tutto. Anzi, oggi il settore è uno dei più floridi, proprio grazie alla Rete. E il pagamento in contanti è sempre meno indispensabile. Per quanto riguarda l’assistenza medica ancora dobbiamo fare il definitivo salto di qualità ma non mancano app e siti simili a quelli previsti da Bill Gates.

Internet Of Things
Gates descrivendo più approfonditamente i wearable nel libro ha previsto che in futuro gli oggetti intelligenti si sarebbero trovati dappertutto e la nostra vita sarebbe stata semplificata dall’interscambio dei dati tra questi dispositivi. Gates nel libro aveva previsto oggetti intelligenti che ci aiutano nella spesa o a preparare ricette in base a ciò che abbiamo in frigo. Tutte cose che al giorno d’oggi sono la normalità. In pratica l’Internet of Things era già stato previsto.

Social media
Sul libro nel 1999 Gates scrive: “in futuro ci saranno siti web privati per i tuoi amici e la famiglia che consentiranno di chattare e pianificare eventi”. Vi suona familiare? Sì, esatto è Facebook. Al giorno d’oggi siamo abituati ad avere social praticamente per tutto ma a fine anni Novanta il concetto risuonò come rivoluzionario.

Videocamere per la casa
Gates nel 1999 pensò che nel tempo le telecamere per la casa sarebbero state sempre più usate. Anche in questo caso gli eventi hanno confermato la tesi dell’imprenditore. Oggi abbiamo anche telecamere come PetCube, che consentono di controllare un laser in modo da poter giocare con i nostri animali domestici mentre siamo fuori di casa.

Pianificazione vacanze
Al giorno d’oggi tutti sanno usare siti come Expedia o Booking per pianificare la propria vacanza e spendere il meno possibile. Nel 1999 Gates predisse anche questo. Nel libro scrisse: “In futuro ci saranno software che sanno quando abbiamo prenotato un viaggio e utilizzano queste informazioni per suggerire attività, sconti e luoghi da visitare nella nostra meta di destinazione.

Twitter
Gates, fine conoscitore dello sviluppo sociale di Internet, nel 1999 descrisse piattaforme come Twitter. Nel libro parlò di: “Piattaforme per commentare in diretta ciò che sta accadendo durante la visione di una competizione sportiva in televisione”.

Pubblicità personalizzata
Sempre parlando di software personalizzati, come quelli descritti per le vacanze, Gates predisse le pubblicità personalizzate. Ovvero ciò che con Google e con le varie applicazioni e social è diventato la normalità per gli utenti di oggi.

Smart TV
Per Gates le televisioni sarebbero state dotate di servizi che si trovano anche sul web e di connessione per poter cliccare a link di approfondimenti per capire meglio quello che guardiamo. Niente di nuovo per chi ha in salotto una Smart TV.

Lavoro
Internet ha rivoluzionato il mondo del lavoro e Bill Gates se lo aspettava quasi 20 anni fa. Parlò di programmi per la condivisione di progetti, molto simili a quelli che usiamo oggi. Strumenti come Google Drive per fare un esempio. E anche il recruitment è stato particolarmente influenzato dal web. Gates nel 2019 predisse piattaforme come LinkedIn. E al tempo stesso Gates parlò di software aziendali in grado di esternalizzare alcuni compiti in base a competenze specifiche. Esistono diverse piattaforme che al giorno d’oggi offrono a freelance (copywriter o designer per fare degli esempi) dei contratti a tempo. Anche se in Italia non sono molto sviluppati.



Fonte: Bill Gates, il profeta: si avverano le 15 previsioni fatte 20 anni fa

mercoledì 21 febbraio 2018

Flipped classroom - La classe capovolta

Il flip teaching è una metodologia didattica che sta prendendo campo all'estero negli ultimi anni. Le classi coinvolte in questa metodologia, dette flipped classroom, sono protagoniste di una inversione delle modalità di insegnamento tradizionale in cui il docente è il dispensatore del sapere e l'allievo recepisce, esercitandosi prevalentemente a casa. Le attività avvengono in modalità blended e, di conseguenza, è fondamentale l'uso delle nuove tecnologie per fornire le adeguate risorse agli allievi al di fuori del contesto classe. Infatti, gli allievi hanno a disposizione una ingente quantità di materiali didattiche, che possono condividere, annotare, modificare o addirittura creare in maniera collaborativa. Fondamentale è il ruolo dei forum di discussione, in quanto si permette all'allievo di imparare in maniera costruttiva e di raggiungere diversi obiettivi trasversali afferenti all'area delle relazioni. Si utilizza il termine "flip" in quando viene ribaltata la modalità in cui vengono proposti i contenuti e i tempi utili per l'apprendimento. In una flipped classroom la responsabilità del processo di insegnamento viene in un certo senso "trasferita" agli studenti, i quali possono controllare l'accesso ai contenuti in modo diretto, avere a disposizione i tempi necessari per l'apprendimento e la valutazione. L'insegnante diventa quindi un supporto alla comprensione di quanto appreso a mano a mano dagli allievi e dovrà impiegare il proprio tempo in questo processo di passaggio dall'ampliamento delle conoscenze all'acquisizione di capacità e competenze. Come per tutte le metodologie didattiche, anche il flip teaching presenta punti di forza e punti di criticità. Di certo tale modalità di insegnamento favorisce l'individualizzazione e la personalizzazione dei percorsi di insegnamento, in quanto gli insegnanti possono dare delle precise indicazioni agli allievi su come muoversi e sulle risorse che ciascuno di loro può utilizzare. Verranno certamente penalizzati i rapporti interpersonali, in quanto l'allievo avrà un contatto molto stretto con il computer sia a scuola che a casa! Inoltre, gli educatori saranno costretti a riflettere su come strutturare e proporre i contenuti, rischiando di focalizzare l'attenzione sul contenuto, piuttosto che sull'apprendimento.
Una flipped classroom, dunque è un modello pedagogico nel quale le classiche lezioni e l’assegnazione del lavoro da svolgere a casa, vengono capovolti. L’insegnante assegna per casa ai propri studenti alcuni video da seguire su un dato argomento, prima di trattarlo in classe. In questo modo, poiché gli studenti hanno già un’infarinatura generale dei contenuti da affrontare, si può dedicare il tempo a disposizione a scuola per dare chiarimenti, effettuare delle esercitazioni e qualsiasi altra attività funzionale ad una migliore comprensione. Ciò richiede, da parte del docente, un’attentissima selezione delle risorse video che devono essere catalogate all’interno di un apposito corso on line creato per gli studenti. Questi ultimi, infatti, collegandosi nello spazio virtuale, hanno sempre disposizione i materiali didattici che il docente ha selezionato e/o creato proprio per loro e possono utilizzarli in qualsiasi momento della giornata. Il vantaggio del flip teaching sta proprio nella possibilità di utilizzare in maniera diversa le ore di lezione settimanali dedicate all’insegnamento di una data disciplina, permettendo anche gli studenti di costruire il proprio sapere e di testare in qualsiasi momento le proprie competenze. Il ruolo del docente sarà quello di “guida” che incoraggia gli studenti alla ricerca personale e alla collaborazione e condivisione dei saperi appresi. Non esiste un unico modello di insegnamento capovolto, anche se nel modello standard la classe capovolta è vista come un ambiente di lavoro in cui gli studenti sono indirizzati verso l’uso di selezionati materiali didattici. Tra questi rientrano anche i quiz online per testare il livello raggiunto, con particolare uso dei quiz con feedback, per permettere di imparare dai propri errori. Gli studenti possono inoltre collaborare e in classe si possono avviare diverse discussioni tra loro, che permetteranno di chiarire meglio determinati concetti importanti appresi autonomamente. Il docente potrebbe anche suddividere gli studenti in piccoli gruppi e attribuire loro alcune specifiche situazioni problematiche da trattare. Un numero sempre maggiore di istituzioni educative, soprattutto in America, si stanno “convertendo” a questa nuova metodologia didattica. Per esempio presso l’Algonquin College sono state realizzate una serie di lezioni video per spiegare le procedure di editing dei software, procedure che non possono essere facilmente presentate in una semplice lezione frontale. Durante una tradizionale lezione, gli studenti provano spesso a carpire il maggior numero possibile delle informazioni date dal docente, annotando, a volte, freneticamente, il maggior numero di parole possibile sui loro quaderni. Ciò non permette loro di soffermarsi sui concetti, proprio perché sono concentrati su una scrittura forsennata, che li distoglie dalla comprensione di determinati nodi concettuali importanti. L’uso dei video, invece, permette agli studenti di ascoltare e riascoltare in qualsiasi momento le parole del docente. Le discussione che verranno avviate in classe permetteranno agli studenti di socializzare e collaborare nella risoluzione di un problema comune.
Le attività in stile flipped possono essere facilmente realizzate, ma è altrettanto semplice fare un uso sbagliato di questa metodologia. Infatti, essa richiede una particolare attenzione nella fase di programmazione delle attività e di selezione dei materiali didattici da sottoporre ai discenti. Inoltre, la registrazione delle lezioni richiede molto tempo e la capacità di utilizzare gli strumenti adeguati per la realizzazione di podcast. Di contro, gli studenti abituati al costante supporto del docente, potrebbero sentirsi smarriti quando utilizzano i materiali online e si potrebbe generare un fenomeno di dispersione delle conoscenze. Come detto, con il proliferare delle flipped classroom, sarà necessario utilizzare nuovi strumenti di supporto alla didattica e andrebbe anche rivisto il curricolo scolastico. Il ruolo degli educatori sarebbe molto differente da quello attuale, in quanto sarà dispensabile effettuare un lavoro volto alla collaborazione costante durante i vari processi di insegnamento/apprendimento. Inoltre, gli studenti diventerebbero ancora più parte attiva delle attività didattiche e, di conseguenza, il loro carico di lavoro sarebbe maggiore.


martedì 13 febbraio 2018

Algoritmi e la nuova Algocrazia

Un algoritmo è un modello matematico che racchiude istruzioni per risolvere un problema o effettuare delle attività. L’Intelligenza Artificiale (IA) non è altro che un insieme di algoritmi, ciò che vediamo sul social network è frutto del lavoro degli algoritmi, persino le notizie cui accediamo da web o mobile sono il lavoro della selezione fatta da modelli matematici ‘tradotti’ in codice informatico. La maggior parte delle transazioni finanziarie avviene per mezzo degli algoritmi, gli assistenti vocali che utilizziamo ormai quotidianamente funzionano grazie ad essi, così come i sistemi di riconoscimento facciale che ci permettono di ‘tenere in ordine’ le nostre foto (e di fare molto altro come, per esempio, controllare l’identità delle persone) o quelli che costruiscono automobili o le guidano autonomamente sulle nostre strade. Sono strumenti per lo più invisibili ma in grado di aiutare ed ‘aumentare’ le nostre vite supportandoci nella quotidianità, nel lavoro, nel business. Il rovescio della medaglia è che in quella che già oggi molti chiamano l’età degli algoritmi, il mondo potrebbe essere governato dall’intelligenza artificiale concentrando ‘il potere’ (sociale, economico e politico) nelle mani di coloro che sono in grado di modellare e controllare gli algoritmi. Diventa quindi prioritario, in questa delicata fase evolutiva dell’informatica e della storia umana, studiare e capire quali sono non solo le potenzialità e le opportunità che questi sistemi offrono, indubbiamente innumerevoli, ma anche gli impatti macroeconomici, sociali, politici, organizzativi per arrivare a definire una nuova cultura (basata sul codice) e le regole entro le quali questa può espandersi.
Sono gli algoritmi, oggi, a decidere cosa dobbiamo sapere durante le nostre ricerche online – con l’algoritmo di Google a farla da padrone – cosa dobbiamo leggere (il NewsFeed di Facebook, esempio più evidente di quelle che Eli Pariser chiama “filter bubble” o “eco chamber”, “camere dell’eco” che proponendoci cose culturalmente ed ideologicamente consone alla nostra visione del mondo, la rafforzano tenendo fuori dalla nostra conoscenza tutte le opinioni differenti) e a consigliarci quali acquisti potrebbero interessarci nei nostri shop online e quale candidato votare. Scriveva Pariser in un articolo pubblicato nel 2011 su Internazionale.
A. Aneesh, professore associato presso la cattedra di sociologia dell’Università statunitense del Wisconsin-Milwaukee, definisce questo sistema come una vera e propria “algocrazia”, guidata in regime di segretezza dalle imprese della Silicon Valley e di Wall Street, che hanno invece pieno accesso ai nostri dati e, dunque, alle nostre vite. Una delle tante sfaccettature di quella che Frank Pasquale – professore di legge all’Università del Maryland – ha definito in un suo libro pubblicato dalla Harvard University Press nel 2015 “black box society”, nella quale siamo tenuti all’oscuro delle modalità in cui vengono prese le decisioni che ci riguardano.
Esponendo la malattia, nel suo libro Pasquale individua anche alcune possibilità di cura, come il miglioramento delle legislazioni sull’uso dei dati personali o la necessità di rendere più chiari i contratti e i loro termini di utilizzo, peraltro al centro di un interessante documentario realizzato da Cullen Hoback nel 2013 dal titolo “Terms and Conditions May Apply” (o “Zero Privacy” nella versione in italiano) e lavorare per una trasparenza “qualificata”, che rispetti cioè gli interessi delle persone coinvolte senza trasformare la trasparenza in una nuova ideologia religiosa.
In questo contesto, ciò che dovrebbe farci riflettere, secondo Aneesh (i cui studi si sono sempre prevalentemente concentrati sull’analisi dei nuovi modelli organizzativi e della burocrazia che si viene a ‘disegnare’ mediante la tecnologia) è il fatto che il linguaggio di programmazione (il codice) sembra essere di per sé “la struttura organizzativa chiave dietro questa nuova migrazione virtuale”. Per capire esattamente cosa intenda il professore dobbiamo fare un salto indietro. “Era il 1999 quando, cercando una software company in India, rimasi colpito dal fatto che la maggior parte delle applicazioni che utilizzavamo non erano mai state create ‘in un unico posto’. La maggior parte del software veniva (e viene tuttora) sviluppata in più luoghi contemporaneamente: team diversi, ‘seduti’ in continenti e paesi differenti lavorano allo stesso progetto. Conoscevo la ‘letteratura’ riguardante l’avvento dei grandi sistemi gestionali centrali (gli Erp) quale elemento cruciale per il coordinamento delle ‘enormi’ attività burocratiche delle organizzazioni aziendali – spiega Aneesh -, ma nel caso dello sviluppo software globale non è mai stato possibile avere una sorta di ‘middle managerial layer’ per il coordinamento centralizzato dei team e dei diversi ‘regimi’ di lavoro dei differenti paesi del globo”.
Scenario ancor più evidente se si pensa allo sviluppo di codice open source dove le community di sviluppatori presenti in tutto il mondo si coordinano ‘semplicemente’ con modello di autogestione.
Qualche tempo dopo queste prime considerazioni, un giorno seduto accanto ad un programmatore, guardando lo schermo sul quale stava lavorando, Aneesh ha avuto un’intuizione: “è il software stesso a fare da direttore dei lavori!”. Aneesh aveva notato così tanti controlli di accesso integrati nella piattaforma software su cui stava lavorando il programmatore “che non c’era alcun bisogno di un manager umano a dirigere i lavori”, aveva pensato. Quando nel 1998, durante la scuola di specializzazione, Aneesh scrisse il suo primo ‘paper’ sul tema dell’hyper-bureaucracy (pubblicato l’anno dopo) per descrivere un sistema iper-burocratico ‘fuori controllo’, ancora non aveva compreso del tutto che il codice – nella sua teoria – è esso stesso ‘organizzazione’, visione che gli è apparsa più chiara dopo aver visto all’opera il programmatore. “In mancanza di un vocabolo migliore ho coniato il termine ‘algocracy’ per identificare ‘le regole del codice’ (o di un algoritmo) quale modello di organizzazione che può sostituire le ‘regole di un ufficio’ (la burocrazia di un’azienda o di un sistema economico)”, descrive Aneesh. “L’algocrazia tende ad appiattire tutte le gerarchie burocratiche perché non necessita di alcun livello di gestione intermedio o centralizzato che sia”.
Per dettagliare ancora meglio in che modo la nostra società ed i nostri modelli organizzativi, non solo lavorativi ma anche sociali ed economici, possono essere modificati dalle tecnologie, in generale, dagli algoritmi nello specifico, Aneesh fa un esempio molto semplice riguardante il controllo del traffico e delle violazioni degli automobilisti. “Il controllo mediante l’utilizzo dei semafori implica per gli automobilisti il rispetto di alcune regole (per esempio, fermarsi in presenza del rosso) le cui violazioni possono essere rilevate direttamente dalla polizia stradale”, spiega Aneesh. “Questo modello organizzativo/comportamentale funziona per due motivi: l’interiorizzazione delle regole da parte degli automobilisti, che orientano le loro azioni, e la minaccia della pena come conseguenza di un’azione errata”.
Questo primo modello rappresenta un’organizzazione burocratica (seguire il rosso, arancione o verde equivale a seguire le regole di un’azienda o di una società civile) ma, fa presente Aneesh, “quanti automobilisti ci sono che non rispettano lo stop o il rosso senza essere ‘beccati’ dalla polizia?”.
C’è poi un secondo metodo di controllo, basato sull’utilizzo delle videocamere che riprendono il traffico e potenzialmente catturano tutte le violazioni degli automobilisti. “Le regole sono ovviamente le medesime del modello precedente ma, con questo tipo di organizzazione, ad ogni violazione rilevata viene emessa una multa recapitata al trasgressore con una fotografia come prova dell’illecito”, spiega Aneesh. “Un sistema tecnologico di questo tipo, impiegato nella sua massima capacità è in grado di rilevare tutte le violazioni e la notifica diventa la conseguenza dell’azione ‘fuori regola’ di una persona”. In questo caso, il modello organizzativo viene identificato come panottico.
Infine, c’è il modello algocratico che, nell’esempio di Aneesh, diventa un sistema di auto-controllo del traffico basato non su delle regole ma su come vengono costruite le strade: “pensiamo ad una infrastruttura stradale che, per via di come sono state asfaltate le corsie, impediscono agli automobilisti di svoltare a destra o a sinistra o di sostare in un punto se non ‘progettato’ dagli ingegneri della strada. In questo modello non ho bisogno di essere inseguito dalla polizia o di ricevere una multa via posta, se ‘violo’ il modello mi schianto e distruggo l’auto”.
Aneesh non si sbilancia in alcun giudizio personale circa questi tre differenti modelli di governance, dice semplicemente che “tutti e tre hanno delle potenzialità e dei limiti, funzionano in modo differente: i semafori possono rompersi, la targa fotografata da una videocamera potrebbe risultare illeggibile, un veicolo sportivo potrebbe essere in grado di superare le barriere fisiche del controllo del traffico…”.
Ma dopo l’analisi preliminare sul ‘potere’ degli algoritmi è evidente che il futuro di una possibile società algocratica cattura la mia attenzione. “Mentre le burocrazie sfruttano il modello di ‘orientamento all’azione’ (orientano le nostre personalità verso determinate norme), le algocrazie predeterminano l’azione verso determinati risultati”, spiega Aneesh. “Facendo un esempio pratico attuale, non conosciamo gli algoritmi di Google o Facebook anche se definiscono a priori il nostro possibile campo d’azione. Un effetto dell’algocrazia che oggi vediamo applicarsi anche sulle identità: le identità finanziarie (i punteggi di credito, per esempio), le identità di shopping (che ‘inquadrano’ un comportamento di acquisto) e addirittura le identità mediche (che raggruppano le persone a seconda di patologie o cure), sono tutte costruite algoritmicamente da diversi sistemi senza la nostra approvazione o coinvolgimento”.
Gli algoritmi decidono, quindi, i risultati dei motori di ricerca, le pubblicità che appaiono quando visitiamo un sito, le notizie a cui viene data rilevanza su Facebook, il programma più adatto per la lavatrice, ma anche le priorità nelle liste d’attesa per un trapianto, chi viene sottoposto a verifiche e controlli, ad es. fiscali o negli aeroporti, e molto altro. Gli algoritmi fanno parte di quasi tutti gli aspetti della vita quotidiana dove c’è tecnologia.
Sono anche alla base di decisioni politiche e amministrative che ci riguardano direttamente come cittadini ma che non sempre sono documentate e trasparenti.




Sitografia di riferimento:

Verso un mondo governato dagli algoritmi - Nicoletta Boldrini
Algocrazia: il potere politico degli algoritmi - di Andrea Intonti
Algocrazia - di Licia Corbolante


lunedì 22 gennaio 2018

Quali sono le professioni IT del futuro?

Viviamo in un mondo in costante cambiamento, soprattutto dal punto di vista tecnologico, e mano a mano che gli strumenti digitali vanno ad influire sempre più sugli aspetti della vita di tutti i giorni, cambia anche il mercato del lavoro che richiede nuove figure e competenze.
Già nell’ultimo decennio si è assistito alla comparsa di nuove professioni legate soprattutto all’innovazione tecnologica e questa tendenza continuerà anche nei prossimi anni. Se le competenze digitali sono importanti per trovare lavoro oggi, quindi, nei prossimi anni diventeranno indispensabili.

Segnaliamo, su questo tema, due interessanti articoli.
Il primo, dal titolo Orientamento al lavoro:le professioni del fututo sono digital>, redatto da Chiara Casalin, laureata in Comunicazione digitale, che collabora con la testata on line Studenti.it.

Il secondo, pubblicato sulla piattaforma Work Wide Women dedicata ad un interessante progetto di welfare che supporta le aziende e le donne fornendo soluzioni in ambito di diversity management e di pari opportunità e di formazione certificata, redatto dalla blogger Daniela Bortolotti, che parla delle Professioni tech femminili del 2018.

Buona lettura!

venerdì 12 gennaio 2018

E-Book 'Innovazione e creatività in azienda. Appunti di Knowledge Management (LM Media, 2017)

E' disponibile on line, all'indirizzo https://www.bookrepublic.it/book/9788899038052-innovazione-e-creativita-in-azienda-appunti-di-knowledge-management/?tl=1 l'e-book 'Innovazione e creatività in azienda. Appunti di Knowledge Management'(2017), edito da LM Media, nato anche e soprattutto grazie al lavoro del blog 'La Spir@le della conoscenza'.

Nell’era del web e della comunicazione digitale, non sempre le aziende riescono ad amalgamare le innovazioni tecnologiche alle esigenze organizzative e di mercato, in continuo sviluppo e cambiamento, in funzione anche di quelli che sono poi gli strumenti deputati alla creazione e alla condivisione della conoscenza, in quanto fattore competitivo. Particolare importanza in tutto ciò è il processo di trasformazione della conoscenza tacita in conoscenza esplicita, che diventa realmente fruibile e utilizzabile per innescare processi di (r)innovamento, sia degli individui costituenti il team work aziendale, che delle organizzazioni di cui essi fanno parte. La conoscenza è stata sempre una risorsa importante ai fini della produzione, ma diventa forza redditizia fondamentale solo con l'età moderna, ossia in corrispondenza di quel passaggio essenziale che fa emergere la conoscenza scientifica come conoscenza autonoma, libera. L’efficacia derivante da un corretto uso della conoscenza può avere molti vantaggi; prima di tutto per quanto riguarda la riduzione dei costi di un precedente processo produttivo, ma anche inerenti alla creazione di un nuovo prodotto o servizio, o alla personalizzazione del servizio stesso o ancora, attinente alla produzione di nuovi significati, desideri, identità, alla progettazione di esperienze coinvolgenti, alla costruzione di rapporti fiduciari e di garanzia. Ci vuole però un approccio e, soprattutto una predisposizione diversa rispetto a queste nuove teorie e servizi, che consenta di esplorare quest’attuale modo di intendere la conoscenza come fattore economico di sviluppo. Si parla, dunque di economia della conoscenza, in cui il valore è prodotto costruendo nuove possibilità di crescita, a partire da moderne forme e valori, frutto della creatività, della comunicazione, della collaborazione e della condivisione, che diventano così fattori d’innovazione e competitività.


mercoledì 15 novembre 2017

La nuova Cybersecurity nazionale alla prova dei fatti – 360 Summit

Sintesi dei lavori del convegno tenutosi da esperti del settore il 14 Novembre a Roma

Le misure europee in materia di privacy e cybersecurity impongono ancora una volta un adeguamento normativo anche al nostro Paese, da compiere entro maggio 2018. Ciò rende necessario un aggiornamento dei dati di settore, che il Clusit, associazione operativa nel campo della sicurezza informatica, riassume come preoccupanti rispetto al numero di attacchi hacker verificatisi negli ultimi anni a livello globale, circa 6.093 attacchi analizzati dal 2011 al 2017. In media negli ultimi sei mesi sono stati classificati come gravi 95,2 incidenti al mese, ogni mese (83 al mese negli ultimi 5-6 anni). Rispetto al secondo semestre 2016, nel primo semestre 2017 in percentuale diminuiscono le vittime di area americana (dal 55% al 47%), ed asiatica (dal 16% al 10%). Crescono, invece, gli attacchi verso l’Europa (dal 16% al 19%), e sono in crescendo i dati relativi ai tentativi di spionaggio e sabotaggio dei dati sia nel settore privato che in quello pubblico.
Nel 2017 si sono spesi 720 mila euro da parte di grandi imprese e PMI per attuare misure di sicurezza informatica, di fronte però ai 65 milioni di euro per la spesa informatica generica, quindi il minimo in proporzione, non garantendo così standard adeguati di sicurezza rispetto alle attuali minacce presenti in rete.
La maggior parte delle imprese intervistate sostiene che circa la metà dei rischi di attacco ai dati aziendali potrebbe derivare dagli stessi lavoratori interni, per svariate ragioni, incompetenza, inconsapevolezza delle policy aziendali, distrazione. Tutto ciò rende necessari interventi concreti per ridurre le minacce, adottando misure di safety, considerando ad esempio l’opportunità di una cybersecurity as service, ossia destinando tale “servizio aziendale” a specialisti del settore, affidando in outsorcing tali commesse.
Molte volte, manca proprio la consapevolezza dell’esistenza del proble, in quanto circa il 95% delle industrie meccaniche intervistate ritiene che i propri dati siano al sicuro, ma la cosa grave è che gli attacchi cibernetici più pericolosi sono quelli di cui non si ha traccia, gli hacker entrano nel data center aziendale “catturando” la rete di vendita e di produzione aziendale, ai fini di una concorrenza sleale e illecita che rischia di mandare in crisi l’intero sistema Made in Italy, come sostiene Alberto Tripi, Delegato per la Cybersecurity di Confindustria. L’industria 4.0 si fonda su strutture come il cloud, i big data, l’e-commerce, che anche se ovviamente sorretti da architetture solide e sicure, sono i più esposti ad attacchi. Risulta essere così necessario un aggiornamento delle competenze e delle conoscenze di questo settore, alla luce del nuovo contesto economico di riferimento, del contesto tecnologico attuale e del settore normativo attinente.
La globalizzazione dei mercati, infatti, ha reso la sicurezza informatica come un costo da tagliare perché a volte è lo stesso management aziendale che non ne capisce davvero l’importanza. Le nuove tecnologie, allo stesso tempo, se non opportunamente gestite creano maggiori falle per la sicurezza e il fattore umano incide molto in tale senso. Il GDPR si prefigge, quindi, come obiettivo quello dell’adozione di infrastrutture minime e necessarie per diventare complainers della normativa stessa. A oggi, le aziende non sono state tutte pronte a implementare misure di sicurezza adeguate, tranne le cosiddette aziende virtuose, che sono state obbligate da normative specifiche. E’ importante, a tal fine, basarsi su nuove competenze specifiche, nuovi professionisti in grado di ascoltare i “rumori di fondo” che lasciano presagire un attacco e che riescano ad analizzare soluzioni efficaci per proteggere il data center, facendo la distinzione tra la protezione dei dati e la difesa degli stessi, come due operazioni interconnesse tra di loro. Proteggere significa mettere delle barriere, costruire delle infrastrutture, dei meccanismi di salvaguardia. Difendere, invece, è un passaggio che deve essere inteso come capacità di analisi della situazione nel momento in cui si verifica, e saper decidere tempestivamente sul da farsi. Acquista valore aggiunto oltre alla formazione, la consulenza da parte di esperti del settore. Il 2016 è stato l’anno delle normative europee e il 2017 si è attuato un atteggiamento nazionale di strategia di difesa più attenta e mirata, che si concluderà proprio con il GDPR. All’interno del nostro piano nazionale c’è l’intenzione di creare un centro di ricerca e sviluppo sul tema cybersecurity, con grande attenzione pe la tematica dell’industria 4.0, come risposta a una realtà complessa rispetto a un tema collegato con l’interconnettività mondiale, come presa responsabilità di fronte a questo vasto scenario, ma anche come nuovo motore che genera grosse opportunità future. Proprio a garanzia dell’integrità dei prodotti o internet data e quindi di tutti gli oggetti interconnessi che entrano quotidianamente nelle nostre case e nelle aziende, è stato studiato un protocollo di certificazione specifico sul prodotto stesso, un framework europeo condiviso, con caratteristiche di industry friendly, con costi non eccessivi e da attuare in tempi relativamente brevi. Si ha oggi una nuova presa di coscienza per arrivare poi a predisporre strumenti per minimizzare le superfci di attacco. Gli aspetti di protezione in quanto tali, vanno verso esigenze di adozione, di pratica e sviluppo di sistemi di innovazione; proprio in questo tipo di scenario gli standard si configurano come necessari. Si dovrebbe ripartire dalla formulazione delle competenze di base, con una nuova modalità di insegnamento delle stesse materie alla base dell’informatica. E’ quello che sta succedendo in università all’avanguardia come a Roma, Milano e Trento, che hanno nell’ultimo anno istituito dei corsi di laurea proprio improntati sul tema della cybersecurity. L’aspetto culturale andrebbe però introdotto intercettando persone con un percorso di studio che addirittura non hanno ancora iniziato un percorso universitario, quindi dalle scuole superiori, senza tralasciare, in questo momento la social del cittadino.
Le aziende, le PA e le PMI spendono sempre più in sicurezza, ma probabilmente per fare la differenza ciò che è necessario è un cambio di approccio a queste tematiche. I dati e gli oggetti interconnessi viaggiano verso i 20 miliardi previsti per il 2020, e ogni oggetto che si connette nel cyber space attua almeno tra le 10 e le 100 vulnerabilità che si inseriscono all’interno del sistema. La ricerca sta andando avanti nei vari settori per ridurre questa vulnerabilità, che comunque sarà sempre presente, perché legata almeno in parte al fattore umano nello sviluppo e nell’utilizzo del SW e perché il ciclo di vita stesso di quest’ultimo non è legato alla sicurezza. Questo impone a tutti di ripensarsi come possibile target del cyber space e quindi come possibile vittima di un attacco. E’ necessario quindi formarsi e informarsi per potersi difendere meglio ed essere più competitivi sul mercato. Se non saremo in grado di implementare un piano integrativo multisettoriale di processi che convergono tutti in una direzione, aumenteranno le vulnerabilità esponenziali. Avremo così i Paesi che riusciranno a mettere in pratica un piano adeguato del rischio e quelli che creeranno processi slegati tra di loro e che non riusciranno a difendersi in caso di attacchi mirati.
Roberto Baldoni, Professore Ordinario si Sistemi Distribuiti, presso la Facoltà di Ingegneria dell’Informazione dell’Università degli Studi Sapenza di Roma, ha infine sottolineato che essendo i dati di tutti, sono di tutti e in mano di tutti, quindi tutti devono sentirsi partecipi di questo processo che è di social responsability e che necessita una Information Sharing, intesa come una condivisione delle informazioni, che ha alla sua base una più reale intenzione di condividere soluzioni, facendo squadra, collaborando anche tra pubblico e privato, mettendo in sintonia processi che vanno verso l’innalzamento della difesa nazionale, attraverso interventi multidimensionali, e multidisciplinari, creando in primis nuove expertices e skills nei vari campi per avere una sempre maggiore workforce nei vari settori.

#CySec360summit

martedì 2 agosto 2016

DOSSIER 'L'Albero di Lullo': Comunicazione ecologica: didattica attiva e condivisione delle esperienze

Conoscenza 2.0, nuove tendenze e stili/metodi di apprendimento, partendo da processi di apertura all'altro, per la co-costruzione delle esperienze e di nuovo sapere. Ne abbiamo parlato con la dott.ssa Barbara Costantini, formatrice e facilitatrice dell'apprendimento per l'ente di formazione FORMART (BO).

Progettare esperienze di formazione: quali sono le variabili influenti e i fattori di successo di un processo di apprendimento valido?
I progetti formativi solitamente si rivolgono e sono sviluppati per gruppi di persone accomunate da interesse verso un tema, dal ricoprire un ruolo simile nel contesto professionale, dall’avere background di istruzione paragonabili, per citare solo alcuni aspetti. Dalla mia esperienza, sia nel ruolo di facilitatrice che di partecipante, al di là dei caratteri di omogeneità citati, la motivazione personale resta un elemento importantissimo per godere appieno del momento formativo. Inoltre, se esistono obiettivi formativi che si riferiscono al raggiungimento di competenze (saper fare) e capacità relazionali (saper essere), la migliore modalità formativa da proporre risulta il metodo attivo (discussioni, case study, role playing, laboratori esperienziali, outdoor, teatro etc.). Esiste un’ampia letteratura sul “sapere/saper fare/saper essere”, una sintesi interessante può essere consultata al seguente link Lavoro e professioni

L’approccio esperienziale ha alla base l’idea di una persona intera, presente e attiva rispetto alla quale il processo di apprendimento risulta tanto più efficace quanto più stimola l’autonomia, la ricerca del proprio sviluppo personale, quindi la crescita. In tale contesto il ruolo del docente si trasforma in quello di facilitatore, orientato alla persona in apprendimento. Il facilitatore alimenta un clima vitale e costruttivo, sostiene forme di comunicazione partecipata (rete circolare) e la sua azione è orientata alla crescita dei potenziali dei singoli, nel rispetto degli obiettivi del gruppo.

Il ruolo del facilitatore diventa necessario se “saltano” i criteri di omogeneità e il contesto risulta estremamente eterogeneo: dal mio punto di vista, occorre far emergere i fili rossi (esistenziali) che ci permettano di incontrarci nella nostra umanità. Da lì possiamo costruire il nostro reciproco apprendimento. Facilitatore e partecipanti insieme.

Reggio, nel suo bellissimo libro “Il quarto sapere” (2010), ci ricorda che “l’esperienza come apprendimento è soggettiva, frammentaria, si basa sull’interruzione della routine, implica passaggi di trasformazione in profondità. Si viene a creare un rapporto con il mondo di carattere inter-attivo in cui il soggetto (a seconda delle condizioni di contesto e personali) intenzionalmente e consapevolmente agisce nei confronti del mondo distinguendosi da esso e affermandosi come soggetto teso all’autonomia. L’apprendimento dall’esperienza, nel suo movimento del generare, mette in luce la sua qualità poetica, di creare forme nuove, di combinazione originale tra elementi già noti. Dalla generazione affiorano la sorpresa, lo stupore e la meraviglia per quanto fatto. Aspetti generativi possono anche non risultare espliciti e consapevoli nel momento nel quale l’esperienza avviene o immediatamente dopo; rimangono quiescenti e nascosti fino a che altre esperienze e la nostra capacità di imparare da esse, non permettono di recuperali, farli emergere a livello di coscienza, concretezza e comunicabilità. La generazione dura, quindi, nel tempo e produce effetti anche a distanza”.

Come fare a scegliere i contenuti giusti, opportuni e necessari per massimizzare il risultato e il valore di un intervento formativo?
I contenuti, nel mio caso la strada da percorrere attraverso esercitazioni/esercizi con metodi attivi, risponde alle richiesti dei committenti che hanno determinate esigenze rivolte a collaboratori, responsabili, partecipanti etc. Questa è la cornice macro in cui pongo domande per capire come essere di aiuto e anche per condividere il mio ruolo di facilitatrice con modalità ecologica (vd. sotto). Quando sono sul campo, le persone sono al centro, protagoniste e la mia direzione è tenere insieme l’obiettivo da raggiungere (es. apprendere a comunicare in modo ecologico), impegnandomi ad accogliere le persone “là dove si trovano” in quel momento, rispettando i tempi e le possibilità di ognuno. Se mi trovo con gruppi di persone caratterizzati dal massimo grado di eterogeneità e bassa motivazione, in fase di progettazione cerco di immaginarmi quali strumenti/riflessioni possano essere di aiuto in ambito professionale e personale, in base anche all’attuale fase economica (es. comportamenti desiderabili, consapevolezza di sé et al). Costruisco il percorso, dedicando il primo momento della giornata a raccogliere in diretta eventuali bisogni formativi. Questo rende protagoniste fin da subito le persone, mi dà la possibilità di rispondere a richieste precise e mette già in luce i fili rossi in circolo, così importanti. Inoltre, nel corso dell’incontro, i partecipanti vedono prendere corpo (o meno) i valori/concetti/bisogni espressi nel primo giro di condivisione/presentazione. Raramente le persone restano indifferenti al processo. Questo è già l’inizio dell’ apprendimento, che poi avrà la possibilità di diventare nuova routine o cambiamento a seconda dei fattori personali e situazionali di ciascuno di noi.


Una frase che mi ha colpito del tuo blog: "il risultato di un'azione formativa di successo sta nel riuscire a creare le basi per trasformare l'ambiente di lavoro in una comunità in cui si può essere sé stessi...". In relazione a questo, la conoscenza in un'ottica di condivisione delle esperienze può incidere in un processo che porta consapevolezza di sé stessi?
La comunità prende forma se ci incontriamo sul terreno esistenziale, piuttosto che tecnico. Se lavoriamo sui nostri valori, le nostre capacità e qualità. Il tutto, allenandoci alla sospensione del giudizio, all’apertura, affinchè sia possibile, per tutti, esprimersi nel rispetto di sé stessi, degli altri e del luogo di lavoro. Condividere esperienze ci fa sentire meno soli, meno strani, ci fa avvicinare. Questo è valido anche quando facilito gruppi di colleghi, abituati a stare in relazione solo tramite il ruolo professionale. Rispettare il ruolo, arricchendolo con la nostra identità, migliora il clima di collaborazione, alimentando il benessere. La consapevolezza di se stessi aumenta proprio stando in relazione.

Comunicazione ed empatia, quanto le competenze relazionali sono importanti per migliorare l'ambiente lavorativo che diventi così collaborativo e sviluppi appieno l'idea di comunità di pratica?
Ogni organizzazione è un’organizzazione complessa perché deve coniugare diversi livelli di realtà: il mercato esterno (la domanda degli utenti, degli stake-holders, lo stato dell’economia etc.) con quello interno, ossia i suoi abitanti- cittadini che hanno sì, ruoli e mansioni, ma allo stesso tempo sono attraversati da emozioni, bisogni, aspettative. E’ difficilmente pensabile poter eccellere nella gestione del primo livello, dimenticandosi del secondo, o preoccupandosi degli aspetti solo materiali (retribuzione, piano ferie etc.).
Le ricerche in tema di organizzazione, svolte dalle principali società di consulenza internazionale (GreatPlaceToWork) e Università (Harvard Business School), rilevano empiricamente come la fiducia tra colleghi sia la caratteristica essenziale che contraddistingue i migliori ambienti di lavoro, con conseguenti risultati economici brillanti.
Uno spazio caratterizzato dall ’attenzione all’altro e dall’ espressività individuale ha un effetto diretto sulla stima reciproca e sullo sviluppo di relazioni interpersonali (empatiche) proficue e di reciproco vantaggio-benessere. Diviene evidente come la relazione –verso varie direzioni- sia al centro di qualsiasi progetto organizzativo di benessere e sviluppo.

Se dovessi tradurre quanto sopra in parole chiave, utilizzerei termini quali ascolto, apertura, entusiasmo, condivisione, sintonizzazione.
Il risultato di un’azione rivolta al benessere organizzativo sta nel riuscire a creare le basi per assimilare l'ambiente di lavoro ad una comunità, in cui si può essere se stessi, esplorare alternative con la possibilità di sbagliare, apprezzare la diversità dell’altro e tanti aspetti ancora.
In tal modo la “fatica quotidiana” condivisa si trasforma, diminuendo l’eventuale stato di tensione, chiusura, debolezza, che sono alcune delle manifestazioni causate dal blocco delle emozioni “negative” all’interno del corpo (solitamente fermo davanti al PC!). Spesso, in presenza di questo blocco, o a seguito di eccessivi carichi di lavoro, pensieri ed emozioni si alimentano fino a diventare un fastidioso circolo vizioso che aggiunge carico extra alla giornata lavorativa.

Come si potrebbe definire la 'comunicazione ecologica'?
Jerome Liss, professore ordinario all'Istituto di psicologia clinica dell'Università di La Jolla/Svizzera e fondatore della Scuola Italiana di Biosistemica, ha vissuto per diffondere la cultura dell’ascolto profondo e della comunicazione ecologica, ossia l’ applicazione dei principi ecologici alle relazioni umane: coltivare le risorse di ogni persona, rispettare la diversità e nello stesso tempo mantenere una coesione globale in modo che le persone possano agire insieme per un obiettivo comune. Personalmente, quando mi affidano “corsi” di comunicazione, ai committenti preciso sempre che la mia proposta è un percorso più che un corso, per tutto quello che ho descritto in precedenza. Allo stesso tempo, alle persone che incontro, faccio presente che alla base dell’apprendimento, soprattutto in una cornice di comunicazione-relazione,l’intenzione personale è fondamentale: se non desidero “incontrare l’Altro”, posso fare tutti i corsi del mondo, che non mi sarò spostata dalla mia posizione.



Barbara Costantini, counselor biosistemico con specializzazione in gruppi di auto-aiuto e master in gestione delle risorse umane, lavora da anni in ambito organizzativo (imprese, enti pubblici), facilitando lo sviluppo dei singoli e del gruppo di lavoro di cui fanno parte, come supporto al raggiungimento di obiettivi personali e aziendali, in un ambiente relazionale che si arricchisca della comunicazione ecologica e ascolto profondo (à la Jerome Liss). Svolge attività privata di counseling, coaching a mediazione corporea rivolta agli adulti. Facilitatrice con metodi attivi per enti di formazione in Emilia-Romagna. Dal 2007 co-conduce una compagnia di playback theatre (teatro sociale d’improvvisazione) che offre le performance nelle “comunità”, condividendo con esse storie ed emozioni. Videointervista al seguente link Conseling Biosistemico

lunedì 25 luglio 2016

Web 2.0 e la nascita del nuovo consumatore digitale: il PROSUMER

Negli ultimi anni il web, con la sua evoluzione da contenitore di informazioni (web 1.0) a strumento di interazione e relazione (web 2.0) ha profondamente trasformato le dinamiche socio-economiche e politiche che regolano la nostra quotidianità. E non solo. Ha rivoluzionato il paradigma della comunicazione e le sue regole di base. I Social Media hanno cambiato le regole della comunicazione e del marketing: le relazioni e gli affari si fanno e mantengono sempre di più nel mondo digitale.
Nel 1967 Paul Watzlawick, psicologo e filosofo austriaco naturalizzato americano, insieme ad altri studiosi della Scuola di Palo Alto (California), pubblicò il testo “Pragmatica della comunicazione umana” all’interno del quale definì gli assiomi della comunicazione: il primo assioma dice che è impossibile non comunicare, qualsiasi interazione umana è una forma di comunicazione, qualsiasi atteggiamento che un individuo assume è portatore di un significato per gli altri.
Se “non comunicare” è impossibile, comunicare male significa trasmettere un messaggio sbagliato di sè stessi.La comunicazione on-line è cambiata dal web 1.0 al web 2.0, se prima era necessario avere un sito almeno istituzionale, ora con il traslare della comunicazione verso il web 2.0 e i contenuti social è fondamentale comunicare in maniera globale, per sfruttare tutte le potenzialità e i vantaggi della social communication e della condivisione dei contenuti.
Il Web 2.0 non è un software né un nuovo protocollo. L'equivoco, potrebbe sorgere da quel “2.0”: una cosa che ricorda la modalità di denominazione di nuove versioni di un software ma da un punto di vista strettamente tecnologico, la seconda versione di Internet è del tutto equivalente alla prima. La differenza sostanziale risiede nell’approccio con cui gli utenti si rivolgono al Web: dalla semplice consultazione passiva dei contenuti alla produzione dinamica e attiva di pagine web e informazioni che vanno ad arricchire, popolare e alimentare la Rete. Non si tratta quindi della semplice consultazione delle e-mail, dell’uso dei motori di ricerca, della navigazione lineare del Web, bensì di una partecipazione interattiva alla pubblicazione di contenuti sul Web attraverso un maggior coinvolgimento degli utenti, che scrivono commenti, lasciano feedback e aprono diari personali on-line. Il Web è ora Live Web, composto da una parte dinamica e in costante aggiornamento. La nuova versione del Web riflette dunque la democratizzazione dei media, i cui contenuti sono accessibili e alla portata di tutti attraverso le nuove tecnologie. Esso è diventato un posto dove le persone possono pubblicare materiale e scambiare foto personali, possono creare legami e tenersi in contatto con gli amici, possono invitare altri ad ascoltare la loro musica, discutere insieme ad altre persone degli argomenti più svariati, non solo parlando di se stessi e delle cose che amano, ma pubblicando anche recensioni di notizie attuali (le quali talvolta generano commenti che portano le persone a instaurare legami virtuali stretti) quasi come se stessero discutendo seduti a un bar. Inoltre nella struttura del Web 2.0 vigono i principi di libera competizione e collaborazione propri dei sistemi Open Source: rispettando le stesse norme legali e a parità di know how, chiunque può prendere parte alla rete e lo scambio di informazioni utente–utente svela .
Il fenomeno del Web 2.0 sembra rappresentare la capacità di milioni di persone, che non sono programmatori, di utilizzare le potenzialità del web per inventare cose nuove e per socializzare in modo nuovo: si tratta quindi di creare un prodotto che sappia offrire agli utenti uno strumento di relazione attraverso la condivisione di contenuti.
In questi ultimi anni, si sta assistendo nel panorama tecnologico allo sviluppo e alla diffusione di strumenti che spiccano per nuove funzionalità e disponibilità; si pensi al Web 2.0, alle community virtuali, ai blog, alle enciclopedie multimediali libere e ai mondi virtuali in 3D. Tali innovazioni tecnologiche permettono che il rapporto fra utente/consumatore e produttore/distributore evolva fino a tradursi in un vero e proprio collaborazionismo, nonché nella personalizzazione del contenuto e delle forme dei prodotti (beni o servizi) offerti. Dalla mass customization si passa ad una nuova concezione della catena del valore focalizzata sull’utilizzo delle nuove tecnologie, le quali consentono al consumatore di intervenire con propri contributi nelle diverse fasi di realizzazione e commercializzazione del prodotto/servizio offerto dall’impresa. La competitività delle imprese, sempre più attente all’evoluzione della domanda, oggi è fondata non solo sull’ascolto del consumatore, ma sulla capacità e possibilità di coinvolgerlo nella progettazione del prodotto o servizio; si è giunti, dunque, ad una enfatizzazione del concetto di prosumer, termine usato per indicare che i consumatori non sono solo semplici attori passivi ma diventano veri e propri consumatori consapevoli e, in molti casi, addirittura produttori. Le prime esperienze e i primi test di “partecipazione” si possono effettuare on-line, magari in un blog o in un mondo virtuale in cui il potenziale consumatore viene invitato a presiedere ad eventi o convention virtuali organizzati dalle imprese e, successivamente, a divenire parte attiva della fase di progettazione del prodotto. Tali considerazioni fanno riflettere sui bisogni dei nuovi consumatori “digitali” che, tra le loro caratteristiche, hanno la necessità di “essere connessi” alla rete. Senza voler esasperare i concetti, è facile sostenere che nell’attuale realtà la lettura della posta elettronica e/o la connessione al sito preferito per le principali notizie quotidiane sono diventate quasi condizioni necessarie cui è difficile rinunciare.

martedì 28 giugno 2016

Il Knowledge Management, prassi applicabile dal Marketing alle attività per la Corporate Social Responsibility


"Di Knowledge Management per il potenziamento del marketing aziendale, degli ambiti applicativi, dei possibili sviluppi futuri abbiamo parlato con la Dott.ssa Anita Fabbretti, Marketing Communication Manager di Quattroemme Consulting s.r.l..

La diffusione del Knowledge Management in Italia non sembra ancora essere così massiccia. Quali sono secondo Lei le cause?
Perché le aziende italiane non sembrano ancora del tutto pronte per questo passo? In realtà bisogna saper interpretare quanto accade al di là di schemi rigidi. Le grandi organizzazioni, perlopiù multinazionali, e questo va sottolineato, in modo esplicito parlano di implementazione di sistemi per il km già da diversi anni. Soprattutto all’estero, da cui è partito il filone di studi e di applicazione del km, si ha ben chiaro cosa sia in ambito organizzativo, come va inquadrato, gestito e realizzato un progetto di questo genere. E questo si riflette nelle filiali mondiali delle aziende americane o di altri Paesi più maturi del nostro in questo ambito oppure in tutte quelle aziende italiane che si sono internazionalizzate.

Elementi cardine dei progetti per la gestione della conoscenza in ambito organizzativo sono i processi, la tecnologia e le persone. I processi aziendali sono l’essenza stessa dell’organizzazione, il suo modo di esprimersi e muoversi nel contesto di riferimento interno ed esterno, ne configurano, alimentano e sostengono, validandola, la struttura. La tecnologia è il fattore abilitante, il mezzo attraverso il quale l’azienda ottimizza le proprie procedure e realizza il ROI. Esistono tecnologie maggiormente “portate” ad essere la soluzione migliore per la realizzazione di knowledge management systems, ma quello che è fondamentale è la progettazione a livello architetturale di tutto l’ambiente, più che la piattaforma tecnologica di sviluppo. Un KMS efficace prevede l’integrazione di svariate tecnologie e strutture informatiche, nuove o già in essere. Non è necessario, se non in casi limite, costruire da zero un sistema informatico di raccolta, ricerca, gestione, elaborazione ed archiviazione dei dati e delle informazioni quale è un vero kms. Il terzo elemento sono le persone, ossia l’anima, il cuore e il cervello di ogni organizzazione, elementi attraverso cui tutto passa e tutto viene creato. I knowledge workers fanno la differenza in un progetto per il knowledge management. E sui knowledge workers va tarato un progetto per il km che possa fornire dei risultati e non morire nelle intenzioni degli sponsor interni del progetto.

Partendo da queste premesse è possibile dare una risposta. Il nostro tessuto economico è caratterizzato prevalentemente da PMI, che nel loro operare spesso realizzano pezzetti di sistemi per il km al fine di migliorare le proprie performance o per soddisfare richieste specifiche legate ad adempimenti necessari. Ma molte di queste organizzazioni, anche a causa della loro stessa natura, non hanno consapevolezza che migliorare una procedura, informatizzarla, e quindi migliorare un processo organizzativo puo’ avere risvolti più ampi e decisivi nel rendere un comparto o tutta l’organizzazione più snella ed efficace. Questi progetti non sono quindi solo per le grandi organizzazioni, ma in realtà sono applicabili a tutti i contesti organizzativi. Vanno semplicemente tarati sulle dimensioni organizzative e personalizzati in base alle esigenze. In Italia quindi il vero problema è la mancanza di una visione d’insieme su cosa sia il knowledge management e come praticarlo anche e soprattutto ai fini di business, e questa mancanza di visione avviene nella maggior parte delle organizzazioni. Si agevolano alcuni processi, si adottano soluzioni per migliorare l’archiviazione, la gestione e la condivisione dei documenti, si promuovono iniziative di collaborazione per team di lavoro, troppo spesso semplicemente adottando strumenti che la agevolano, ma magari non si interviene, al di là di momenti di formazione specifica sull’utilizzo degli strumenti e dei sistemi implementati, sul mettere le persone in condizione di cambiare mentalità, approccio e modo di lavorare. Non si interviene cioè sul fattore consapevolezza delle risorse umane che fanno parte del tessuto organizzativo e che sono le uniche a poterlo cambiare e trasformare. Tempi e costi sicuramente influiscono su questa errata valutazione. Un progetto di km prevede necessariamente un investimento e una progettualità organizzativa lungimirante. Il motivo del “fallimento” o dell’abbandono o cattiva gestione delle iniziative intraprese nell’ottica di realizzare una learning e knowledge organization dipende da una visione che privilegia il breve termine. Perché un conto è migliorare una procedura o realizzare un singolo episodio di team collaborativo, un conto è cambiare il modo di lavorare, di vivere l’organizzazione e la propria professionalità, sviluppando un senso di partecipazione e progettualità che sia scambievole tra la stessa organizzazione e gli individui che ne fanno parte. La vera resistenza/ostacolo in Italia è quindi di tipo culturale. E su questo bisogna lavorare principalmente. La nostra azienda, pur rispondendo alle esigenze dei clienti secondo quanto richiedono, fornisce un supporto nell’inquadrare questa tipologia di progetti secondo un quadro che sia appunto lungimirante.

Quali settori aziendali avvertirebbero maggiormente gli effetti positivi di un Knowledge Management System?
Tutti i settori organizzativi, in realtà, possono avere benefici in generale dall’adozione di pratiche per il km e di un KMS. Perché cambiano il modo di lavorare e di vivere gli obiettivi aziendali, migliorano la collaborazione e la visione d’insieme dell’agire organizzativo e alla lunga modificano e impattano su tutta l’organizzazione, rendendola più fluida, efficiente ed efficace. Procedendo per gradi sicuramente i primi risultati si hanno nel settore marketing e commerciale, che deve velocemente poter maneggiare ed elaborare tutte le informazioni necessarie per capire come muoversi nel proprio mercato per recuperare o mantenere competitività. Ma anche il settore R&D ne ha dei grandi benefici e anzi dovrebbe tendere per sua natura a sentire la necessità di adottare un KMS. Ma lo stesso vale per l’area Risorse Umane o per l’area Amministrativa e Finanza e Controllo. Creare dei gruppi di studio, di lavoro su un determinato focus fornendo un ambiente collaborativo oggi grazie ad alcune soluzioni tecnologiche è relativamente semplice. Lo stesso vale per i sistemi di raccolta, gestione, archiviazione delle informazioni aziendali e per i sistemi di data analysis e cruscottistica che supportano le Direzioni nelle decisioni strategiche aziendali. Il vero salto di qualità semmai è inquadrare questi singoli episodi o iniziative in una metodica, in una pratica aziendale che possa impattare su tutta l’organizzazione facendola evolvere e proiettandola in una dimensione più congrua al periodo che stiamo vivendo e alle necessità emergenti. Un KMS nel suo complesso è un sistema che deve mettere gli utenti in condizione di: accedere, fare ricerche, elaborare i dati e le informazioni, organizzarle, archiviarle, fornire delle forme aggregative di dati provenienti da diverse fonti per effettuare delle analisi e quindi dei ragionamenti per prendere delle decisioni, mettere a disposizione di tutta l’organizzazione questa conoscenza (implicita ed esplicita), individuando le varie finalità di business. E’ quindi fondamentalmente un sistema tecnologicamente integrato, supportato da pratiche aziendali che insegnano e promuovono metodologie e approcci lavorativi di tipo collaborativo, che tutte le forme possibili di interazione e comunicazione interne ed esterne all’organizzazione. Questo significa che un KMS ben progettato ed implementato può agevolare il raggiungimento dei fini aziendali, ma avrà un senso e porterà benefici solo se ben compreso relativamente alle finalità ultime e non solo ai task giornalieri, anche dagli utenti coinvolti.

Quanto può influenzare il KM per il potenziamento di una strategia di marketing aziendale?
Il km è fondamentale per quest’area, come ho accennato. Perché lo scopo fondamentale è gestire la conoscenza per creare altra conoscenza ai fini del business. La nostra esperienza ci ha portato a definire questo ambito di attività consulenziali e di sviluppo software per l’implementazione di sistemi collaborativi, di document and information management, di business intelligence come progetti per il Business Knowledge Management, appunto focalizzati allo sviluppo delle organizzazioni che li adottano e al raggiungimento degli obiettivi aziendali che si prefiggono.

Il marketing aziendale è a supporto dell’attività commerciale e della creazione e rinforzo dell’immagine aziendale o di prodotto, sia verso gli stakeholders esterni, che verso quelli interni. Ha un compito quindi molto delicato e finalità trasversali. Necessita di tutte le informazioni necessarie ad elaborare corrette strategie per realizzare gli obiettivi individuati. Tali informazioni devono essere fresche, provenire dalle fonti più disparate e quindi andranno raccolte con gli strumenti adeguati per i vari ambiti di ricerca, in modo da poter essere poi trasformate in conoscenza, che è uno dei valori intangibili delle aziende. Inoltre, una strategia di marketing ha la necessità di monitorare costantemente i risultati delle attività in corso, in modo da poter velocemente elaborare anche dei cambi di rotta o eventuali aggiustamenti in caso di scollamenti o ritardi. Il km fornisce tutti gli strumenti necessari per svolgere questa importante funzione in modo efficace. Ma, come già detto, deve essere approcciato con una visione ampia e applicato per gradi, per poter fornire i risultati sperati. Deve essere lungimirante e nello stesso tempo muoversi con obiettivi di breve termine. Solo così si potrà innescare quella spirale della conoscenza che nei tempi giusti potrà rendere l’organizzazione una learning e poi knowledge organization, leader di competitività in un mercato sempre più difficile da vivere e interpretare.

Quali scenari futuri può avere il Knowledge Management e in che direzione si muoverà?

Gli scenari auspicati sono quelli che però si vedranno nel lungo periodo, ossia di organizzazioni che avranno imparato a muoversi nel mondo liquido, come Bauman insegna, in continuo e imprevedibile movimento e che sapranno quindi adattarsi, rispondendo energicamente alle sollecitazioni del mercato e della società, senza rimanerne schiacciate. Organizzazioni i cui confini saranno definiti solo dalle relazioni, dai movimenti della conoscenza e dalle transazioni che nasceranno da queste interazioni. Il km porta ad un modo nuovo di vivere l’organizzazione. Un modo nuovo di esprimersi negli ambiti organizzativi e di realizzare gli obiettivi personali che diventeranno anche gli obiettivi aziendali e viceversa. Flessibilità non sarà sinonimo di mancanza di ossatura, ma significherà sapersi orientare con disinvoltura nel proprio mondo di relazioni finalizzate a creare e rigenerare i fini di business e di sviluppo personale. Credo che sia auspicabile una utilizzazione delle modalità e degli strumenti per il km alle attività che le organizzazioni intraprendono in ambito di Corporate Social Responsibility, in particolare relativamente allo sviluppo delle competenze delle persone, così come indicato dalla Comunità Europea. Le imprese che investono in pratiche di CSR, in particolare relativamente allo sviluppo delle Risorse Umane, si rendono maggiormente produttive e competitive. Attività portate avanti secondo i dettami della Responsabilità Sociale d’Impresa comportano effetti diretti ed effetti indiretti. Far crescere la consapevolezza delle persone nel loro ambito lavorativo e professionale agisce infatti sulla motivazione e sul rendimento. Porre attenzione allo sviluppo delle competenze specifiche e trasversali dei propri collaboratori rende le imprese capaci di innovare e quindi di essere maggiormente competitive. Inoltre, un’organizzazione che si muove in modo socialmente responsabile riscuote l’attenzione dei propri stakeholders, tra in quali vanno annoverati investitori e consumatori, perché migliorerà l’immagine e la reputazione d’impresa, oltre a rinforzare il proprio valore etico, che come sappiamo sono i punti di forza sui quali si regge la crescita e lo sviluppo economico della stessa.

Il KM ha un aspetto filosofico teorico che è la ragione stessa dell’esistenza di questo filone di studi: porre la gestione della conoscenza come valore e finalità suprema in quella che viene definita l’economia della conoscenza, il cui sviluppo diventa volano anche per una crescita economica. Ha poi un aspetto pragmatico che comprende l’implementazione di infrastrutture tecnologiche adeguate per la gestione dei processi che devono ottimizzare o facilitare. Ed infine, un aspetto morale che si rivela nell’attenzione rivolta allo sviluppo delle persone, sia relativamente a competenze specifiche, tecniche, di know how, che trasversali utilizzabili e spendibili in qualsiasi ambito. Matchando questo con i dettami della CSR ogni organizzazione potrà creare un ambiente ottimale interno in cui poter far crescere e tutelare i propri componenti e a sua volta, in un circolo virtuoso, potrà fiorire e competere in quello esterno."




martedì 10 maggio 2016

Il web come piattaforma

L'utilizzo del Web come piattaforma è una delle più grandi novità del web 2.0, in quanto racchiude molti elementi tra di loro uniti in interconnessioni logiche, quali: tecnologia, dinamiche sociali, esperienza e partecipazione dell'utente, quindi delle persone.
Web come piattaforma significa poter utilizzare Internet per realizzare vere e proprie applicazioni sw, distribuite e usate dal alto utente grazie alla Rete stessa.
Con poche eccezioni(come applicazioni di Webmailing e home banking), il web fino a poco tempo fa proponeva solo dei contenitori di informazioni, i cosiddetti 'siti/informations', in genere monodirezionali, che dal creatore andavano verso l'utente finale, offrendo contenuti e funzionalità; l'utente finale, quindi, fruiva delle informazioni proposte, senza poterle rielaborare o modificare in alcun modo.
Oggi questi contenitori diventano vere e proprie 'applicazioni' e servizi per gli utenti basati su un'elevata interazione bidirezionale proprio come in una computing Platform. In questo caso, per piattaforma si intende una serie di operazioni pratiche e funzionali, legate tra di loro.
Il sito, utilizzato all'epoca del web 1.0 sembra quindi essere superato da altre applicazioni di tipo user content management (blog, corporate portal, ecc...).
Tecnologicamente il web diventa piattaforma grazie all'utilizzo di applicazioni sw (come ad esempio RSS e AJAX)che si possono sviluppare per i più svariati usi; il sw in questo caso diventa un servizio di comunicazione, mediante il quale è possibile condividere dati tra le stesse applicazioni web.
Dal punto di vista dell'utente, il web diventa piattaforma perché può essere utilizzato per la creazione di nuova intelligenza collettiva, o più semplicemente di materiale informativo condiviso, diventando così forma di creazione e sviluppo di nuova conoscenza, a partire da contenuti aperti e rilasciati sotto Creative Commons.

mercoledì 4 maggio 2016

La componente sociale nel web 2.0

Il web 2.0 non è solo una nuova tecnologia o un nuovo insieme di tecnologie, e non è un semplice cambiamento culturale di approccio alla rete. Tecnologia e società insieme sono le vere basi del web 2.0 che, a pieno titolo, può essere definito un 'movimento'.

La componente tecnologica ha in sé anche la componente sociale in quanto nel web 2.0 non ci si trova di fronte a nuove scoperte o nuove tecnologie, ma piuttosto si assiste all'affermazione e alla diffusione significativa nell'ambito delle comunità tecnologiche, di sviluppatori e di architetti applicativi, di tecnologie che consentono di abilitare un utilizzo della rete incentrato sulla persona e sugli aspetti sociali.
D'altro canto, la componente sociale, intesa come aspetto di interazione sociale, e il cambiamento di approccio dalla consultazione (ricerca di informazioni, facilità di comunicazione, ecc.), al contributo e alla partecipazione sul web sono possibili solo grazie alla diffusione e adozione della tecnologia informatica su larga scala, vero fattore abilitante della comunicazione tra utenti della condivisione di informazioni, dati e processi di lavoro, sia a livello culturale che professionale.
Dovendo però classificare le caratteristiche del web 2.0, si potrebbe fare riferimento ai seguenti elementi:
- TECNOLOGIA: ampia diffusione e utilizzo di tecnologie a supporto dell'utente che utilizza, plasma, modifica un servizio bidirezionale, e non naviga semplicemente in un sito;
- RICH USER EXPERIENCE: consente di realizzare un'esperienza utente nell'utilizzo delle applicazioni web su internet e di siti paragonabili a quella dell'utilizzo di un'applicazione che gira in locale;
- OPEN SOURCE: il fenomeno della condivisione contagia tutto, dal codice allo stesso sw, dai dati alle applicazioni, ai contenuti. Si affermano nuovi comportamenti di condivisione e distribuzione libera attraverso la rete di ogni cosa, sia dato, informazione, immagine, video, ecc.;
- SOCIAL NETWORK: partecipazione e relazioni sociali che favoriscono nuove forme di vita sociale e di community, alla base di nuove forme di intelligenza collettiva.

Il vero comun denominatore di tutti questi elementi è rappresentato dalle PERSONE, che ogni giorno contribuiscono a diffondere tecnologie e comportamenti di massa, creando innovazione tecnologica e sociale. Al centro di tutto ci sono le persone e i fenomeni culturali e sociali sviluppati a partire dalla loro interazione sul web. In definitiva, nessuno di questi fattori si è sviluppato prima o può essere considerato causa degli altri. L'evoluzione autonoma di ognuno di essi favorisce lo sviluppo e la crescita degli altri.

sabato 28 novembre 2015

Globalizzazione e “connettività complessa”: le condizioni empiriche della Società Interconnessa | controllo vs cooperazione - Articolo del Dott. Piero Dominici

Attraversiamo un’età secolare contrassegnata da un continuo processo di ridefinizione degli immaginari sociali e degli orizzonti morali, da una sorta di Grande Sradicamento (Great Disembedding) (Taylor, 2007) che ha messo in discussione il concetto stesso di identità; una fase di mutamento che è sembrata configurarsi più come l’era del trionfo della pluralità dei giochi linguistici – aventi come fulcro l’azione sociale - che come l’era del globale e dell’omogeneo (Lyotard vs.Habermas). Il pensiero moderno e contemporaneo, quindi, sembra partire proprio dalla consapevolezza di questa crisi, dal dato di fatto che non esistono più conoscenze indiscutibili, culture predominanti, valori assoluti, verità incontrovertibili, bensì conoscenze probabilisticamente e statisticamente attendibili, valori relativi, spiegazioni complesse. In altri termini, si prende atto che la conoscenza, oltre ad essere il risultato di un complesso processo di acquisizione intersoggettiva, costituisce l’esito tutt’altro che scontato di un percorso che si sviluppa, non tanto per deduzione logica o semplice accumulazione lineare di informazioni, quanto per tentativi ed errori (casuali o sistematici) in grado di far avanzare il pensiero e la ricerca. Si tratta, fondamentalmente, di una crisi della razionalità occidentale e delle forme di vita da essa prodotte; una crisi che coincide con un momento autopoietico di autoriproduzione e autorinnovamento.

La dinamicità intrinseca, che ne è scaturita, ha avuto come sua prima conseguenza un processo di sviluppo ineguale (la globalizzazione) che si è concretizzato in nuove forme di interdipendenza dall’impatto globale che il sapere riflessivo rende (auto)evidenti. La stessa globalizzazione, a nostro avviso, non si è mai rivelata come un momento di frattura – concetto di postmodernità (rispetto alla cosiddetta prima modernità; al contrario, essa ha costantemente mantenuto al suo interno tutte le contraddizioni tipiche del moderno, estendendole su scala globale e radicalizzandone gli effetti (si pensi anche al concetto di ipermodernità, alternativo proprio a quello di postmodernità). L’economia globale della conoscenza continua a mantenere al suo interno due spinte, già presenti nel moderno, che si affrontano dialetticamente in campo aperto: da una parte l’interdipendenza (e interconnessione) economica e tecnologica, dall’altra, la frammentazione sociale, politica e culturale. Alla base di queste dinamiche vi è, in ogni caso, la ben nota consapevolezza della crisi del pensiero non più in grado di fornire modelli di problemi e soluzioni accettabili (Kuhn,1962)

La comunicazione, in modo complementare allo sviluppo delle forze produttive, è stata da sempre la variabile decisiva per lo sviluppo dei sistemi sociali. Il miglioramento dei flussi comunicativi, dal vertice alla base delle società umane, ha rappresentato sempre un progresso, quanto meno un momento di passaggio verso nuove forme della socialità e nuove forme di mediazione degli interessi e dei conflitti: la nascita dei sistemi democratici, la diplomazia nei rapporti internazionali e la burocrazia in quelli tra cittadino e Stato, ne sono degli esempi paradigmatici. Nell’attuale fase di mutamento, oltretutto contrassegnata da una profonda crisi (evidentemente) non soltanto economica, la comunicazione e la conoscenza sociale potrebbero concretamente contribuire anche ad un processo di riavvicinamento tra sistema di potere e società civile, definendo una nuova simmetria dei rapporti sociali, con inevitabile riconfigurazione e riposizionamento della sfera pubblica. In termini pratici, ciò si tradurrebbe nel rafforzamento di un’opinione pubblica (locale e globale) sempre più critica e informata e, per questa ragione, sempre più partecipe e destinataria attiva delle scelte della Politica. Potrebbe essere questo il vero valore aggiunto della modernità radicale, dopo la grande illusione del postmoderno. Da questo punto di vista, il nuovo ecosistema della conoscenza trova nell’economia interconnessa potenziali opportunità di democratizzazione della conoscenza e dei processi culturali in grado di scardinare, definitivamente, il vecchio modello industriale costituito da assetti consolidati, gerarchie, logiche di controllo e di chiusura al cambiamento. La conoscenza, risorsa immateriale strategica per il mutamento in corso, comincia ad essere sempre più vista e percepita come bene comune in grado di ristabilire rapporti sociali e di potere meno squilibrati e asimmetrici.

In questa stessa linea di discorso, è di vitale importanza il non ricadere nell’errore storico di misurare le disuguaglianze solo sulla base di indicatori economici: l’accesso alla conoscenza, all’informazione, all’istruzione, la possibilità di vedere riconosciuti la propria identità e i diritti di cittadinanza, l’eguaglianza delle opportunità, le libertà di manifestare liberamente il proprio pensiero e di realizzarsi, lo sviluppo della società aperta sono indicatori fondamentali tanto quanto il reddito pro-capite o il PIL. La politica deve attivarsi affinché i media sociali e le reti diventino tecnologie di cooperazione e non di controllo, aprendo alla sperimentazione di nuove forme di partecipazione democratica ed al potere delle moltitudini mobili e intelligenti (Rheingold, 2002).

La logica del libero mercato autoregolato ha avuto un peso rilevante ma la dimensione socioculturale continua a rimanere assolutamente strategica nella lettura anche di fenomeni e processi economici. In tal senso, non possiamo non prendere atto come la società globale sia stata plasmata dai valori di un individualismo talvolta esasperato – anche dalla stessa retorica postmoderna – e dal mito di una produttività senza lavoratori. A nostro avviso, è stata creata quasi una mitologia dell’Individuo autonomo e svincolato da ogni legame, un individuo che, per le sue azioni, sembra non dover rispondere a niente e nessuno: altro che il riferimento alla ben nota distinzione tra etiche dell’intenzione ed etiche della responsabilità. Siamo andati ben al di là di ogni vincolo giuridico e/o culturale: contano il denaro e il consumo e l’unico (micro)potere dei cittadini è nel loro essere consumatori. Tali dimensioni, insieme al vuoto di significato lasciato dalla crisi delle ideologie, hanno prodotto, tra le conseguenze, anche una sorta di generale disarmo morale, che nutre la società dell’irresponsabilità (Dominici, 2010) – un tipo di società dove, al di là di un quadro normativo e deontologico estremamente articolato, l’etica e la responsabilità sono molto “parlate” e discusse, ma poco praticate – priva di qualsiasi etica del sacrificio. La mitologia dell’individuo sovrano, portatore di diritti ma non di doveri, ha prodotto danni difficilmente calcolabili/valutabili soprattutto per ciò che concerne il rispetto del Bene comune e della “cosa pubblica”, ma anche il modo di percepire e osservare norme, valori, regole, modelli di comportamento etc.; una mitologia o, per meglio dire, una narrazione che ha prodotto, tra gli altri effetti, una deregolamentazione negativa e una deresponsabilizzazione degli attori sociali, a tutti i livelli. Anche da questo punto di vista, occorre uscire da questa fase di navigazione a vista, in cui i legami tra l’individuo e le istituzioni, tra l’individuo e le tradizionali agenzie di socializzazione (famiglia, scuola, religione etc.), tra la Politica e i cittadini, si sono fortemente indeboliti e questa distanza che si è creata ha certamente favorito il coinvolgimento sempre più massiccio e decisivo dei media – e nello specifico della Rete e dei media sociali – nel processo di formazione delle identità individuali e collettive e, perfino, nel riconoscimento e nella definizione operativa delle istanze sociali su cui operare delle rivendicazioni nei confronti della Politica. Questa ulteriore proliferazione dei centri formativi e, più in generale, delle arene in cui si sostanzia il pensiero e si progetta la prassi procede di pari passo con la crisi comunicativa che ha investito le istituzioni e gli attori tradizionali del processo formativo, sospesi tra informazione eccessiva e paura della disconnessione.

L’egemonia della razionalità strumentale e dell’economia di mercato (autoregolato) ha finito con il far trionfare una logica di dominio che è stata estesa alla totalità della vita sociale. Tale processo ha indebolito anche i legami che trasformano le scelte individuali in progetti e azioni collettive. Al livello della coabitazione sociale, si è generata pertanto una società globale fortemente individualizzata, che scarica molte più responsabilità sulle spalle di ogni singolo attore sociale richiedendo una libertà responsabile. Sotto questo aspetto, lo sviluppo delle forme di comunicazione mediata (Thompson,1995), al di là dei vantaggi in termini di telelavoro e di distribuzione della conoscenza, potrebbe anche raffreddare ulteriormente i meccanismi protagonisti della produzione di capitale sociale.

La crescita esponenziale del potere finanziario ha avuto conseguenze estremamente negative per l’economia-mondo e, soprattutto, per la vita delle persone; il processo di formazione di uno spazio virtuale, ove far scorrere ad altissima velocità i flussi economici ed informativi, non ha fatto altro che privare la Politica e i sistemi di potere del controllo sul proprio corpo, separandoli ulteriormente dalla società civile e dai singoli attori sociali. E credere che la tecnologia (in particolare, le reti) possa risolvere qualsiasi problema, compreso il riavvicinamento tra Politica e cittadini potrebbe rivelarsi l’ennesimo errore fatale. Dal momento che la prassi politica e sociale, pur trovando nuove arene virtuali di costruzione e organizzazione del consenso e/o delle opinioni, richiede il passaggio cruciale dall’elaborazione teorica all’azione pratica, concreta, che deve incidere sul decisore politico. E per far questo occorrono attori sociali informati e criticamente formati in carne e ossa, destinatari attivi e consapevoli dentro le loro reti di cooperazione sociale.

La società degli individui, emancipatasi dai vincoli della tradizione e, in un certo senso, in balìa della crescita del potenziale della razionalità rivolta allo scopo, deve fronteggiare la crescita esponenziale delle forze produttive che rende il processo di modernizzazione riflessivo, cioè tema e problema di sé stesso.

Il vantaggio è senza dubbio legato al fatto che tali rischi non hanno più la possibilità – come in passato – di essere ignorati dalla sfera pubblica e dalle opinioni pubbliche. Ed è proprio questa la prospettiva in cui si inquadra l’analisi di John Tomlinson (1999) sulla globalizzazione che va intesa, in primo luogo, come un fenomeno culturale costituito da una rete di esperienze che, attraverso i meccanismi di disaggregazione spazio-temporale, modifica in profondità la percezione dei luoghi fisici nei quali ci confrontiamo con l’Altro, estendendo su scala globale gli effetti delle scelte locali adottate. La cultura si configura come risorsa transnazionale. La globalizzazione costituisce la condizione empirica del mondo moderno, condizione che viene associata al concetto di connettività complessa, intesa come processo di «costante infittimento delle reti di interconnessione e interdipendenze che caratterizzano la vita sociale moderna» (Tomlinson, 1999). Si tratta di un processo che può essere interpretato, oltre che come il trionfo della razionalità soggettivistica e strumentale occidentale, anche come il trionfo di un’ideologia omnicomprensiva e totalizzante che avvolge, ingloba, plasma tutte le sfere della prassi e della vita reale. E la critica alla globalizzazione (Gallino, 2000; Stiglitz, 2002), produttrice di un individualismo disgregatore (Touraine A., 2004), è, in realtà, una critica al sistema capitalistico globale (Magatti, 2009) reo di aver infranto l’antica alleanza tra capitalismo e democrazia e di aver puntato esclusivamente su uno sviluppo economico e tecnologico senza considerare le implicazioni sociali e sui singoli individui. L’economia-mondo sta progressivamente depotenziando i meccanismi e i dispositivi propri dei regimi democratici e tutto ciò ha profonde ripercussioni non soltanto su assetti e gerarchie del sistema produttivo globale ma anche, e soprattutto, sull’architettura complessiva dei diritti e delle tutele riguardanti le persone e, nello specifico, i lavoratori. Si verifica così il passaggio dalla società del lavoro alla società del rischio (Beck,1986,1999 e 2007), con la definitiva affermazione di un’economia politica dell’insicurezza.


Articolo tratto da http://www.ethicalcom.net/globalizzazione-connettivita-complessa-piero-dominici/#sthash.2cy7bIQ5.dpuf

mercoledì 4 novembre 2015

Online collaboration, strumenti e metodologie

Per collaborare online occorrono dei servizi e degli applicativi che permettono di
utilizzarli.
Un servizio molto importante è il Cloud computing (in italiano si potrebbe tradurre con elaborazione nella nuvola, dove la nuvola simboleggia internet). Da un punto di vista tecnico, il cloud è sia uno spazio di archiviazione su server remoti messi a disposizione, gratuitamente o a pagamento, da diverse aziende, sia una serie di applicativi basati sul web, i quali cioè non richiedono l'installazione sul proprio computer, ma vengono utilizzati tramite un comune browser web.
Gli strumenti che traggono maggiore vantaggio da questi servizi sono le tecnologie mobili, una serie di dispositivi come gli smartphone e i tablet e le tecnologie che ne permettono il collegamento alla rete dati.
Questi dispositivi e i servizi ad essi collegati permettono di utilizzare strumenti come:
– le comuni applicazioni di produttività, per esempio la videoscrittura, i fogli di calcolo o le presentazioni
– i media sociali, che permettono di mettere in comunicazione gli utenti e di scambiare informazioni tra di loro
– i calendari online che, essendo condivisibili con altri, facilitano le riunioni e gli appuntamenti tra persone
– le riunioni online, dette anche videoconferenze, che danno la possibilità di incontrare altre persone per discutere e scambiarsi opinioni, senza doversi spostare fisicamente, semplicemente usando undispositivo connesso a internet e un applicativo
– gli ambienti di apprendimento online permettono di partecipare a corsi anche complessi e di poter interagire col docente senza doversi recare fisicamente presso il luogo in cui vengono erogati.

Gli strumenti di collaborazione online hanno alcune caratteristiche che ne denotano l'uso e le funzionalità:
– affinché sia possibile la collaborazione, è necessario che utenti multipli possano accedere al servizio – le attività vengono svolte real time (in tempo reale): il lavoro svolto su un file deve poter essere riutilizzato istantaneamente da altri partecipanti
– ciò che si fa deve avere diffusione su scala globale, cioè poter essere fatto ovunque e non essere confinato in una zona particolare
– infine tali attività si svolgono con accessi concorrenti cioè più persone possono accedere alla stessa risorsa e modificarla contemporaneamente.

I vantaggi della collaborazione online sono molteplici:
– più utenti possono condividere file sui quali lavorare e calendari per mezzo dei quali coordinare i propri impegni lavorativi e non solo
– le riunioni online riducono o addirittura eliminano le spese di viaggio
– vengono messi a disposizione diversi strumenti (email, VoIP, chat, videoconferenza) che facilitano la comunicazione
– la facilità di comunicazione migliora il lavoro di gruppo
– la possibilità di accedere a internet quasi ovunque, rende globale l'accesso a questi strumenti, per cui è possibile collaborare online anche in mobilità.

Il cloud computing permette a più utenti autorizzati di accedere a file e documenti condivisi, disponibili sempre e ovunque sia disponibile un accesso a internet, e con qualsiasi dispositivo, fisso o mobile.
Inoltre permette di utilizzare una serie di applicazioni che facilitano la comunicazione tra utenti, come la posta elettronica, l'instant messaging, la videoconferenza e così via. Sul cloud sono disponibili anche applicazione basate sul web, che permettono di lavorare anche senza che il software sia installato sul dipsositivo.
Utilizzare i servizi cloud ha diversi vantaggi:
– riduce i costi rispetto all'installazione degli applicativi sui dispositivi
– permette di lavorare ovunque utilizzando qualsiasi tipo di dispositivo, a condizione che sia possibile connettersi a internet
– è possibile adeguare lo spazio disponibile e le applicazioni utilizzabili in base alle esigenze, che possono variare nel corso del tempo
– le applicazione vengono aggiornate automaticamente dal gestore pertanto non devono essere modificate sui dispositivi utilizzati, riducendo i costi di manutenzione.

Il cloud computing non ha solo vantaggi, ma anche possibili rischi:
– poiché i servizi sopra accennati sono disponibili solo in presenza di un accesso a internet, che viene fornito da un provider (ISP), si dipende da esso per poter utilizzare i dati memorizzati in remoto e le applicazioni web
– è possibile che, a causa di accessi non autorizzati o di malware, i dati non siano protetti in modo ottimale
– se si verifica questa condizione, sono possibili perdite di dati.
Oltre allo spazio di archiviazione online, nel cloud è possibile utilizzare delle comuni applicazioni di produttività, simili a quelle che normalmente sono installate sui computer:
– elaboratori di testi, che permettono di scrivere documenti di testo, e possono essere utilizzati al posto di Writer o di Word
– fogli elettronici, che permettono di svolgere calcoli e funzioni su dati numerici, nonché di realizzare grafici, e che possono essere utilizzati al posto di Calc o Excel
– presentazioni multimediali, che permettono di realizzare diapositive da proiettare a un pubblico per esporre idee, e che possono essere utilizzate al posto di Impress o Powerpoint.

Tuttavia hanno delle funzionalità aggiuntive, rispetto a quelle installate in locale, di enorme importanza per la collaborazione online. In particolare permettono di:
– lavorare in più persone contemporaneamente sullo stesso file, facilitando il lavoro di gruppo e la collaborazione.
– condividere file e cartelle in modo che più persone autorizzate possano accedervi.

Esistono molti media sociali che permettono la collaborazione online, in modalità simili ma con qualche differenza:
– le reti sociali, come Facebook, Google+, Linkedin e molti altri, sono dei siti web che mettono in comunicazione i propri utenti a scopi ricreativi o professionali
– i wiki, come Wikipedia, sono dei siti web che producono conoscenza in modo collaborativo grazie ai propri utenti
– i forum e gruppi di discussione, sono dei siti web che permettono agli utenti di porre domande e dare risposte gli uni gli altri; vengono utilizzati molto da gruppi di utenti di prodotti, spesso legati al mondo dell'informatica ma non solo
– i blog, sono dei siti web in cui l'autore (blogger) scrive in modo regolare articoli generalmente tematici, che possono essere commentati dai lettori. Sono molto diffusi i blog di viaggi, quelli letterari e recentemente i blog di carattere politico
– i microblog, come Twitter, sono caratterizzati dalla lunghezza (o meglio, dalla brevità) dei messaggi normalmente entro i 140 caratteri. Hanno alcune caratteristiche che li fanno assomigliore ai blog, come la diffusione di informazioni, soprattutto di carattere politico, ed altre che li fanno assomigliare alle reti sociali (contatti tra utenti)
– le Comunità di condivisione dei contenuti sono dei siti web i cui gli utenti condividono un interesse specifico. Molto diffuse sono le comunità che condividono interesse per la fotografia, come Flickr o Picasa. Sono diffuse anche le comunità di videogiocatori.

L'apprendimento online è diventato in questi ultimi anni uno strumento di grande importanza nella formazione, soprattutto per la formazione universitaria e post universitaria, e per l'aggiornamento professionale, ma anche e sempre di più nella formazione scolastica dove si affianca all'insegnamento tradizionale in presenza, come
dimostrano le recenti esperienze anche in Italia con le classi 2.0 e con il progetto Generazione Web.
Esistono differenti ambienti di apprendimento online, per esempio un VLE è una piattaforma che mette a disposizione dei contenuti, degli strumenti di comunicazione, come la posta elettronica, la chat o la videoconferenza, e degli strumenti di collaborazione online come il forum, il wiki ed altro ancora.
Un LMS è un'applicazione generalmente basata sul web, come per esempio Moodle, che fornisce gli strumenti per amministrare corsi online.

In un ambiente di apprendimento online sono presenti alcune funzioni necessarie, come:
– il calendario, che permette di segnalare le date e gli orari degli eventi previsti, per esempio una videoconferenza o un incontro in chat
– la bacheca, nella quale inserire gli avvisi per gli studenti e le classi, o i corsisti
– la chat, che permette di comunicare in via testuale in tempo reale tra studenti o corsisti e tra docente e studenti o corsisti
– le registrazioni delle valutazioni, comunemente chiamata portfolio, in cui il docente annota i risultati dei test e lo studente o corsista può visualizzare il proprio stato o rendimento.

I dispositivi mobili da qualche tempo sono sempre più potenti e versatili e pertanto
permettono di svolgere in mobilità attività che fino a qualche anno fa erano possibili solo con computer fissi o notebook.
Uno smartphone (letteralmente: telefono intelligente) è un dispositivo mobile che da un lato permette di effettuare telefonate ed inviare brevi messaggi di testo (SMS) tramite la rete mobile, e dall'altro di connettersi a internet per utilizzarne tramite apposite
applicazioni i servizi, come la navigazione nel web, la posta elettronica, i media
sociali e così via.
Un tablet (letteralmente: tavoletta) è un dispositivo mobile, leggero e utilizzabile
tenendolo in mano, dotato di uno schermo sensibile al tocco di dimensioni maggiori
rispetto a uno smartphone (generalmente da 7' a 10') e che per questo motivo
semplifica l'utilizzo della maggior parte delle applicazioni. I tablet non permettono di
effettuare chiamate telefoniche ma tipicamente sono connessi a internet o tramite una
connessione wifi; alcuni tablet dispongono anche di un apparato radio 3/4G.

Sia i tablet che gli smartphone sono in pratica dei piccoli computer, dotati di processore, memoria di sistema e di massa, dispositivi di input/output che hanno bisogno di essere fatti interagire da uno strato software, il sistema operativo, che svolge lo stesso ruolo del sistema operativo di un computer.
I sistemi operativi più diffusi su questi dispositivi mobili, anche per il fatto di essere stati precursori, sono iOS di Apple, utilizzato esclusivamente sui dispositivi prodotti dalla casa di Cupertino, e Android di Google, che viene utilizzato così com'è o in parte modificato, da moltissime case produttrici di dispositivi, per esempio
Samsung, Sony e molte altre. Microsoft è partita in ritardo con i sistemi operativi per dispositivi mobili, per cui il ruolo di Windows in questo settore è al momento marginale.

I dispositivi mobili si connettono alla rete e a internet in particolare utilizzando delle tecnologie senza fili, al contrario di quanto avviene generalmente per i computer, che usano tecnologie cablate (ethernet).
Le più diffuse opzioni di connessione sono le seguenti:
– le reti wireless, quasi sempre di tipo Wi-fi, che sono spesso disponibili nelle abitazioni, dove l'accesso a internet avviene generalmente tramite un apparato che comprende un modem, uno switch, per le connessioni cablate, e un access point, per le connessioni wi-fi, nelle aziende ed anche in luoghi pubblici, come biblioteche, scuole o parchi
– le reti di telefonia mobile in standard 3G (di terza generazione) o 4G (di quarta generazione), che servono per la connessione telefonica e dati in mobilità.
Le reti wifi utilizzano differenti standard, che in pratica sono l'uno evoluzione del precedente. Il primo standard era l'802.11b caratterizzato da una velocità massima teorica di 11 mbps, mentre lo standard più recente è l'802.11ac, caratterizzato da una velocità massima teorica di 3 gpbs. Naturalmente queste sono le velocità a
livello di rete locale: la velocità di accesso a internet dipende da quella della connessione a internet (gateway) della rete alla quale ci si connette. Il costo di connessione tramite wifi è a carico del gestore della rete locale, quindi se ci si connette tramite la rete aziendale o pubblica, per l'utente non c'è alcun costo. Se ci si connette tramite la propria rete domestica, il costo è quello della normale connessione ADSL. Normalmente se la connessione a internet è di tipo ADSL, non ci sono limiti né temporali, né di quantità di dati scaricabili.
Le reti mobili di generazione precedente avevano velocità di connessione a internet risibili. Quelle di terza generazione (3G) hanno diversi standard e possono avere una velocità massima teorica fino a circa 42 mbps, mentre quelle di quarta generazione (4G o LTE, Long Term Evolution) hanno velocità massime teoriche fino a 3 gbps. Naturalmente queste velocità sono solo teoriche mentre quelle effettive dipendono da molteplici fattori, come le caratteristiche del dispositivo, la copertura del territorio non del tutto completa, il numero contemporaneo di accessi alla stessa cella. I costi di una connessione tramite rete mobile sono molto diminuiti rispetto a qualche tempo fa, ma sono sempre a carico del singolo utente. Inoltre, sebbene normalmente non ci siano limiti temporali alla connessione, esistono in quasi tutti i piani tariffari limiti molto ristretti nella quantità di dati scaricabili, che normalmente non possono superare 1 o 2 GB al mese.
Per motivi di sicurezza è importante utilizzare alcune misure che riducono la possibilità di furti di identità e perdite di dati quando si utilizzano dispositivi mobili.
– Il PIN (Personal Identification Number) è un codice numerico che va impostato sul dispositivo mobile per impedire ad altre persone di utilizzarlo in caso di furto o smarrimento
– effettuare copie di sicurezza dei dati è fondamentale non solo e non tanto in caso di furto (infatti generalmente i dati vengono conservati nel cloud) quanto in caso di momentanea interruzione della connessione a internet
– la connettività wireless e bluetooth andrebbe attivata solo quando necessario. Infatti, oltre a consumare maggiormente la batteria dei dispositivi, una connessione accesa se non utilizzata mette maggiormente a rischio la sicurezza perchè potrebbe essere presa di mira da malintenzionati per furto di identità o di dati.

Buona parte del successo dei dispositivi mobili dipendono dal fatto che è possibile installare, semplicemente scaricandole gratuitamente o a prezzi esigui da negozi online, moltissime applicazioni dei generi più vari.
Attualmente sui principali market place (iOS e Android) sono presenti centinaia di migliaia di applicazioni che soddisfano praticamente ogni esigenza, dal gioco al lavoro, dal tempo libero agli sport, dalle informazioni alla cultura.
Molte applicazioni permettono di ricevere direttamente sul proprio dispositivo le ultime notizie: è possibile impostare sia gli argomenti che l'intervallo di aggiornamento.
Altre applicazioni permettono di accedere alle reti sociali, come Facebook, Google+ o Twitter, e di gestire i propri contatti.
Sui dispositivi mobili le applicazioni di produttività vengono usate principalmente in casi di emergenza, dato che gli schermi sono piccoli e la tastiera virtuale è meno comoda da usare rispetto a quella tradizionale.
Tuttavia in certi casi è utile poter visualizzare ed eventualmente modificare un documento di testo, un ODF o un foglio di calcolo.
Le mappe sono una delle applicazioni più comode, dato che si parla di dispositivi mobili. Dato che molti dispositivi mobili dispongono anche di GPS integrato, le mappe hanno anche funzionalità di individuazione di percorsi e di navigatore.
Esistono migliaia di giochi per dispositivi mobili, tanto che ultimamente questi apparecchi stanno prendendo il posto delle console di gioco tra quelli preferiti dai videogiocatori, dato che permettono di giocare ovunque, per esempio durante un viaggio o in vacanza.
I dispositivi mobili, soprattutto i tablet ma anche gli smartphone con schermo di grandi dimensioni, permettono anche di leggere libri digitali, per cui esistono applicazioni per leggere ebook.

Al contrario della maggiornanza di applicazioni per computer, che vengono vendute principalmente ancora su
un supporto ottico (CD, DVD), le app per dispositivi mobili vengono distribuite esclusivamente attraverso dei negozi virtuali di applicazioni (app store). Molte di esse sono gratuite, altre sono a pagamento, ma i costi sono molto minori rispetto ai rispettivi programmi per computer.
Ogni sistema operativo ha un app store e i principali sono:
– Google Play, per il sistema operativo Android
– Apple App Store, per il sistema operativo iOS
– Windows Store, per il sistema operativo Windows Phone e Windows 8
– Amazon Appstore, per i dispositivi Amazon Kindle Fire che hanno una versione modificata di Android
– Blackberry World Store , per il sistema operativo Blackberry OS.


Per utilizzare un'applicazione, occorre prima di tutto che l'applicazione sia installata sul dispositivo. Se si tratta di un media sociale, è anche necessario disporre di un account per poterla utilizzare.
Dando per scontato quando detto sopra, per utilizzare un'applicazione di comunicazione audio/video, per esempio Skype, occorre selezionare l'icona dell'applicazione e premerla per avviarla. Fatto ciò, bisogna individuare tra i propri contatti quello con cui si desidera chiamare e verificare se è disponibile, visualizzandone lo stato. Nel caso sia disponibile, per effettuare una chiamata occorre premere il pulsante Chiama, se si desidera effettuare una videochiamata, oppure scrivere un messaggio testuale ed inviarlo.
Per utilizzare un'applicazione di media sociale, per esempio Facebook o Google+, occorre avviare la relativa applicazione ed inserire il nome utente e la password se richiesti (generalmente dopo il primo utilizzo e la relativa configurazione i dati vengono salvati e non server inserirli ad ogni nuovo avvio dell'applicazione). Una volta effettuato l'accesso si possono utilizzarne le funzionalità, per esempio leggere le notifiche, scrivere un post, caricare immagini e così via.
Per utilizzare un'applicazione di mappe, dopo aver avviato l'applicazione occorre digitare nella casella di ricerca il luogo di cui si desidera visualizzare la mappa, e utilizzare eventuali altre funzionalità, per esempio definire un percorso o utilizzare le funzioni di navigatore satellitare se disponibili.