venerdì 23 marzo 2018

Privacy 4.0: il GDPR è alle porte!

Con il General Data Protection Regulation debutta la privacy 4.0, studiata per rispondere alle insidie della digital transformation.
Aziende e professionisti devono prepararsi al 25 maggio 2018, data che segna la piena operatività del GDPR, per assicurarsi la conformità alle nuove regole. Alcuni adempimenti sono semplici da comprendere e da attuare. Altri, invece, sono completamente nuovi, studiati nell’ottica della privacy del futuro, dell’era dei social network, della profilazione automatizzata, del cloud e delle reti. Il GDPR in Italia sostituisce l’attuale Codice della Privacy (D.Lgs. 196/2003). Entro il 25 maggio 2018 tutti dovranno risultare conformi al nuovo Regolamento Generale Europeo sulla Protezione dei Dati Personali (GDPR) per non incorrere in pesanti sanzioni.
Il GDPR oltre a presenta elementi di semplificazione contiene anche ulteriori adempimenti ulteriori:
– definisce il concetto di misure tecniche ed organizzative adeguate che sono volte a mettere in pratica con efficacia i principi di protezione dei dati;
– introduce la metodologia della valutazione preventiva d’impatto e la gestione del rischio e delle correlate misure di sicurezza;
– definisce i nuovi ruoli aziendali connessi alla protezione dei dati personali: “data controller” vs l’attuale “titolare” e “data processor” vs l’attuale “responsabile” ed “incaricato”. Tutte le nuove figure, in caso di inadempienza al regolamento, avranno responsabilità dirette di fronte alla Legge;
– introduce la nuova figura di controllo del Data Protection Officer (DPO) che, in assenza di conflitti di interesse ed in piena indipendenza (es. nomina esterna), si occuperà di:
verificare l’attuazione e l’applicazione del Regolamento,
fornire pareri sulla valutazione d’impatto (PIA),
fungere da contatto diretto per qualsiasi problema degli interessati rispetto all’esercizio dei loro diritti e verso il Garante;
– introduce l’obbligo di comunicazione al Garante ed agli Interessati in caso di violazione dei dati personali (data breach);
– definisce un meccanismo sanzionatorio che prevede, nel peggiore dei casi, fino a 20.000.000 euro, o fino al 4% del fatturato mondiale totale annuo sull’esercizio precedente;
– introduce le necessarie garanzie di tutela dei dati personali fin dalla progettazione di un sistema di trattamento (privacy by design) che per impostazione predefinita (privacy by default).
L’impronta del regolamento si orienta verso un maggior rigore, che si manifesta nella previsione di sanzioni più pesanti e di adempimenti più articolati, e comporta una maggiore cautela nel trattamento dei dati.
In particolare, innanzitutto i dati personali devono essere trattati in modo lecito, corretto e trasparente nei confronti dell’interessato, ribadendo quei principi di liceità, correttezza e trasparenza che assumono un’importanza cruciale nell’era tecnologica.
Il trattamento, inoltre, deve essere effettuato per finalità determinate, esplicite e legittime, e successivamente i dati devono essere sempre trattati in un modo che non sia incompatibile con tali finalità.
Per evitare una raccolta indiscriminata dei dati viene poi cristallizzato il principio di minimizzazione dei dati, per cui i dati raccolti devono essere adeguati, pertinenti e limitati a quanto necessario rispetto alle finalità per le quali sono trattati
Ultimo ma non ultimo, i dati devono essere esatti, sempre aggiornati, conservati in una forma che consenta l’identificazione degli interessati per un arco di tempo non superiore al conseguimento delle finalità per le quali sono trattati e con modi che garantiscano in ogni momento sicurezza, integrità e riservatezza.
Il Regolamento è ispirato ad una maggiore trasparenza nella gestione dei dati ed è finalizzato a dare un maggiore controllo al cittadino sull’utilizzo dei suoi dati. In particolare è riconosciuto:
• il diritto di essere informati in modo trasparente e dinamico sui trattamenti effettuati sui dati e l’adozione di politiche privacy e misure adeguate in conformità al Regolamento (principio di accountability- obbligo di rendicontazione);
• il diritto di essere informati sulle violazioni dei propri dati personali (data breaches notification);
• -il diritto di ricevere in un formato di uso comune, e leggibile da dispositivo automatico, i dati personali forniti a un titolare del trattamento e di trasmettere tali dati a un altro titolare del trattamento senza impedimenti (portabilità dei dati).
• La protezione dei dati personali deve essere valutata già nel momento di progettazione di nuove procedure con l’attuazione, quindi, di adeguate misure tecniche e organizzative sia all’atto della progettazione che dell’esecuzione del trattamento (Privacy by design).
• I dati devono essere trattati solamente per le finalità previste e per il tempo strettamente necessario (Privacy by default).


Principio di trasparenza
Con il cuore delle norme del nuovo regolamento europeo sulla protezione dei dati personali sono rappresentate dalle informazioni che il titolare del trattamento deve fornire all’interessato con riferimento alle modalità di trattamento dei suoi dati, devono sempre essere rese in forma concisa, trasparente, intelligibile e facilmente accessibile, con un linguaggio semplice e chiaro.
Qualora l’interessato effettui una richiesta specifica chiedendo l’accesso ai dati, la rettifica, la cancellazione, una limitazione del trattamento, o la portabilità degli stessi, le informazioni oggetto della richiesta devono essere rese senza ritardo e, al più tardi, entro un mese dal ricevimento della richiesta.
Altro aspetto fondamentale è la gratuita dell’esercizio dei diritti poco sopra citati il titolare del trattamento può ottemperare o meno la richiesta Qualora egli decidesse di non ottemperare alla richiesta deve, comunque, entro un mese, comunicare all’interessato il diniego e la sua motivazione, nonché informarlo della possibilità di proporre reclamo innanzi alle autorità di controllo o innanzi alle autorità giudiziarie.
Il titolare deve, inoltre, fornire all’interessato una lunga serie di informazioni, elencate agli artt. 13 e 14 del Regolamento.
L’art. 13 del Regolamento elenca le informazioni che il titolare deve fornire all’interessato qualora i dati personali siano raccolti presso di lui, da fornire anche in caso di modifica delle finalità di un trattamento già in essere, e l’art. 14 elenca quelle da rendersi ove i dati non siano ottenuti presso l’interessato.
Il nuovo regolamento europeo sulla protezione dei dati personali prevede modalità tramite le quali le informazioni devono essere fornite. Il Regolamento statuisce che il titolare del trattamento predisponga i mezzi per inoltrare le richieste per via elettronica, in particolare nel caso in cui i dati personali siano trattati con mezzi elettronici.
Nel caso in cui l’interessato presenti la richiesta mediante mezzi elettronici, le informazioni devono essere fornite in un formato elettronico “di uso comune”, salvo che vi sia un’indicazione diversa da parte dello stesso interessato.
Al fine di evitare che soggetti terzi possano venire illegittimamente a conoscenza dei dati trattati, al titolare spetta, inoltre, il compito di verificare l’identità dell’interessato che richieda l’accesso, adottando tutte le misure ragionevoli.
Con riguardo, infine, ai tempi per l’evasione delle richieste, il titolare del trattamento è tenuto a rispondere “senza ingiustificato ritardo”, al più tardi entro un mese.


Diritto alla portabilità dei dati
Nel nuovo regolamento europeo sulla protezione dei dati personali l’interessato ha diritto di ricevere dal titolare copia dei dati personali oggetto del trattamento, che ove esperito consente all’interessato di ricevere in un formato strutturato, di uso comune e leggibile da dispositivo automatico i dati personali che lo riguardano forniti a un titolare del trattamento e ha il diritto di trasmettere tali dati a un altro titolare del trattamento senza impedimenti da parte del titolare del trattamento cui li ha forniti.
Tale diritto può essere esercitato qualora: il trattamento si basi sul consenso o su un contratto e il trattamento sia effettuato con mezzi automatizzati”.
Sul punto, il considerando n. 68, precisa che il diritto alla portabilità dei dati dovrebbe applicarsi qualora l’interessato abbia fornito i dati personali sulla base del proprio consenso o se il trattamento è necessario per l’esecuzione di un contratto, mentre non dovrebbe applicarsi qualora il trattamento si basi su un fondamento giuridico diverso dal consenso o contratto.
Il diritto alla copia dei dati personali oggetto del trattamento (portabilità dei dati) non si applica, però, in caso di trattamento necessario per l’esecuzione di un compito d’interesse pubblico o connesso all’esercizio di pubblici poteri di cui è investito il titolare del trattamento e, più precisamente, come specificato dal considerando n. 68, non dovrebbe essere esercitato per i trattamenti effettuati nell’esercizio di funzioni pubbliche o pubblici poteri o per l’esecuzione di un compito svolto nel pubblico interesse e quando il trattamento è necessario per l’adempimento di un obbligo legale. Inoltre, il suo esercizio non deve ledere i diritti e le libertà altrui.
diritto all’accesso ai dati personali
Nel nuovo regolamento europeo sulla protezione dei dati personali viene rafforzati ed ampliato il diritto di accesso dell’interessato al trattamento di dati personali è stata precisata ed ampliata tutta la disciplina relativa alla trasparenza ed agli obblighi informativi. Il diritto di accesso si configura quale diritto del soggetto interessato di richiedere e ottenere dal titolare del trattamento informazioni sul trattamento di dati personali che viene effettuato. A tale diritto si applica il principio della gratuità.
L’art. 15 del Regolamento definisce il diritto di accesso come il diritto dell’interessato di “ottenere dal titolare del trattamento la conferma che sia o meno in corso un trattamento di dati personali che lo riguardano” e, qualora sia in corso un trattamento, ha diritto ad ottenere l’accesso ai dati personali trattati, nonché le informazioni ulteriori specificatamente elencate dallo stesso articolo.
In base all’art. 15 del nuovo regolamento europeo sulla protezione dei dati personali il titolare del trattamento è tenuto a fornire ulteriori informazioni, queste, in particolare, sono:
a) le finalità del trattamento;
b) le categorie di dati personali trattati;
c) i destinatari o le categorie di destinatari a cui i dati personali sono stati o saranno comunicati;
d) il periodo di conservazione dei dati personali previsto, ove possibile, oppure i criteri utilizzati per determinare tale periodo;
e) l’esistenza e la possibilità per l’interessato di esercitare il diritto di rettifica, il diritto alla cancellazione, il diritto alla limitazione del trattamento, il diritto di opposizione al trattamento;
f) il diritto di proporre reclamo innanzi alle autorità di controllo;
g) le informazioni sull’origine dei dati, ove non siano stati raccolti presso l’interessato;
h) l’eventuale esistenza di un processo decisionale automatizzato, compresa la profilazione e le informazioni significative sulla logica utilizzata.


DIRITTO all’OBLIO
Nel nuovo Regolamento europeo sulla privacy vengono recepiti gli indirizzi giurisprudenziali sul diritto alla cancellazione e le modalità per il suo esercizio.
L’art. 17 nuovo Regolamento europeo sulla privacy norma il diritto alla cancellazione, affermando il diritto dell’interessato a veder cancellati i dati personali che lo riguardano.
Per la sua attuazione occorre distinguere tra due casi: se il trattamento è effettuato subordinatamente alla prestazione del consenso, la revoca dello stesso costituisce requisito necessario e sufficiente ai fini della cancellazione; ove, invece, i dati personali siano stati raccolti per finalità o tipologie di trattamento per le quali il consenso non è richiesto, la cancellazione potrà essere attuata ove i dati personali non siano più necessari rispetto alle finalità per le quali sono stati raccolti o trattati.

A carico del titolare del trattamento, in caso di richiesta di cancellazione dei dati e sussistano i predetti requisiti, è posto un obbligo non solo di cancellazione presso i suoi archivi, ma, ove li abbia resi pubblici, anche un obbligo di comunicazione ai soggetti terzi e titolari di differente trattamento dei medesimi dati che stiano trattando dati personali di cui l’interessato ha richiesto la cancellazione.

martedì 6 marzo 2018

Buongiorno futuro!

Uno spazio aperto sul futuro, che parli di giovani e lavoro, di innovazione e di inclusione, di possibilità e pure di minacce, cercando tuttavia sempre una porta aperta, una via d'uscita possibile.
Questo è lo scopo che si propone “Morning Future” la nuova iniziativa editoriale online promossa da The Adecco Group. Un luogo che sia il punto di contatto per una community di persone curiose di sapere come cambia il mondo del lavoro, come si rapporta alle tecnologie in rapida evoluzione, alla globalizzazione, alle nuove forme di welfare e assistenza, alla nuova domanda di formazione.
Realizzato in collaborazione con le redazioni di due giornali come Linkiesta.it e Vita e, per la parte tecnica, con Shibui Lab, Morning Future sarà soprattutto una sfida alla rassegnazione e all'inerzia, all'idea che il domani sia solo fonte di preoccupazione, di erosione di possibilità e diritti. Al contrario, sarà una piattaforma da cui partire per affrontare proattivamente il mondo che cambia, senza inerzie, né nostalgie, né rassegnazione.



Link: Morning Future - Adecco


giovedì 1 marzo 2018

Syllabus 6.0 ECDL - AICA

Con una circolare diramata in tutti i centri accreditati per il conseguimento dell'ECDL (European Computer Driving Licence), l'ente certificatore AICA (Associazione italiana per l'informatica ed il calcolo automatico) rende noto che nel secondo trimestre del 2018 sarà disponibile il syllabus 6.0 per i moduli d'esame ECDL Standard:
- Word processing
- Spreadsheets
- Presentation
- Using Databases

Differenze tra ECDL V5 e V6 – Moduli Word Processing, Spreadsheet, Database e Presentation

Riassumiamo alcuni dei principali cambiamenti che sono inclusi nella nuova versione 6.0 del Syllabus ECDL.

Alcuni aggiornamenti sono comuni a più moduli, in particolare:
È stata introdotta la modalità di salvataggio su cloud dei vari documenti.
È stata introdotta la possibilità di accedere a modelli e guide online.
In generale, le voci del syllabus sono state rese più chiare e il syllabus stesso è stato riordinato per migliorare l’organizzazione generale degli argomenti.
Modifiche specifiche dei singoli moduli sono le seguenti:


Modulo Word processing
Introduzione del salvataggio in altri formati quali pdf.
Introduzione di buone abitudini di navigazione nel testo, quali scorciatoie e l’uso di “Vai a”.
Introduzione dell’uso delle varie modalità di visualizzazione di un documento.
Utilizzo dei collegamenti ipertestuali in un documento (inserimento, modifica,
eliminazione).


Modulo Spreadsheet
Introduzione del salvataggio in altri formati quali pdf o csv.
Introduzione di buone abitudini di navigazione nel testo, quali scorciatoie e l’uso di “Vai a”.
Introduzione dell’errore standard #VALORE!
Introduzione della formattazione automatica di una tabella
Comprensione delle situazioni per l’uso dei diversi tipi di grafici e azioni sulla legenda.


Modulo Presentation
Introduzione del salvataggio in altri formati quali pdf.
Introduzione di nuove opzioni di layout per le slide.
Introduzione dell’utilizzo della master slide per mantenere consistente il design e la
formattazione dei testi
Utilizzo dei collegamenti ipertestuali in un documento (inserimento, modifica,
eliminazione).
Introduzione del ridimensionamento di oggetti grafici mantenendo o meno il rapporto
Introduzione dell’allineamento relativo tra oggetti grafici


Modulo Database
Eliminazione di voci teoriche relative alle operazioni sui database
Reintroduzione di attività pratiche sulle relazioni per assicurare l’apprendimento corretto
del concetto di relazione tra tabelle
Introduzione dell’esportazione di un report in pdf
Introduzione dell’aggiunta di criteri a una query per l’ordinamento dei record.


Fonte: http://www.ecdl.it/syllabus-6.0

giovedì 22 febbraio 2018

Le profezie di Bill Gates

Circa venti anni fa, Bill Gates nel suo libro 'Business @ the Speed of Thought' faceva 15 previsioni che all’epoca risuonarono come folli e impossibili ma che oggi si sono realizzate e fanno parte della maggior parte delle innovazioni tecnologiche moderne.
L’imprenditore nel 1999 aveva pensato a un grande proliferare dei siti per paragonare i prezzi, in particolare quelli legati ai vestiti e agli accessori. Per Gates questo sarebbe stato normale perché la concorrenza creata dalla Rete avrebbe portato a delle soluzioni per agevolare il consumatore nella scelta più conveniente possibile. Al giorno d’oggi siti del genere sono ampiamente utilizzati. Alcuni di questi portali permettono anche di fare preventivi per spese molto più importanti di un semplice abito.

I wearable
Al giorno d’oggi i wearable non stupiscono. Quasi tutti abbiamo un oggetto intelligente che portiamo sempre con noi e che indossiamo come se niente fosse. Nel libro Gates scrisse: “In futuro tutti avremo un piccolo dispositivo intelligente e indossabile. Questo ci permetterà di fare chiamate, di lavorare, leggere notizie e prenotare dei voli”. In pratica ha anticipato gli smartwatch.
Pagamenti e assistenza sanitaria
Nel libro “Business @ the Speed of Thought”, Gates ha previsto anche i pagamenti online di bollette e servizi e le comunicazioni con il proprio medico direttamente da particolari portali telematici. Per quanto riguarda i pagamenti Bill Gates ha azzeccato tutto. Anzi, oggi il settore è uno dei più floridi, proprio grazie alla Rete. E il pagamento in contanti è sempre meno indispensabile. Per quanto riguarda l’assistenza medica ancora dobbiamo fare il definitivo salto di qualità ma non mancano app e siti simili a quelli previsti da Bill Gates.

Internet Of Things
Gates descrivendo più approfonditamente i wearable nel libro ha previsto che in futuro gli oggetti intelligenti si sarebbero trovati dappertutto e la nostra vita sarebbe stata semplificata dall’interscambio dei dati tra questi dispositivi. Gates nel libro aveva previsto oggetti intelligenti che ci aiutano nella spesa o a preparare ricette in base a ciò che abbiamo in frigo. Tutte cose che al giorno d’oggi sono la normalità. In pratica l’Internet of Things era già stato previsto.

Social media
Sul libro nel 1999 Gates scrive: “in futuro ci saranno siti web privati per i tuoi amici e la famiglia che consentiranno di chattare e pianificare eventi”. Vi suona familiare? Sì, esatto è Facebook. Al giorno d’oggi siamo abituati ad avere social praticamente per tutto ma a fine anni Novanta il concetto risuonò come rivoluzionario.

Videocamere per la casa
Gates nel 1999 pensò che nel tempo le telecamere per la casa sarebbero state sempre più usate. Anche in questo caso gli eventi hanno confermato la tesi dell’imprenditore. Oggi abbiamo anche telecamere come PetCube, che consentono di controllare un laser in modo da poter giocare con i nostri animali domestici mentre siamo fuori di casa.

Pianificazione vacanze
Al giorno d’oggi tutti sanno usare siti come Expedia o Booking per pianificare la propria vacanza e spendere il meno possibile. Nel 1999 Gates predisse anche questo. Nel libro scrisse: “In futuro ci saranno software che sanno quando abbiamo prenotato un viaggio e utilizzano queste informazioni per suggerire attività, sconti e luoghi da visitare nella nostra meta di destinazione.

Twitter
Gates, fine conoscitore dello sviluppo sociale di Internet, nel 1999 descrisse piattaforme come Twitter. Nel libro parlò di: “Piattaforme per commentare in diretta ciò che sta accadendo durante la visione di una competizione sportiva in televisione”.

Pubblicità personalizzata
Sempre parlando di software personalizzati, come quelli descritti per le vacanze, Gates predisse le pubblicità personalizzate. Ovvero ciò che con Google e con le varie applicazioni e social è diventato la normalità per gli utenti di oggi.

Smart TV
Per Gates le televisioni sarebbero state dotate di servizi che si trovano anche sul web e di connessione per poter cliccare a link di approfondimenti per capire meglio quello che guardiamo. Niente di nuovo per chi ha in salotto una Smart TV.

Lavoro
Internet ha rivoluzionato il mondo del lavoro e Bill Gates se lo aspettava quasi 20 anni fa. Parlò di programmi per la condivisione di progetti, molto simili a quelli che usiamo oggi. Strumenti come Google Drive per fare un esempio. E anche il recruitment è stato particolarmente influenzato dal web. Gates nel 2019 predisse piattaforme come LinkedIn. E al tempo stesso Gates parlò di software aziendali in grado di esternalizzare alcuni compiti in base a competenze specifiche. Esistono diverse piattaforme che al giorno d’oggi offrono a freelance (copywriter o designer per fare degli esempi) dei contratti a tempo. Anche se in Italia non sono molto sviluppati.



Fonte: Bill Gates, il profeta: si avverano le 15 previsioni fatte 20 anni fa

mercoledì 21 febbraio 2018

Flipped classroom - La classe capovolta

Il flip teaching è una metodologia didattica che sta prendendo campo all'estero negli ultimi anni. Le classi coinvolte in questa metodologia, dette flipped classroom, sono protagoniste di una inversione delle modalità di insegnamento tradizionale in cui il docente è il dispensatore del sapere e l'allievo recepisce, esercitandosi prevalentemente a casa. Le attività avvengono in modalità blended e, di conseguenza, è fondamentale l'uso delle nuove tecnologie per fornire le adeguate risorse agli allievi al di fuori del contesto classe. Infatti, gli allievi hanno a disposizione una ingente quantità di materiali didattiche, che possono condividere, annotare, modificare o addirittura creare in maniera collaborativa. Fondamentale è il ruolo dei forum di discussione, in quanto si permette all'allievo di imparare in maniera costruttiva e di raggiungere diversi obiettivi trasversali afferenti all'area delle relazioni. Si utilizza il termine "flip" in quando viene ribaltata la modalità in cui vengono proposti i contenuti e i tempi utili per l'apprendimento. In una flipped classroom la responsabilità del processo di insegnamento viene in un certo senso "trasferita" agli studenti, i quali possono controllare l'accesso ai contenuti in modo diretto, avere a disposizione i tempi necessari per l'apprendimento e la valutazione. L'insegnante diventa quindi un supporto alla comprensione di quanto appreso a mano a mano dagli allievi e dovrà impiegare il proprio tempo in questo processo di passaggio dall'ampliamento delle conoscenze all'acquisizione di capacità e competenze. Come per tutte le metodologie didattiche, anche il flip teaching presenta punti di forza e punti di criticità. Di certo tale modalità di insegnamento favorisce l'individualizzazione e la personalizzazione dei percorsi di insegnamento, in quanto gli insegnanti possono dare delle precise indicazioni agli allievi su come muoversi e sulle risorse che ciascuno di loro può utilizzare. Verranno certamente penalizzati i rapporti interpersonali, in quanto l'allievo avrà un contatto molto stretto con il computer sia a scuola che a casa! Inoltre, gli educatori saranno costretti a riflettere su come strutturare e proporre i contenuti, rischiando di focalizzare l'attenzione sul contenuto, piuttosto che sull'apprendimento.
Una flipped classroom, dunque è un modello pedagogico nel quale le classiche lezioni e l’assegnazione del lavoro da svolgere a casa, vengono capovolti. L’insegnante assegna per casa ai propri studenti alcuni video da seguire su un dato argomento, prima di trattarlo in classe. In questo modo, poiché gli studenti hanno già un’infarinatura generale dei contenuti da affrontare, si può dedicare il tempo a disposizione a scuola per dare chiarimenti, effettuare delle esercitazioni e qualsiasi altra attività funzionale ad una migliore comprensione. Ciò richiede, da parte del docente, un’attentissima selezione delle risorse video che devono essere catalogate all’interno di un apposito corso on line creato per gli studenti. Questi ultimi, infatti, collegandosi nello spazio virtuale, hanno sempre disposizione i materiali didattici che il docente ha selezionato e/o creato proprio per loro e possono utilizzarli in qualsiasi momento della giornata. Il vantaggio del flip teaching sta proprio nella possibilità di utilizzare in maniera diversa le ore di lezione settimanali dedicate all’insegnamento di una data disciplina, permettendo anche gli studenti di costruire il proprio sapere e di testare in qualsiasi momento le proprie competenze. Il ruolo del docente sarà quello di “guida” che incoraggia gli studenti alla ricerca personale e alla collaborazione e condivisione dei saperi appresi. Non esiste un unico modello di insegnamento capovolto, anche se nel modello standard la classe capovolta è vista come un ambiente di lavoro in cui gli studenti sono indirizzati verso l’uso di selezionati materiali didattici. Tra questi rientrano anche i quiz online per testare il livello raggiunto, con particolare uso dei quiz con feedback, per permettere di imparare dai propri errori. Gli studenti possono inoltre collaborare e in classe si possono avviare diverse discussioni tra loro, che permetteranno di chiarire meglio determinati concetti importanti appresi autonomamente. Il docente potrebbe anche suddividere gli studenti in piccoli gruppi e attribuire loro alcune specifiche situazioni problematiche da trattare. Un numero sempre maggiore di istituzioni educative, soprattutto in America, si stanno “convertendo” a questa nuova metodologia didattica. Per esempio presso l’Algonquin College sono state realizzate una serie di lezioni video per spiegare le procedure di editing dei software, procedure che non possono essere facilmente presentate in una semplice lezione frontale. Durante una tradizionale lezione, gli studenti provano spesso a carpire il maggior numero possibile delle informazioni date dal docente, annotando, a volte, freneticamente, il maggior numero di parole possibile sui loro quaderni. Ciò non permette loro di soffermarsi sui concetti, proprio perché sono concentrati su una scrittura forsennata, che li distoglie dalla comprensione di determinati nodi concettuali importanti. L’uso dei video, invece, permette agli studenti di ascoltare e riascoltare in qualsiasi momento le parole del docente. Le discussione che verranno avviate in classe permetteranno agli studenti di socializzare e collaborare nella risoluzione di un problema comune.
Le attività in stile flipped possono essere facilmente realizzate, ma è altrettanto semplice fare un uso sbagliato di questa metodologia. Infatti, essa richiede una particolare attenzione nella fase di programmazione delle attività e di selezione dei materiali didattici da sottoporre ai discenti. Inoltre, la registrazione delle lezioni richiede molto tempo e la capacità di utilizzare gli strumenti adeguati per la realizzazione di podcast. Di contro, gli studenti abituati al costante supporto del docente, potrebbero sentirsi smarriti quando utilizzano i materiali online e si potrebbe generare un fenomeno di dispersione delle conoscenze. Come detto, con il proliferare delle flipped classroom, sarà necessario utilizzare nuovi strumenti di supporto alla didattica e andrebbe anche rivisto il curricolo scolastico. Il ruolo degli educatori sarebbe molto differente da quello attuale, in quanto sarà dispensabile effettuare un lavoro volto alla collaborazione costante durante i vari processi di insegnamento/apprendimento. Inoltre, gli studenti diventerebbero ancora più parte attiva delle attività didattiche e, di conseguenza, il loro carico di lavoro sarebbe maggiore.


martedì 13 febbraio 2018

Algoritmi e la nuova Algocrazia

Un algoritmo è un modello matematico che racchiude istruzioni per risolvere un problema o effettuare delle attività. L’Intelligenza Artificiale (IA) non è altro che un insieme di algoritmi, ciò che vediamo sul social network è frutto del lavoro degli algoritmi, persino le notizie cui accediamo da web o mobile sono il lavoro della selezione fatta da modelli matematici ‘tradotti’ in codice informatico. La maggior parte delle transazioni finanziarie avviene per mezzo degli algoritmi, gli assistenti vocali che utilizziamo ormai quotidianamente funzionano grazie ad essi, così come i sistemi di riconoscimento facciale che ci permettono di ‘tenere in ordine’ le nostre foto (e di fare molto altro come, per esempio, controllare l’identità delle persone) o quelli che costruiscono automobili o le guidano autonomamente sulle nostre strade. Sono strumenti per lo più invisibili ma in grado di aiutare ed ‘aumentare’ le nostre vite supportandoci nella quotidianità, nel lavoro, nel business. Il rovescio della medaglia è che in quella che già oggi molti chiamano l’età degli algoritmi, il mondo potrebbe essere governato dall’intelligenza artificiale concentrando ‘il potere’ (sociale, economico e politico) nelle mani di coloro che sono in grado di modellare e controllare gli algoritmi. Diventa quindi prioritario, in questa delicata fase evolutiva dell’informatica e della storia umana, studiare e capire quali sono non solo le potenzialità e le opportunità che questi sistemi offrono, indubbiamente innumerevoli, ma anche gli impatti macroeconomici, sociali, politici, organizzativi per arrivare a definire una nuova cultura (basata sul codice) e le regole entro le quali questa può espandersi.
Sono gli algoritmi, oggi, a decidere cosa dobbiamo sapere durante le nostre ricerche online – con l’algoritmo di Google a farla da padrone – cosa dobbiamo leggere (il NewsFeed di Facebook, esempio più evidente di quelle che Eli Pariser chiama “filter bubble” o “eco chamber”, “camere dell’eco” che proponendoci cose culturalmente ed ideologicamente consone alla nostra visione del mondo, la rafforzano tenendo fuori dalla nostra conoscenza tutte le opinioni differenti) e a consigliarci quali acquisti potrebbero interessarci nei nostri shop online e quale candidato votare. Scriveva Pariser in un articolo pubblicato nel 2011 su Internazionale.
A. Aneesh, professore associato presso la cattedra di sociologia dell’Università statunitense del Wisconsin-Milwaukee, definisce questo sistema come una vera e propria “algocrazia”, guidata in regime di segretezza dalle imprese della Silicon Valley e di Wall Street, che hanno invece pieno accesso ai nostri dati e, dunque, alle nostre vite. Una delle tante sfaccettature di quella che Frank Pasquale – professore di legge all’Università del Maryland – ha definito in un suo libro pubblicato dalla Harvard University Press nel 2015 “black box society”, nella quale siamo tenuti all’oscuro delle modalità in cui vengono prese le decisioni che ci riguardano.
Esponendo la malattia, nel suo libro Pasquale individua anche alcune possibilità di cura, come il miglioramento delle legislazioni sull’uso dei dati personali o la necessità di rendere più chiari i contratti e i loro termini di utilizzo, peraltro al centro di un interessante documentario realizzato da Cullen Hoback nel 2013 dal titolo “Terms and Conditions May Apply” (o “Zero Privacy” nella versione in italiano) e lavorare per una trasparenza “qualificata”, che rispetti cioè gli interessi delle persone coinvolte senza trasformare la trasparenza in una nuova ideologia religiosa.
In questo contesto, ciò che dovrebbe farci riflettere, secondo Aneesh (i cui studi si sono sempre prevalentemente concentrati sull’analisi dei nuovi modelli organizzativi e della burocrazia che si viene a ‘disegnare’ mediante la tecnologia) è il fatto che il linguaggio di programmazione (il codice) sembra essere di per sé “la struttura organizzativa chiave dietro questa nuova migrazione virtuale”. Per capire esattamente cosa intenda il professore dobbiamo fare un salto indietro. “Era il 1999 quando, cercando una software company in India, rimasi colpito dal fatto che la maggior parte delle applicazioni che utilizzavamo non erano mai state create ‘in un unico posto’. La maggior parte del software veniva (e viene tuttora) sviluppata in più luoghi contemporaneamente: team diversi, ‘seduti’ in continenti e paesi differenti lavorano allo stesso progetto. Conoscevo la ‘letteratura’ riguardante l’avvento dei grandi sistemi gestionali centrali (gli Erp) quale elemento cruciale per il coordinamento delle ‘enormi’ attività burocratiche delle organizzazioni aziendali – spiega Aneesh -, ma nel caso dello sviluppo software globale non è mai stato possibile avere una sorta di ‘middle managerial layer’ per il coordinamento centralizzato dei team e dei diversi ‘regimi’ di lavoro dei differenti paesi del globo”.
Scenario ancor più evidente se si pensa allo sviluppo di codice open source dove le community di sviluppatori presenti in tutto il mondo si coordinano ‘semplicemente’ con modello di autogestione.
Qualche tempo dopo queste prime considerazioni, un giorno seduto accanto ad un programmatore, guardando lo schermo sul quale stava lavorando, Aneesh ha avuto un’intuizione: “è il software stesso a fare da direttore dei lavori!”. Aneesh aveva notato così tanti controlli di accesso integrati nella piattaforma software su cui stava lavorando il programmatore “che non c’era alcun bisogno di un manager umano a dirigere i lavori”, aveva pensato. Quando nel 1998, durante la scuola di specializzazione, Aneesh scrisse il suo primo ‘paper’ sul tema dell’hyper-bureaucracy (pubblicato l’anno dopo) per descrivere un sistema iper-burocratico ‘fuori controllo’, ancora non aveva compreso del tutto che il codice – nella sua teoria – è esso stesso ‘organizzazione’, visione che gli è apparsa più chiara dopo aver visto all’opera il programmatore. “In mancanza di un vocabolo migliore ho coniato il termine ‘algocracy’ per identificare ‘le regole del codice’ (o di un algoritmo) quale modello di organizzazione che può sostituire le ‘regole di un ufficio’ (la burocrazia di un’azienda o di un sistema economico)”, descrive Aneesh. “L’algocrazia tende ad appiattire tutte le gerarchie burocratiche perché non necessita di alcun livello di gestione intermedio o centralizzato che sia”.
Per dettagliare ancora meglio in che modo la nostra società ed i nostri modelli organizzativi, non solo lavorativi ma anche sociali ed economici, possono essere modificati dalle tecnologie, in generale, dagli algoritmi nello specifico, Aneesh fa un esempio molto semplice riguardante il controllo del traffico e delle violazioni degli automobilisti. “Il controllo mediante l’utilizzo dei semafori implica per gli automobilisti il rispetto di alcune regole (per esempio, fermarsi in presenza del rosso) le cui violazioni possono essere rilevate direttamente dalla polizia stradale”, spiega Aneesh. “Questo modello organizzativo/comportamentale funziona per due motivi: l’interiorizzazione delle regole da parte degli automobilisti, che orientano le loro azioni, e la minaccia della pena come conseguenza di un’azione errata”.
Questo primo modello rappresenta un’organizzazione burocratica (seguire il rosso, arancione o verde equivale a seguire le regole di un’azienda o di una società civile) ma, fa presente Aneesh, “quanti automobilisti ci sono che non rispettano lo stop o il rosso senza essere ‘beccati’ dalla polizia?”.
C’è poi un secondo metodo di controllo, basato sull’utilizzo delle videocamere che riprendono il traffico e potenzialmente catturano tutte le violazioni degli automobilisti. “Le regole sono ovviamente le medesime del modello precedente ma, con questo tipo di organizzazione, ad ogni violazione rilevata viene emessa una multa recapitata al trasgressore con una fotografia come prova dell’illecito”, spiega Aneesh. “Un sistema tecnologico di questo tipo, impiegato nella sua massima capacità è in grado di rilevare tutte le violazioni e la notifica diventa la conseguenza dell’azione ‘fuori regola’ di una persona”. In questo caso, il modello organizzativo viene identificato come panottico.
Infine, c’è il modello algocratico che, nell’esempio di Aneesh, diventa un sistema di auto-controllo del traffico basato non su delle regole ma su come vengono costruite le strade: “pensiamo ad una infrastruttura stradale che, per via di come sono state asfaltate le corsie, impediscono agli automobilisti di svoltare a destra o a sinistra o di sostare in un punto se non ‘progettato’ dagli ingegneri della strada. In questo modello non ho bisogno di essere inseguito dalla polizia o di ricevere una multa via posta, se ‘violo’ il modello mi schianto e distruggo l’auto”.
Aneesh non si sbilancia in alcun giudizio personale circa questi tre differenti modelli di governance, dice semplicemente che “tutti e tre hanno delle potenzialità e dei limiti, funzionano in modo differente: i semafori possono rompersi, la targa fotografata da una videocamera potrebbe risultare illeggibile, un veicolo sportivo potrebbe essere in grado di superare le barriere fisiche del controllo del traffico…”.
Ma dopo l’analisi preliminare sul ‘potere’ degli algoritmi è evidente che il futuro di una possibile società algocratica cattura la mia attenzione. “Mentre le burocrazie sfruttano il modello di ‘orientamento all’azione’ (orientano le nostre personalità verso determinate norme), le algocrazie predeterminano l’azione verso determinati risultati”, spiega Aneesh. “Facendo un esempio pratico attuale, non conosciamo gli algoritmi di Google o Facebook anche se definiscono a priori il nostro possibile campo d’azione. Un effetto dell’algocrazia che oggi vediamo applicarsi anche sulle identità: le identità finanziarie (i punteggi di credito, per esempio), le identità di shopping (che ‘inquadrano’ un comportamento di acquisto) e addirittura le identità mediche (che raggruppano le persone a seconda di patologie o cure), sono tutte costruite algoritmicamente da diversi sistemi senza la nostra approvazione o coinvolgimento”.
Gli algoritmi decidono, quindi, i risultati dei motori di ricerca, le pubblicità che appaiono quando visitiamo un sito, le notizie a cui viene data rilevanza su Facebook, il programma più adatto per la lavatrice, ma anche le priorità nelle liste d’attesa per un trapianto, chi viene sottoposto a verifiche e controlli, ad es. fiscali o negli aeroporti, e molto altro. Gli algoritmi fanno parte di quasi tutti gli aspetti della vita quotidiana dove c’è tecnologia.
Sono anche alla base di decisioni politiche e amministrative che ci riguardano direttamente come cittadini ma che non sempre sono documentate e trasparenti.




Sitografia di riferimento:

Verso un mondo governato dagli algoritmi - Nicoletta Boldrini
Algocrazia: il potere politico degli algoritmi - di Andrea Intonti
Algocrazia - di Licia Corbolante


lunedì 22 gennaio 2018

Quali sono le professioni IT del futuro?

Viviamo in un mondo in costante cambiamento, soprattutto dal punto di vista tecnologico, e mano a mano che gli strumenti digitali vanno ad influire sempre più sugli aspetti della vita di tutti i giorni, cambia anche il mercato del lavoro che richiede nuove figure e competenze.
Già nell’ultimo decennio si è assistito alla comparsa di nuove professioni legate soprattutto all’innovazione tecnologica e questa tendenza continuerà anche nei prossimi anni. Se le competenze digitali sono importanti per trovare lavoro oggi, quindi, nei prossimi anni diventeranno indispensabili.

Segnaliamo, su questo tema, due interessanti articoli.
Il primo, dal titolo Orientamento al lavoro:le professioni del fututo sono digital>, redatto da Chiara Casalin, laureata in Comunicazione digitale, che collabora con la testata on line Studenti.it.

Il secondo, pubblicato sulla piattaforma Work Wide Women dedicata ad un interessante progetto di welfare che supporta le aziende e le donne fornendo soluzioni in ambito di diversity management e di pari opportunità e di formazione certificata, redatto dalla blogger Daniela Bortolotti, che parla delle Professioni tech femminili del 2018.

Buona lettura!

venerdì 12 gennaio 2018

E-Book 'Innovazione e creatività in azienda. Appunti di Knowledge Management (LM Media, 2017)

E' disponibile on line, all'indirizzo https://www.bookrepublic.it/book/9788899038052-innovazione-e-creativita-in-azienda-appunti-di-knowledge-management/?tl=1 l'e-book 'Innovazione e creatività in azienda. Appunti di Knowledge Management'(2017), edito da LM Media, nato anche e soprattutto grazie al lavoro del blog 'La Spir@le della conoscenza'.

Nell’era del web e della comunicazione digitale, non sempre le aziende riescono ad amalgamare le innovazioni tecnologiche alle esigenze organizzative e di mercato, in continuo sviluppo e cambiamento, in funzione anche di quelli che sono poi gli strumenti deputati alla creazione e alla condivisione della conoscenza, in quanto fattore competitivo. Particolare importanza in tutto ciò è il processo di trasformazione della conoscenza tacita in conoscenza esplicita, che diventa realmente fruibile e utilizzabile per innescare processi di (r)innovamento, sia degli individui costituenti il team work aziendale, che delle organizzazioni di cui essi fanno parte. La conoscenza è stata sempre una risorsa importante ai fini della produzione, ma diventa forza redditizia fondamentale solo con l'età moderna, ossia in corrispondenza di quel passaggio essenziale che fa emergere la conoscenza scientifica come conoscenza autonoma, libera. L’efficacia derivante da un corretto uso della conoscenza può avere molti vantaggi; prima di tutto per quanto riguarda la riduzione dei costi di un precedente processo produttivo, ma anche inerenti alla creazione di un nuovo prodotto o servizio, o alla personalizzazione del servizio stesso o ancora, attinente alla produzione di nuovi significati, desideri, identità, alla progettazione di esperienze coinvolgenti, alla costruzione di rapporti fiduciari e di garanzia. Ci vuole però un approccio e, soprattutto una predisposizione diversa rispetto a queste nuove teorie e servizi, che consenta di esplorare quest’attuale modo di intendere la conoscenza come fattore economico di sviluppo. Si parla, dunque di economia della conoscenza, in cui il valore è prodotto costruendo nuove possibilità di crescita, a partire da moderne forme e valori, frutto della creatività, della comunicazione, della collaborazione e della condivisione, che diventano così fattori d’innovazione e competitività.


mercoledì 15 novembre 2017

La nuova Cybersecurity nazionale alla prova dei fatti – 360 Summit

Sintesi dei lavori del convegno tenutosi da esperti del settore il 14 Novembre a Roma

Le misure europee in materia di privacy e cybersecurity impongono ancora una volta un adeguamento normativo anche al nostro Paese, da compiere entro maggio 2018. Ciò rende necessario un aggiornamento dei dati di settore, che il Clusit, associazione operativa nel campo della sicurezza informatica, riassume come preoccupanti rispetto al numero di attacchi hacker verificatisi negli ultimi anni a livello globale, circa 6.093 attacchi analizzati dal 2011 al 2017. In media negli ultimi sei mesi sono stati classificati come gravi 95,2 incidenti al mese, ogni mese (83 al mese negli ultimi 5-6 anni). Rispetto al secondo semestre 2016, nel primo semestre 2017 in percentuale diminuiscono le vittime di area americana (dal 55% al 47%), ed asiatica (dal 16% al 10%). Crescono, invece, gli attacchi verso l’Europa (dal 16% al 19%), e sono in crescendo i dati relativi ai tentativi di spionaggio e sabotaggio dei dati sia nel settore privato che in quello pubblico.
Nel 2017 si sono spesi 720 mila euro da parte di grandi imprese e PMI per attuare misure di sicurezza informatica, di fronte però ai 65 milioni di euro per la spesa informatica generica, quindi il minimo in proporzione, non garantendo così standard adeguati di sicurezza rispetto alle attuali minacce presenti in rete.
La maggior parte delle imprese intervistate sostiene che circa la metà dei rischi di attacco ai dati aziendali potrebbe derivare dagli stessi lavoratori interni, per svariate ragioni, incompetenza, inconsapevolezza delle policy aziendali, distrazione. Tutto ciò rende necessari interventi concreti per ridurre le minacce, adottando misure di safety, considerando ad esempio l’opportunità di una cybersecurity as service, ossia destinando tale “servizio aziendale” a specialisti del settore, affidando in outsorcing tali commesse.
Molte volte, manca proprio la consapevolezza dell’esistenza del proble, in quanto circa il 95% delle industrie meccaniche intervistate ritiene che i propri dati siano al sicuro, ma la cosa grave è che gli attacchi cibernetici più pericolosi sono quelli di cui non si ha traccia, gli hacker entrano nel data center aziendale “catturando” la rete di vendita e di produzione aziendale, ai fini di una concorrenza sleale e illecita che rischia di mandare in crisi l’intero sistema Made in Italy, come sostiene Alberto Tripi, Delegato per la Cybersecurity di Confindustria. L’industria 4.0 si fonda su strutture come il cloud, i big data, l’e-commerce, che anche se ovviamente sorretti da architetture solide e sicure, sono i più esposti ad attacchi. Risulta essere così necessario un aggiornamento delle competenze e delle conoscenze di questo settore, alla luce del nuovo contesto economico di riferimento, del contesto tecnologico attuale e del settore normativo attinente.
La globalizzazione dei mercati, infatti, ha reso la sicurezza informatica come un costo da tagliare perché a volte è lo stesso management aziendale che non ne capisce davvero l’importanza. Le nuove tecnologie, allo stesso tempo, se non opportunamente gestite creano maggiori falle per la sicurezza e il fattore umano incide molto in tale senso. Il GDPR si prefigge, quindi, come obiettivo quello dell’adozione di infrastrutture minime e necessarie per diventare complainers della normativa stessa. A oggi, le aziende non sono state tutte pronte a implementare misure di sicurezza adeguate, tranne le cosiddette aziende virtuose, che sono state obbligate da normative specifiche. E’ importante, a tal fine, basarsi su nuove competenze specifiche, nuovi professionisti in grado di ascoltare i “rumori di fondo” che lasciano presagire un attacco e che riescano ad analizzare soluzioni efficaci per proteggere il data center, facendo la distinzione tra la protezione dei dati e la difesa degli stessi, come due operazioni interconnesse tra di loro. Proteggere significa mettere delle barriere, costruire delle infrastrutture, dei meccanismi di salvaguardia. Difendere, invece, è un passaggio che deve essere inteso come capacità di analisi della situazione nel momento in cui si verifica, e saper decidere tempestivamente sul da farsi. Acquista valore aggiunto oltre alla formazione, la consulenza da parte di esperti del settore. Il 2016 è stato l’anno delle normative europee e il 2017 si è attuato un atteggiamento nazionale di strategia di difesa più attenta e mirata, che si concluderà proprio con il GDPR. All’interno del nostro piano nazionale c’è l’intenzione di creare un centro di ricerca e sviluppo sul tema cybersecurity, con grande attenzione pe la tematica dell’industria 4.0, come risposta a una realtà complessa rispetto a un tema collegato con l’interconnettività mondiale, come presa responsabilità di fronte a questo vasto scenario, ma anche come nuovo motore che genera grosse opportunità future. Proprio a garanzia dell’integrità dei prodotti o internet data e quindi di tutti gli oggetti interconnessi che entrano quotidianamente nelle nostre case e nelle aziende, è stato studiato un protocollo di certificazione specifico sul prodotto stesso, un framework europeo condiviso, con caratteristiche di industry friendly, con costi non eccessivi e da attuare in tempi relativamente brevi. Si ha oggi una nuova presa di coscienza per arrivare poi a predisporre strumenti per minimizzare le superfci di attacco. Gli aspetti di protezione in quanto tali, vanno verso esigenze di adozione, di pratica e sviluppo di sistemi di innovazione; proprio in questo tipo di scenario gli standard si configurano come necessari. Si dovrebbe ripartire dalla formulazione delle competenze di base, con una nuova modalità di insegnamento delle stesse materie alla base dell’informatica. E’ quello che sta succedendo in università all’avanguardia come a Roma, Milano e Trento, che hanno nell’ultimo anno istituito dei corsi di laurea proprio improntati sul tema della cybersecurity. L’aspetto culturale andrebbe però introdotto intercettando persone con un percorso di studio che addirittura non hanno ancora iniziato un percorso universitario, quindi dalle scuole superiori, senza tralasciare, in questo momento la social del cittadino.
Le aziende, le PA e le PMI spendono sempre più in sicurezza, ma probabilmente per fare la differenza ciò che è necessario è un cambio di approccio a queste tematiche. I dati e gli oggetti interconnessi viaggiano verso i 20 miliardi previsti per il 2020, e ogni oggetto che si connette nel cyber space attua almeno tra le 10 e le 100 vulnerabilità che si inseriscono all’interno del sistema. La ricerca sta andando avanti nei vari settori per ridurre questa vulnerabilità, che comunque sarà sempre presente, perché legata almeno in parte al fattore umano nello sviluppo e nell’utilizzo del SW e perché il ciclo di vita stesso di quest’ultimo non è legato alla sicurezza. Questo impone a tutti di ripensarsi come possibile target del cyber space e quindi come possibile vittima di un attacco. E’ necessario quindi formarsi e informarsi per potersi difendere meglio ed essere più competitivi sul mercato. Se non saremo in grado di implementare un piano integrativo multisettoriale di processi che convergono tutti in una direzione, aumenteranno le vulnerabilità esponenziali. Avremo così i Paesi che riusciranno a mettere in pratica un piano adeguato del rischio e quelli che creeranno processi slegati tra di loro e che non riusciranno a difendersi in caso di attacchi mirati.
Roberto Baldoni, Professore Ordinario si Sistemi Distribuiti, presso la Facoltà di Ingegneria dell’Informazione dell’Università degli Studi Sapenza di Roma, ha infine sottolineato che essendo i dati di tutti, sono di tutti e in mano di tutti, quindi tutti devono sentirsi partecipi di questo processo che è di social responsability e che necessita una Information Sharing, intesa come una condivisione delle informazioni, che ha alla sua base una più reale intenzione di condividere soluzioni, facendo squadra, collaborando anche tra pubblico e privato, mettendo in sintonia processi che vanno verso l’innalzamento della difesa nazionale, attraverso interventi multidimensionali, e multidisciplinari, creando in primis nuove expertices e skills nei vari campi per avere una sempre maggiore workforce nei vari settori.

#CySec360summit

martedì 2 agosto 2016

DOSSIER 'L'Albero di Lullo': Comunicazione ecologica: didattica attiva e condivisione delle esperienze

Conoscenza 2.0, nuove tendenze e stili/metodi di apprendimento, partendo da processi di apertura all'altro, per la co-costruzione delle esperienze e di nuovo sapere. Ne abbiamo parlato con la dott.ssa Barbara Costantini, formatrice e facilitatrice dell'apprendimento per l'ente di formazione FORMART (BO).

Progettare esperienze di formazione: quali sono le variabili influenti e i fattori di successo di un processo di apprendimento valido?
I progetti formativi solitamente si rivolgono e sono sviluppati per gruppi di persone accomunate da interesse verso un tema, dal ricoprire un ruolo simile nel contesto professionale, dall’avere background di istruzione paragonabili, per citare solo alcuni aspetti. Dalla mia esperienza, sia nel ruolo di facilitatrice che di partecipante, al di là dei caratteri di omogeneità citati, la motivazione personale resta un elemento importantissimo per godere appieno del momento formativo. Inoltre, se esistono obiettivi formativi che si riferiscono al raggiungimento di competenze (saper fare) e capacità relazionali (saper essere), la migliore modalità formativa da proporre risulta il metodo attivo (discussioni, case study, role playing, laboratori esperienziali, outdoor, teatro etc.). Esiste un’ampia letteratura sul “sapere/saper fare/saper essere”, una sintesi interessante può essere consultata al seguente link Lavoro e professioni

L’approccio esperienziale ha alla base l’idea di una persona intera, presente e attiva rispetto alla quale il processo di apprendimento risulta tanto più efficace quanto più stimola l’autonomia, la ricerca del proprio sviluppo personale, quindi la crescita. In tale contesto il ruolo del docente si trasforma in quello di facilitatore, orientato alla persona in apprendimento. Il facilitatore alimenta un clima vitale e costruttivo, sostiene forme di comunicazione partecipata (rete circolare) e la sua azione è orientata alla crescita dei potenziali dei singoli, nel rispetto degli obiettivi del gruppo.

Il ruolo del facilitatore diventa necessario se “saltano” i criteri di omogeneità e il contesto risulta estremamente eterogeneo: dal mio punto di vista, occorre far emergere i fili rossi (esistenziali) che ci permettano di incontrarci nella nostra umanità. Da lì possiamo costruire il nostro reciproco apprendimento. Facilitatore e partecipanti insieme.

Reggio, nel suo bellissimo libro “Il quarto sapere” (2010), ci ricorda che “l’esperienza come apprendimento è soggettiva, frammentaria, si basa sull’interruzione della routine, implica passaggi di trasformazione in profondità. Si viene a creare un rapporto con il mondo di carattere inter-attivo in cui il soggetto (a seconda delle condizioni di contesto e personali) intenzionalmente e consapevolmente agisce nei confronti del mondo distinguendosi da esso e affermandosi come soggetto teso all’autonomia. L’apprendimento dall’esperienza, nel suo movimento del generare, mette in luce la sua qualità poetica, di creare forme nuove, di combinazione originale tra elementi già noti. Dalla generazione affiorano la sorpresa, lo stupore e la meraviglia per quanto fatto. Aspetti generativi possono anche non risultare espliciti e consapevoli nel momento nel quale l’esperienza avviene o immediatamente dopo; rimangono quiescenti e nascosti fino a che altre esperienze e la nostra capacità di imparare da esse, non permettono di recuperali, farli emergere a livello di coscienza, concretezza e comunicabilità. La generazione dura, quindi, nel tempo e produce effetti anche a distanza”.

Come fare a scegliere i contenuti giusti, opportuni e necessari per massimizzare il risultato e il valore di un intervento formativo?
I contenuti, nel mio caso la strada da percorrere attraverso esercitazioni/esercizi con metodi attivi, risponde alle richiesti dei committenti che hanno determinate esigenze rivolte a collaboratori, responsabili, partecipanti etc. Questa è la cornice macro in cui pongo domande per capire come essere di aiuto e anche per condividere il mio ruolo di facilitatrice con modalità ecologica (vd. sotto). Quando sono sul campo, le persone sono al centro, protagoniste e la mia direzione è tenere insieme l’obiettivo da raggiungere (es. apprendere a comunicare in modo ecologico), impegnandomi ad accogliere le persone “là dove si trovano” in quel momento, rispettando i tempi e le possibilità di ognuno. Se mi trovo con gruppi di persone caratterizzati dal massimo grado di eterogeneità e bassa motivazione, in fase di progettazione cerco di immaginarmi quali strumenti/riflessioni possano essere di aiuto in ambito professionale e personale, in base anche all’attuale fase economica (es. comportamenti desiderabili, consapevolezza di sé et al). Costruisco il percorso, dedicando il primo momento della giornata a raccogliere in diretta eventuali bisogni formativi. Questo rende protagoniste fin da subito le persone, mi dà la possibilità di rispondere a richieste precise e mette già in luce i fili rossi in circolo, così importanti. Inoltre, nel corso dell’incontro, i partecipanti vedono prendere corpo (o meno) i valori/concetti/bisogni espressi nel primo giro di condivisione/presentazione. Raramente le persone restano indifferenti al processo. Questo è già l’inizio dell’ apprendimento, che poi avrà la possibilità di diventare nuova routine o cambiamento a seconda dei fattori personali e situazionali di ciascuno di noi.


Una frase che mi ha colpito del tuo blog: "il risultato di un'azione formativa di successo sta nel riuscire a creare le basi per trasformare l'ambiente di lavoro in una comunità in cui si può essere sé stessi...". In relazione a questo, la conoscenza in un'ottica di condivisione delle esperienze può incidere in un processo che porta consapevolezza di sé stessi?
La comunità prende forma se ci incontriamo sul terreno esistenziale, piuttosto che tecnico. Se lavoriamo sui nostri valori, le nostre capacità e qualità. Il tutto, allenandoci alla sospensione del giudizio, all’apertura, affinchè sia possibile, per tutti, esprimersi nel rispetto di sé stessi, degli altri e del luogo di lavoro. Condividere esperienze ci fa sentire meno soli, meno strani, ci fa avvicinare. Questo è valido anche quando facilito gruppi di colleghi, abituati a stare in relazione solo tramite il ruolo professionale. Rispettare il ruolo, arricchendolo con la nostra identità, migliora il clima di collaborazione, alimentando il benessere. La consapevolezza di se stessi aumenta proprio stando in relazione.

Comunicazione ed empatia, quanto le competenze relazionali sono importanti per migliorare l'ambiente lavorativo che diventi così collaborativo e sviluppi appieno l'idea di comunità di pratica?
Ogni organizzazione è un’organizzazione complessa perché deve coniugare diversi livelli di realtà: il mercato esterno (la domanda degli utenti, degli stake-holders, lo stato dell’economia etc.) con quello interno, ossia i suoi abitanti- cittadini che hanno sì, ruoli e mansioni, ma allo stesso tempo sono attraversati da emozioni, bisogni, aspettative. E’ difficilmente pensabile poter eccellere nella gestione del primo livello, dimenticandosi del secondo, o preoccupandosi degli aspetti solo materiali (retribuzione, piano ferie etc.).
Le ricerche in tema di organizzazione, svolte dalle principali società di consulenza internazionale (GreatPlaceToWork) e Università (Harvard Business School), rilevano empiricamente come la fiducia tra colleghi sia la caratteristica essenziale che contraddistingue i migliori ambienti di lavoro, con conseguenti risultati economici brillanti.
Uno spazio caratterizzato dall ’attenzione all’altro e dall’ espressività individuale ha un effetto diretto sulla stima reciproca e sullo sviluppo di relazioni interpersonali (empatiche) proficue e di reciproco vantaggio-benessere. Diviene evidente come la relazione –verso varie direzioni- sia al centro di qualsiasi progetto organizzativo di benessere e sviluppo.

Se dovessi tradurre quanto sopra in parole chiave, utilizzerei termini quali ascolto, apertura, entusiasmo, condivisione, sintonizzazione.
Il risultato di un’azione rivolta al benessere organizzativo sta nel riuscire a creare le basi per assimilare l'ambiente di lavoro ad una comunità, in cui si può essere se stessi, esplorare alternative con la possibilità di sbagliare, apprezzare la diversità dell’altro e tanti aspetti ancora.
In tal modo la “fatica quotidiana” condivisa si trasforma, diminuendo l’eventuale stato di tensione, chiusura, debolezza, che sono alcune delle manifestazioni causate dal blocco delle emozioni “negative” all’interno del corpo (solitamente fermo davanti al PC!). Spesso, in presenza di questo blocco, o a seguito di eccessivi carichi di lavoro, pensieri ed emozioni si alimentano fino a diventare un fastidioso circolo vizioso che aggiunge carico extra alla giornata lavorativa.

Come si potrebbe definire la 'comunicazione ecologica'?
Jerome Liss, professore ordinario all'Istituto di psicologia clinica dell'Università di La Jolla/Svizzera e fondatore della Scuola Italiana di Biosistemica, ha vissuto per diffondere la cultura dell’ascolto profondo e della comunicazione ecologica, ossia l’ applicazione dei principi ecologici alle relazioni umane: coltivare le risorse di ogni persona, rispettare la diversità e nello stesso tempo mantenere una coesione globale in modo che le persone possano agire insieme per un obiettivo comune. Personalmente, quando mi affidano “corsi” di comunicazione, ai committenti preciso sempre che la mia proposta è un percorso più che un corso, per tutto quello che ho descritto in precedenza. Allo stesso tempo, alle persone che incontro, faccio presente che alla base dell’apprendimento, soprattutto in una cornice di comunicazione-relazione,l’intenzione personale è fondamentale: se non desidero “incontrare l’Altro”, posso fare tutti i corsi del mondo, che non mi sarò spostata dalla mia posizione.



Barbara Costantini, counselor biosistemico con specializzazione in gruppi di auto-aiuto e master in gestione delle risorse umane, lavora da anni in ambito organizzativo (imprese, enti pubblici), facilitando lo sviluppo dei singoli e del gruppo di lavoro di cui fanno parte, come supporto al raggiungimento di obiettivi personali e aziendali, in un ambiente relazionale che si arricchisca della comunicazione ecologica e ascolto profondo (à la Jerome Liss). Svolge attività privata di counseling, coaching a mediazione corporea rivolta agli adulti. Facilitatrice con metodi attivi per enti di formazione in Emilia-Romagna. Dal 2007 co-conduce una compagnia di playback theatre (teatro sociale d’improvvisazione) che offre le performance nelle “comunità”, condividendo con esse storie ed emozioni. Videointervista al seguente link Conseling Biosistemico

lunedì 25 luglio 2016

Web 2.0 e la nascita del nuovo consumatore digitale: il PROSUMER

Negli ultimi anni il web, con la sua evoluzione da contenitore di informazioni (web 1.0) a strumento di interazione e relazione (web 2.0) ha profondamente trasformato le dinamiche socio-economiche e politiche che regolano la nostra quotidianità. E non solo. Ha rivoluzionato il paradigma della comunicazione e le sue regole di base. I Social Media hanno cambiato le regole della comunicazione e del marketing: le relazioni e gli affari si fanno e mantengono sempre di più nel mondo digitale.
Nel 1967 Paul Watzlawick, psicologo e filosofo austriaco naturalizzato americano, insieme ad altri studiosi della Scuola di Palo Alto (California), pubblicò il testo “Pragmatica della comunicazione umana” all’interno del quale definì gli assiomi della comunicazione: il primo assioma dice che è impossibile non comunicare, qualsiasi interazione umana è una forma di comunicazione, qualsiasi atteggiamento che un individuo assume è portatore di un significato per gli altri.
Se “non comunicare” è impossibile, comunicare male significa trasmettere un messaggio sbagliato di sè stessi.La comunicazione on-line è cambiata dal web 1.0 al web 2.0, se prima era necessario avere un sito almeno istituzionale, ora con il traslare della comunicazione verso il web 2.0 e i contenuti social è fondamentale comunicare in maniera globale, per sfruttare tutte le potenzialità e i vantaggi della social communication e della condivisione dei contenuti.
Il Web 2.0 non è un software né un nuovo protocollo. L'equivoco, potrebbe sorgere da quel “2.0”: una cosa che ricorda la modalità di denominazione di nuove versioni di un software ma da un punto di vista strettamente tecnologico, la seconda versione di Internet è del tutto equivalente alla prima. La differenza sostanziale risiede nell’approccio con cui gli utenti si rivolgono al Web: dalla semplice consultazione passiva dei contenuti alla produzione dinamica e attiva di pagine web e informazioni che vanno ad arricchire, popolare e alimentare la Rete. Non si tratta quindi della semplice consultazione delle e-mail, dell’uso dei motori di ricerca, della navigazione lineare del Web, bensì di una partecipazione interattiva alla pubblicazione di contenuti sul Web attraverso un maggior coinvolgimento degli utenti, che scrivono commenti, lasciano feedback e aprono diari personali on-line. Il Web è ora Live Web, composto da una parte dinamica e in costante aggiornamento. La nuova versione del Web riflette dunque la democratizzazione dei media, i cui contenuti sono accessibili e alla portata di tutti attraverso le nuove tecnologie. Esso è diventato un posto dove le persone possono pubblicare materiale e scambiare foto personali, possono creare legami e tenersi in contatto con gli amici, possono invitare altri ad ascoltare la loro musica, discutere insieme ad altre persone degli argomenti più svariati, non solo parlando di se stessi e delle cose che amano, ma pubblicando anche recensioni di notizie attuali (le quali talvolta generano commenti che portano le persone a instaurare legami virtuali stretti) quasi come se stessero discutendo seduti a un bar. Inoltre nella struttura del Web 2.0 vigono i principi di libera competizione e collaborazione propri dei sistemi Open Source: rispettando le stesse norme legali e a parità di know how, chiunque può prendere parte alla rete e lo scambio di informazioni utente–utente svela .
Il fenomeno del Web 2.0 sembra rappresentare la capacità di milioni di persone, che non sono programmatori, di utilizzare le potenzialità del web per inventare cose nuove e per socializzare in modo nuovo: si tratta quindi di creare un prodotto che sappia offrire agli utenti uno strumento di relazione attraverso la condivisione di contenuti.
In questi ultimi anni, si sta assistendo nel panorama tecnologico allo sviluppo e alla diffusione di strumenti che spiccano per nuove funzionalità e disponibilità; si pensi al Web 2.0, alle community virtuali, ai blog, alle enciclopedie multimediali libere e ai mondi virtuali in 3D. Tali innovazioni tecnologiche permettono che il rapporto fra utente/consumatore e produttore/distributore evolva fino a tradursi in un vero e proprio collaborazionismo, nonché nella personalizzazione del contenuto e delle forme dei prodotti (beni o servizi) offerti. Dalla mass customization si passa ad una nuova concezione della catena del valore focalizzata sull’utilizzo delle nuove tecnologie, le quali consentono al consumatore di intervenire con propri contributi nelle diverse fasi di realizzazione e commercializzazione del prodotto/servizio offerto dall’impresa. La competitività delle imprese, sempre più attente all’evoluzione della domanda, oggi è fondata non solo sull’ascolto del consumatore, ma sulla capacità e possibilità di coinvolgerlo nella progettazione del prodotto o servizio; si è giunti, dunque, ad una enfatizzazione del concetto di prosumer, termine usato per indicare che i consumatori non sono solo semplici attori passivi ma diventano veri e propri consumatori consapevoli e, in molti casi, addirittura produttori. Le prime esperienze e i primi test di “partecipazione” si possono effettuare on-line, magari in un blog o in un mondo virtuale in cui il potenziale consumatore viene invitato a presiedere ad eventi o convention virtuali organizzati dalle imprese e, successivamente, a divenire parte attiva della fase di progettazione del prodotto. Tali considerazioni fanno riflettere sui bisogni dei nuovi consumatori “digitali” che, tra le loro caratteristiche, hanno la necessità di “essere connessi” alla rete. Senza voler esasperare i concetti, è facile sostenere che nell’attuale realtà la lettura della posta elettronica e/o la connessione al sito preferito per le principali notizie quotidiane sono diventate quasi condizioni necessarie cui è difficile rinunciare.

martedì 28 giugno 2016

Il Knowledge Management, prassi applicabile dal Marketing alle attività per la Corporate Social Responsibility


"Di Knowledge Management per il potenziamento del marketing aziendale, degli ambiti applicativi, dei possibili sviluppi futuri abbiamo parlato con la Dott.ssa Anita Fabbretti, Marketing Communication Manager di Quattroemme Consulting s.r.l..

La diffusione del Knowledge Management in Italia non sembra ancora essere così massiccia. Quali sono secondo Lei le cause?
Perché le aziende italiane non sembrano ancora del tutto pronte per questo passo? In realtà bisogna saper interpretare quanto accade al di là di schemi rigidi. Le grandi organizzazioni, perlopiù multinazionali, e questo va sottolineato, in modo esplicito parlano di implementazione di sistemi per il km già da diversi anni. Soprattutto all’estero, da cui è partito il filone di studi e di applicazione del km, si ha ben chiaro cosa sia in ambito organizzativo, come va inquadrato, gestito e realizzato un progetto di questo genere. E questo si riflette nelle filiali mondiali delle aziende americane o di altri Paesi più maturi del nostro in questo ambito oppure in tutte quelle aziende italiane che si sono internazionalizzate.

Elementi cardine dei progetti per la gestione della conoscenza in ambito organizzativo sono i processi, la tecnologia e le persone. I processi aziendali sono l’essenza stessa dell’organizzazione, il suo modo di esprimersi e muoversi nel contesto di riferimento interno ed esterno, ne configurano, alimentano e sostengono, validandola, la struttura. La tecnologia è il fattore abilitante, il mezzo attraverso il quale l’azienda ottimizza le proprie procedure e realizza il ROI. Esistono tecnologie maggiormente “portate” ad essere la soluzione migliore per la realizzazione di knowledge management systems, ma quello che è fondamentale è la progettazione a livello architetturale di tutto l’ambiente, più che la piattaforma tecnologica di sviluppo. Un KMS efficace prevede l’integrazione di svariate tecnologie e strutture informatiche, nuove o già in essere. Non è necessario, se non in casi limite, costruire da zero un sistema informatico di raccolta, ricerca, gestione, elaborazione ed archiviazione dei dati e delle informazioni quale è un vero kms. Il terzo elemento sono le persone, ossia l’anima, il cuore e il cervello di ogni organizzazione, elementi attraverso cui tutto passa e tutto viene creato. I knowledge workers fanno la differenza in un progetto per il knowledge management. E sui knowledge workers va tarato un progetto per il km che possa fornire dei risultati e non morire nelle intenzioni degli sponsor interni del progetto.

Partendo da queste premesse è possibile dare una risposta. Il nostro tessuto economico è caratterizzato prevalentemente da PMI, che nel loro operare spesso realizzano pezzetti di sistemi per il km al fine di migliorare le proprie performance o per soddisfare richieste specifiche legate ad adempimenti necessari. Ma molte di queste organizzazioni, anche a causa della loro stessa natura, non hanno consapevolezza che migliorare una procedura, informatizzarla, e quindi migliorare un processo organizzativo puo’ avere risvolti più ampi e decisivi nel rendere un comparto o tutta l’organizzazione più snella ed efficace. Questi progetti non sono quindi solo per le grandi organizzazioni, ma in realtà sono applicabili a tutti i contesti organizzativi. Vanno semplicemente tarati sulle dimensioni organizzative e personalizzati in base alle esigenze. In Italia quindi il vero problema è la mancanza di una visione d’insieme su cosa sia il knowledge management e come praticarlo anche e soprattutto ai fini di business, e questa mancanza di visione avviene nella maggior parte delle organizzazioni. Si agevolano alcuni processi, si adottano soluzioni per migliorare l’archiviazione, la gestione e la condivisione dei documenti, si promuovono iniziative di collaborazione per team di lavoro, troppo spesso semplicemente adottando strumenti che la agevolano, ma magari non si interviene, al di là di momenti di formazione specifica sull’utilizzo degli strumenti e dei sistemi implementati, sul mettere le persone in condizione di cambiare mentalità, approccio e modo di lavorare. Non si interviene cioè sul fattore consapevolezza delle risorse umane che fanno parte del tessuto organizzativo e che sono le uniche a poterlo cambiare e trasformare. Tempi e costi sicuramente influiscono su questa errata valutazione. Un progetto di km prevede necessariamente un investimento e una progettualità organizzativa lungimirante. Il motivo del “fallimento” o dell’abbandono o cattiva gestione delle iniziative intraprese nell’ottica di realizzare una learning e knowledge organization dipende da una visione che privilegia il breve termine. Perché un conto è migliorare una procedura o realizzare un singolo episodio di team collaborativo, un conto è cambiare il modo di lavorare, di vivere l’organizzazione e la propria professionalità, sviluppando un senso di partecipazione e progettualità che sia scambievole tra la stessa organizzazione e gli individui che ne fanno parte. La vera resistenza/ostacolo in Italia è quindi di tipo culturale. E su questo bisogna lavorare principalmente. La nostra azienda, pur rispondendo alle esigenze dei clienti secondo quanto richiedono, fornisce un supporto nell’inquadrare questa tipologia di progetti secondo un quadro che sia appunto lungimirante.

Quali settori aziendali avvertirebbero maggiormente gli effetti positivi di un Knowledge Management System?
Tutti i settori organizzativi, in realtà, possono avere benefici in generale dall’adozione di pratiche per il km e di un KMS. Perché cambiano il modo di lavorare e di vivere gli obiettivi aziendali, migliorano la collaborazione e la visione d’insieme dell’agire organizzativo e alla lunga modificano e impattano su tutta l’organizzazione, rendendola più fluida, efficiente ed efficace. Procedendo per gradi sicuramente i primi risultati si hanno nel settore marketing e commerciale, che deve velocemente poter maneggiare ed elaborare tutte le informazioni necessarie per capire come muoversi nel proprio mercato per recuperare o mantenere competitività. Ma anche il settore R&D ne ha dei grandi benefici e anzi dovrebbe tendere per sua natura a sentire la necessità di adottare un KMS. Ma lo stesso vale per l’area Risorse Umane o per l’area Amministrativa e Finanza e Controllo. Creare dei gruppi di studio, di lavoro su un determinato focus fornendo un ambiente collaborativo oggi grazie ad alcune soluzioni tecnologiche è relativamente semplice. Lo stesso vale per i sistemi di raccolta, gestione, archiviazione delle informazioni aziendali e per i sistemi di data analysis e cruscottistica che supportano le Direzioni nelle decisioni strategiche aziendali. Il vero salto di qualità semmai è inquadrare questi singoli episodi o iniziative in una metodica, in una pratica aziendale che possa impattare su tutta l’organizzazione facendola evolvere e proiettandola in una dimensione più congrua al periodo che stiamo vivendo e alle necessità emergenti. Un KMS nel suo complesso è un sistema che deve mettere gli utenti in condizione di: accedere, fare ricerche, elaborare i dati e le informazioni, organizzarle, archiviarle, fornire delle forme aggregative di dati provenienti da diverse fonti per effettuare delle analisi e quindi dei ragionamenti per prendere delle decisioni, mettere a disposizione di tutta l’organizzazione questa conoscenza (implicita ed esplicita), individuando le varie finalità di business. E’ quindi fondamentalmente un sistema tecnologicamente integrato, supportato da pratiche aziendali che insegnano e promuovono metodologie e approcci lavorativi di tipo collaborativo, che tutte le forme possibili di interazione e comunicazione interne ed esterne all’organizzazione. Questo significa che un KMS ben progettato ed implementato può agevolare il raggiungimento dei fini aziendali, ma avrà un senso e porterà benefici solo se ben compreso relativamente alle finalità ultime e non solo ai task giornalieri, anche dagli utenti coinvolti.

Quanto può influenzare il KM per il potenziamento di una strategia di marketing aziendale?
Il km è fondamentale per quest’area, come ho accennato. Perché lo scopo fondamentale è gestire la conoscenza per creare altra conoscenza ai fini del business. La nostra esperienza ci ha portato a definire questo ambito di attività consulenziali e di sviluppo software per l’implementazione di sistemi collaborativi, di document and information management, di business intelligence come progetti per il Business Knowledge Management, appunto focalizzati allo sviluppo delle organizzazioni che li adottano e al raggiungimento degli obiettivi aziendali che si prefiggono.

Il marketing aziendale è a supporto dell’attività commerciale e della creazione e rinforzo dell’immagine aziendale o di prodotto, sia verso gli stakeholders esterni, che verso quelli interni. Ha un compito quindi molto delicato e finalità trasversali. Necessita di tutte le informazioni necessarie ad elaborare corrette strategie per realizzare gli obiettivi individuati. Tali informazioni devono essere fresche, provenire dalle fonti più disparate e quindi andranno raccolte con gli strumenti adeguati per i vari ambiti di ricerca, in modo da poter essere poi trasformate in conoscenza, che è uno dei valori intangibili delle aziende. Inoltre, una strategia di marketing ha la necessità di monitorare costantemente i risultati delle attività in corso, in modo da poter velocemente elaborare anche dei cambi di rotta o eventuali aggiustamenti in caso di scollamenti o ritardi. Il km fornisce tutti gli strumenti necessari per svolgere questa importante funzione in modo efficace. Ma, come già detto, deve essere approcciato con una visione ampia e applicato per gradi, per poter fornire i risultati sperati. Deve essere lungimirante e nello stesso tempo muoversi con obiettivi di breve termine. Solo così si potrà innescare quella spirale della conoscenza che nei tempi giusti potrà rendere l’organizzazione una learning e poi knowledge organization, leader di competitività in un mercato sempre più difficile da vivere e interpretare.

Quali scenari futuri può avere il Knowledge Management e in che direzione si muoverà?

Gli scenari auspicati sono quelli che però si vedranno nel lungo periodo, ossia di organizzazioni che avranno imparato a muoversi nel mondo liquido, come Bauman insegna, in continuo e imprevedibile movimento e che sapranno quindi adattarsi, rispondendo energicamente alle sollecitazioni del mercato e della società, senza rimanerne schiacciate. Organizzazioni i cui confini saranno definiti solo dalle relazioni, dai movimenti della conoscenza e dalle transazioni che nasceranno da queste interazioni. Il km porta ad un modo nuovo di vivere l’organizzazione. Un modo nuovo di esprimersi negli ambiti organizzativi e di realizzare gli obiettivi personali che diventeranno anche gli obiettivi aziendali e viceversa. Flessibilità non sarà sinonimo di mancanza di ossatura, ma significherà sapersi orientare con disinvoltura nel proprio mondo di relazioni finalizzate a creare e rigenerare i fini di business e di sviluppo personale. Credo che sia auspicabile una utilizzazione delle modalità e degli strumenti per il km alle attività che le organizzazioni intraprendono in ambito di Corporate Social Responsibility, in particolare relativamente allo sviluppo delle competenze delle persone, così come indicato dalla Comunità Europea. Le imprese che investono in pratiche di CSR, in particolare relativamente allo sviluppo delle Risorse Umane, si rendono maggiormente produttive e competitive. Attività portate avanti secondo i dettami della Responsabilità Sociale d’Impresa comportano effetti diretti ed effetti indiretti. Far crescere la consapevolezza delle persone nel loro ambito lavorativo e professionale agisce infatti sulla motivazione e sul rendimento. Porre attenzione allo sviluppo delle competenze specifiche e trasversali dei propri collaboratori rende le imprese capaci di innovare e quindi di essere maggiormente competitive. Inoltre, un’organizzazione che si muove in modo socialmente responsabile riscuote l’attenzione dei propri stakeholders, tra in quali vanno annoverati investitori e consumatori, perché migliorerà l’immagine e la reputazione d’impresa, oltre a rinforzare il proprio valore etico, che come sappiamo sono i punti di forza sui quali si regge la crescita e lo sviluppo economico della stessa.

Il KM ha un aspetto filosofico teorico che è la ragione stessa dell’esistenza di questo filone di studi: porre la gestione della conoscenza come valore e finalità suprema in quella che viene definita l’economia della conoscenza, il cui sviluppo diventa volano anche per una crescita economica. Ha poi un aspetto pragmatico che comprende l’implementazione di infrastrutture tecnologiche adeguate per la gestione dei processi che devono ottimizzare o facilitare. Ed infine, un aspetto morale che si rivela nell’attenzione rivolta allo sviluppo delle persone, sia relativamente a competenze specifiche, tecniche, di know how, che trasversali utilizzabili e spendibili in qualsiasi ambito. Matchando questo con i dettami della CSR ogni organizzazione potrà creare un ambiente ottimale interno in cui poter far crescere e tutelare i propri componenti e a sua volta, in un circolo virtuoso, potrà fiorire e competere in quello esterno."




martedì 10 maggio 2016

Il web come piattaforma

L'utilizzo del Web come piattaforma è una delle più grandi novità del web 2.0, in quanto racchiude molti elementi tra di loro uniti in interconnessioni logiche, quali: tecnologia, dinamiche sociali, esperienza e partecipazione dell'utente, quindi delle persone.
Web come piattaforma significa poter utilizzare Internet per realizzare vere e proprie applicazioni sw, distribuite e usate dal alto utente grazie alla Rete stessa.
Con poche eccezioni(come applicazioni di Webmailing e home banking), il web fino a poco tempo fa proponeva solo dei contenitori di informazioni, i cosiddetti 'siti/informations', in genere monodirezionali, che dal creatore andavano verso l'utente finale, offrendo contenuti e funzionalità; l'utente finale, quindi, fruiva delle informazioni proposte, senza poterle rielaborare o modificare in alcun modo.
Oggi questi contenitori diventano vere e proprie 'applicazioni' e servizi per gli utenti basati su un'elevata interazione bidirezionale proprio come in una computing Platform. In questo caso, per piattaforma si intende una serie di operazioni pratiche e funzionali, legate tra di loro.
Il sito, utilizzato all'epoca del web 1.0 sembra quindi essere superato da altre applicazioni di tipo user content management (blog, corporate portal, ecc...).
Tecnologicamente il web diventa piattaforma grazie all'utilizzo di applicazioni sw (come ad esempio RSS e AJAX)che si possono sviluppare per i più svariati usi; il sw in questo caso diventa un servizio di comunicazione, mediante il quale è possibile condividere dati tra le stesse applicazioni web.
Dal punto di vista dell'utente, il web diventa piattaforma perché può essere utilizzato per la creazione di nuova intelligenza collettiva, o più semplicemente di materiale informativo condiviso, diventando così forma di creazione e sviluppo di nuova conoscenza, a partire da contenuti aperti e rilasciati sotto Creative Commons.