Decreto semplificazioni: cosa cambia per la privacy

Nella tarda mattinata di ieri il governo ha posto la questione della fiducia alla Camera sul decreto legge in materia di semplificazione fiscale ed ha introdotto svariate semplificazioni e novità.

In questo articolo parleremo delle novità in tema Privacy (decreto legislativo 193/2003)

Con il decreto semplificazioni ufficialmente vengono abrogati una serie di articoli in cui si evince (ma si sapeva da tempo ormai) che non serve più il dps come documento da avere in azienda.

Infatti vengono abrogati alcuni punti  del disciplinare tecnico in materia di misure minime di sicurezza e precisamente tutto l'articolo 19 e l'articolo 26 che riportiamo:

 

Documento programmatico sulla sicurezza
19. Entro il 31 marzo di ogni anno, il titolare di un trattamento di dati sensibili o di dati giudiziari redige anche attraverso il responsabile, se designato, un documento programmatico sulla sicurezza contenente idonee informazioni riguardo:

19.1. l'elenco dei trattamenti di dati personali;
19.2. la distribuzione dei compiti e delle responsabilità nell'ambito delle strutture preposte al trattamento dei dati;
19.3. l'analisi dei rischi che incombono sui dati;
19.4. le misure da adottare per garantire l'integrità e la disponibilità dei dati, nonchè la protezione delle aree e dei locali, rilevanti ai fini della loro custodia e accessibilità;
19.5. la descrizione dei criteri e delle modalità per il ripristino della disponibilità dei dati in seguito a distruzione o danneggiamento di cui al successivo punto 23;
19.6. la previsione di interventi formativi degli incaricati del trattamento, per renderli edotti dei rischi che incombono sui dati, delle misure disponibili per prevenire eventi dannosi, dei profili della disciplina sulla protezione dei dati personali più rilevanti in rapporto alle relative attività, delle responsabilità che ne derivano e delle modalità per aggiornarsi sulle misure minime adottate dal titolare. La formazione è programmata già al momento dell'ingresso in servizio, nonchè in occasione di cambiamenti di mansioni, o di introduzione di nuovi significativi strumenti, rilevanti rispetto al trattamento di dati personali;
19.7. la descrizione dei criteri da adottare per garantire l'adozione delle misure minime di sicurezza in caso di trattamenti di dati personali affidati, in conformità al codice, all'esterno della struttura del titolare;
19.8. per i dati personali idonei a rivelare lo stato di salute e la vita sessuale di cui al punto 24, l'individuazione dei criteri da adottare per la cifratura o per la separazione di tali dati dagli altri dati personali dell'interessato.

26. Il titolare riferisce, nella relazione accompagnatoria del bilancio d'esercizio, se dovuta, dell'avvenuta redazione o aggiornamento del documento programmatico sulla sicurezza.

In sostanza: il famoso documento "DPS" sparisce. Ma si sapeva da tempo.

Il DPS è sempre stato un documento farraginoso e poco adottato dalle aziende in tutti i settori in quanto visto sempre come un qualcosa di inutile, un costo da sostenere per essere a norma. Molto spesso il documento era creato in forma automatica (decine di programmi che facevano in automatico o quasi il documento minimale e a norma di legge) oppure creato da consulenti senza scupolo per poche centinaia di euro con metodi di taglia e incolla. Dimenticando però lo spirito originario del sistema (e qui comincio a parlare di sistema per la sicurezza dei dati aziendali, non più DPS): Essere una guida per salvaguardare il patrimonio informativo della propria attività. Poche organizzazioni lo hanno inteso in questo modo.

Cosa succederà da oggi: probabilmente si dedicheranno ancora meno soldi al tema della sicurezza del proprio sistema informativo in quanto, erroneamente, si presuppone che non servendo più questo documento, il sistema potrà essere lasciato cosi' com'e'. Sbagliando. In quanto tutto il resto del sistema di sicurezza comunque deve essere garantito. Soprattutto in un' era in cui la digitalizzazione sta diventando sempre più pervasiva anche in settori che storicamente erano resti. Aprendo nuove prospettive di furto di dati digitalizzati anche sensibili.

Dal nostro punto di vista, condiviso da molti, il dps dovrà essere sostituito, all'interno dalle organizzazioni, da un manuale operativo per la gestione della sicurezza dei dati comuni, personali e sensibili.

Noi continueremo comunque nella nostra opera di sensibilizzazione sulla necessità della sicurezza del sistema informativo in quanto unico vero patrimonio delel organizzazioni.

Articoli Correlati

Risk Analysis

Da un estratto di un nostro documento per spiegare questa attività. Penso possa essere utile a molti.

Nelle realtà aziendali esistono innumerevoli contenitori di dati da cui si estraggono informazioni utili alla conoscenza del proprio business.
Questa frase contiene in sé il perché dell’analisi del rischio all’interno di una azienda.

Abbiamo dati in molteplici forme: cartacei, fogli excel, svariati databases, documenti informatici. Sono Fatti ed Oggetti. Da soli servono poco o nulla ma devono essere comunque gestiti.
Dai dati estraiamo informazioni correlandoli in configurazioni significative per la nostra attività.
La conoscenza è l’applicazione e l’uso produttivo dell’informazione.
Sono “oggetti” che quindi vanno preservati per la continuità dell’azienda.

Per tali motivi è necessario quindi analizzare l’intera azienda per scoprire dove sono questi “oggetti” e come preservali in caso di “disastri”.

Questo è l’oggetto della Risk Analysis:

  1. Fornire informazioni al management aziendale
  2. Verificare il rispetto di leggi e regolamenti
  3. Ridurre le perdite provocate dalle minacce

Gli obiettivi della Risk Analysis sono soprattutto:

  1. Determinare quali beni aziendali sono critici (e rientrano anche i beni o asset intangibili come la conoscenza e l’informazione)
  2. Identificare le minacce possibili
  3. Determinarne le criticità e le vulnerabilità
  4. Calcolare in maniera scientifica le perdite previste in caso di incidente
  5. Valutare le azioni e le contromisure da mettere in campo
  6. Mettere in campo le azioni correttive
  7. Periodicamente effettuare una nuova risk analysis

E’ un processo ciclico da effettuare con svariate metodologie:

  1. quantitative per dare un valore certo dei rischi, sono più costose e complesse ma alla lunga danno un vantaggio, sono ripetibili e confrontabili
  2. qualitative quando i beni o i dati non sono facilmente valutabili in termini economici (es quando un incidente causa perdita di immagine).

I passi sono abbastanza semplici da descrivere:

  1. identificare gli asset aziendali tangibili e intangibili determinandone i valori , la criticità la proprietà e la localizzazione
  2. Identificare le minacce distinguendo tra eventi naturali (es incendio) ed umani (furto di dati, abuso di privilegi) o tecniche (guasto hardware, guasto software) e facendo una stima della loro frequenza di accadimento
  3. Identificare le contromisure esistenti  (antivirus, ridondanza, condizionamento, antifurto, backup, controllo accessi)
  4. Identificare le vulnerabilità
  5. Calcolare il valore delle perdite stimate con funzioni matematiche ad hoc oppure con matrici di probabilità: Questo Ë il rischio

Una volta calcolato il rischio totale si mettono in pratica azioni correttive volte a eliminarlo, abbassarlo, oppure trasferirlo (assicurazione).

A questo punto si entra nella gestione del rischio vero e proprio in cui si mettono in pratica una serie di metodologie organizzative e tecnologiche massimizzando il rapporto Costo/beneficio in quanto la gestione del rischio ha benefici ma anche costi quali:

  1. Costi di investimento
  2. Costi di Implementazione delle contromisure
  3. Costi operativi e di manutenzione
  4. Costi diretti e indiretti.

Il ritorno dell’investimento per la riduzione del rischio è comunque positivo se il processo è eseguito correttamente: ci sono dei benefici economici in quanto perdo meno tempo (es, quanto costa ricostruire un sistema gestionale partendo dalle copie cartacee?), benefici non economici come una migliore gestione, una maggiore consapevolezza, un livello di integrità dei dati migliorato.

In definitiva, uno studio di risk management ha l’obiettivo di presentare al management aziendale le contromisure necessarie alla riduzione del rischi e comprende:

  1. Il risultato della Risk Analysis
  2. Gli scenari delle minacce e vulnerabilità
  3. I risultati secondo l’analisi costi/benefici
  4. Le contromisure da adottare.

In sostanza dire che serve assolutamente un doppio ced, oppure una rete dati completamente ridondata, un certo sistema di replica delle informazioni senza avere fatto una seria analisi sia dei costi che dei benefici attesi  è assolutamente priva di significato. Di volta in volta le soluzioni possono essere diverse a seconda dell’azienda.

Sicurezza e valore dei dati

Articoli Correlati

Per l'IT c'e' ancora crisi… ma ci sono segnali di ripresa

Riporto dal sito di Assinform, che è importante per il nostro settore.

Rispetto al 1° semestre 2009 (-9,0%), il recupero è di 6,5 punti percentuali. In ripresa la domanda delle imprese di Pc e server con + 10,3%; recupero di 3 punti percentuali del software (-1,2%, rispetto al -4,1% del 2009); mercato consumer a + 21% Indagine congiunturale su aziende IT a luglio 2010: positiva (+0,5%), per la prima volta da un anno (-14,9% nel luglio 2009), la valutazione sui budget dedicati dalle imprese clienti allo sviluppo di nuovi progetti informatici.

Angelucci: “Per la crescita competitiva e occupazionale occorre sostenere la ripresa degli investimenti in innovazione. Da parte della politica ci aspettiamo atti di coraggio: incentivi stabili per le imprese che innovano e che si aggregano, anche tramite acquisizioni; una riforma fiscale che metta fine all’iniquità dell’Irap sui settori “labour intensive” come l’IT; la modifica delle regole delle gare, che vanno centrate sulla qualità dei servizi informatici e non sul puro ribasso delle tariffe”.

Milano, 14 settembre 2010 Per l’IT l’emergenza non è finita, anche se si riscontra un’inversione di tendenza. Il bilancio di fine giugno 2010 è ancora in rosso e il trend negativo penalizzerà il settore fino alla fine dell’anno. L’informatica italiana continua a patire gli effetti della crisi, della totale assenza di una politica per l’innovazione e del clima di incertezza che vive il Paese. Pur nella consapevolezza che molte imprese, soprattutto quelle esposte alla competizione internazionale, non hanno gettato la spugna e stanno tornando a investire nelle tecnologie informatiche e nell’innovazione dei processi, il settore IT manifesta nel suo complesso grande fatica a beneficiare della piccola ripresa in atto.” E’ l’esordio di Paolo Angelucci, Presidente di Assinform, nell’aprire la conferenza stampa di anticipazione dei dati sull’andamento dei settori IT e TLC nel primo semestre 2010. Un andamento che ha visto l’IT chiudere il primo semestre di quest’anno a – 2,5% e le TLC fermarsi a – 2,3%, rispetto allo stesso periodo del 2009.

“Oggi, tuttavia, la nostra preoccupazione non riguarda tanto le performance dell’anno in corso, che già prevedevamo ridotte, date le condizioni di oggettiva difficoltà del mercato – ha continuato Angelucci – quanto le iniziative da prendere ora, affinché le grandi potenzialità dell’IT, quarto settore industriale italiano con oltre 380.000 addetti, motore dell’innovazione e di occupazione qualificata, possano essere colte dal Paese, per avviare una fase di crescita competitiva nel 2011″. “Se vogliamo che l’informatizzazione infrastrutturale da parte delle imprese – ha sottolineato il Presidente di Assinform – fenomeno importante emerso nei primi sei mesi dell’anno, evolva verso un utilizzo pervasivo dell’IT nell’economia italiana generando nuova occupazione qualificata, soprattutto tra i giovani, sono necessari atti di coraggio da parte delle istituzioni, del Governo, della classe politica tutta, per introdurre nuove regole e condizioni quadro capaci di creare un clima che premi l’innovazione a tutti i livelli. Per questo occorrono provvedimenti di politica industriale stabili, che agiscano sul fronte del credito fiscale e degli incentivi, accompagnati da misure che facilitino l’accesso a finanziamenti bancari. La finalità deve essere quella di sostenere sia la domanda IT, premiando le aziende italiane che usano la leva tecnologica per migliorare la propria efficienza/produttività, sia l’offerta di Made in Italy tecnologico. In questo contesto vanno favorite fusioni e acquisizioni aziendali con un programma straordinario di ammortizzazione fiscale. Al contempo, le addizionali dall’Irap vanno spostate sull’Ire per stemperare il peso sull’occupazione di questa tassa, particolarmente iniqua per un settore ad alto utilizzo di risorse professionali qualificate quale l’IT. Infine vanno cambiate le regole delle gare: i servizi informatici non possono essere acquistati al massimo ribasso, ma per la loro qualità, nell’ambito di un giusto rapporto costi/benefici”.

I dati Assinform, evidenziano come per la prima volta dall’avvio della crisi, si sia manifestata una tendenza all’attenuazione del calo di mercato. Con il -2,5% segnato a fine giugno 2010, l’IT italiana ha recuperato oltre 6 punti percentuali rispetto al -9,0% registrato a fine giugno 2009 (sul 1° semestre dell’anno precedente). Il recupero ha interessato tutte le componenti informatiche, dall’hardware, al software, ai servizi, ma con notevoli differenziazioni e prospettive.
Il fenomeno nuovo, oggi potenzialmente più significativo, riguarda la crescita della domanda di Pc e server da parte delle imprese. Nei primi sei mesi dell’anno, infatti, il mercato dei Pc portatili, desktop e server ha registrato, rispetto allo stesso periodo dell’anno scorso, un incremento in volume di + 12,9%, pari a oltre 400.000 unità, assorbite per l’80% dalle imprese, la cui domanda è passata da -2,5% del 2009 all’attuale +10,3%. In particolare la domanda di server è salita del 12,3% (era stata -29% nello stesso periodo 2009), quella di desktop del + 13,4% (-21,5% nel 2009), mentre l’incremento dei Pc portatili è stato del 12,7% (simile al +14,8% dell’anno precedente). “Questi dati – ha commentato Angelucci – segnalano l’avvio di processi di rinnovamento delle tecnologie aziendali, di maggior informatizzazione delle imprese italiane, di investimenti in infrastrutture innovative. Processi che la crisi aveva quasi del tutto bloccato e che oggi appaiono sempre più indispensabili a quelle imprese che intendono affrontare la ripresa dei mercati”.
I riflessi positivi di questo tipo di strategie aziendali si ritrovano anche nell’andamento del segmento Software, che a fine giugno si è attestato a -1,2% a fronte della perdita di -4,1% raggiunta nello stesso periodo del 2009. Si attende quindi un’amplificazione positiva nei prossimi mesi verso la domanda di nuove applicazioni, spinta anche dalla novità delle scelte che le imprese stanno compiendo, privilegiando per oltre la metà della propria domanda l’acquisto di Pc portatili e quindi portando il focus verso le nuove frontiere tecnologiche e organizzative dettate dalla mobilità. Il segmento dei Servizi, che costituisce la metà dell’intero mercato informatico italiano (pari a 4.215 milioni di euro per i primi sei mesi dell’anno, a fronte di un valore totale di 8.918 mln), passato dal -7,3% del primo semestre 2009, all’attuale -3,7%, continua, al contrario, a essere fortemente penalizzato dalla tendenza sempre più accentuata al calo delle tariffe professionali.
“Se è evidente che nella maggioranza delle imprese e della Pa prevalgono tutt’ora le strategie di razionalizzazione finalizzate alla riduzione dei costi – ha concluso il presidente di Assinform – , il ribasso delle tariffe non può rappresentare un percorso sostenibile, ma una semplice valvola di sfogo che comprime i margini dei fornitori, rischia di incidere pesantemente sulla qualità dei servizi dei clienti e preclude lo sviluppo di nuova occupazione”.
Anche dalla VII indagine congiunturale condotta a luglio di quest’anno su un campione significativo di imprese associate Assinform, si ricavano segnali contrastanti, fra potenziali opportunità di ripresa, oscurate da previsioni ancora fosche sull’occupazione. In generale emerge un clima di ripresa di fiducia, con previsioni di crescita dei fatturati per il 43% delle imprese partecipanti (contro il 24% di luglio 2009 e il 27,6% di aprile 2010). Ma le Pmi prevedono, nella maggioranza dei casi, un andamento in calo degli ordinativi e degli utili.
Il dato più interessante, che conferma le rilevazioni di mercato, riguarda le valutazioni sull’andamento dei budget da parte delle aziende clienti. Per la prima volta dal luglio 2009 il tasso di crescita medio della spesa destinata allo sviluppo di nuovi progetti informatici raggiunge una valutazione positiva (+ 0,5%, a luglio 2009 era di -14,9%), mentre le spese correnti e per manutenzione guadagnano in stabilità, sebbene ancora in calo (-1,6%, valutazione di -6,1% nel luglio 2009).
Sul fronte dell’occupazione, dall’indagine congiunturale non emerge ancora alcuna previsione di ripresa. Continua l’emorragia dei consulenti, soprattutto da parte delle grandi imprese, sebbene in leggera attenuazione . Per i dipendenti sparisce la fascia di valutazione “molto peggiorato”, ma il 15% delle imprese continua a considerare la situazione in peggioramento, tendenza che nelle medie arriva al 33% e nelle grandi al 21%.

Articoli Correlati

Telelavoro: come gestirlo.

In un precedente post abbiamo parlato di strumenti open source per la gestione di gruppi di lavoro con interfaccia web.

Vediamo vantaggi e svantaggi di una metodologia di lavoro che in Italia stenta a decollare: il telelavoro.

Vediamo quali sono i punti forti, i punti deboli e per quale motivo in Italia non decolla.

I punti forti:

  • Il telelavoratore, in quanto tale, introduce un forte atto di fiducia da parte dell’azienda in quanto il lavoratore non è controllabile direttamente. Statisticamente, anche se nella nostra cultura è difficile da credere, il lavoratore è meno soggetto ad assenteismo e molto spesso il turnover diminuisce con ricadute significative nella produttività
  • Si sviluppano capacità come il lavoro per obiettivi e per progetti;
  • Si mantengono in azienda, anche se lontani, i cosidetti talenti, che per qualche mutazione del loro status, potrebbero lasciare l’azienda (malattie, maternità, trasferimenti, etc);
  • Ci sono meno vincoli per la ricerca del personale, nel senso che puo’ essere cercato anche lontano dalla sede dell’azienda;
  • Si possono ovviamente ridurre i costi della sede, in quanto basta una struttura più piccola. E questo può favorire soprattutto le aziende più piccole e gli studi professionali;
  • Per i lavoratori i vantaggi sono ovviamente una migliore conciliazione della vita privata con il lavoro, riduzione di costi per il trasporto, trasferimenti vari.

I punti deboli:

  • Il telelavoro ha bisogno di training: modi di comportamento, uso di strumenti software ed hardware diversi, mutati rapporti con l’azienda. Sia nei manager che nei lavoratori sottoposti;
  • I telelavoratori spesso sembrano dei privilegiati di fronte ai lavoratori tradizionali: occhio alla motivazione aziendale;
  • Pigrizia dei manager che non vedono di buon occhio questo modo di lavorare in quanto pensano di non poter controllare il loro sottoposto in quanto lo vedono poco;
  • Serve cambiare la mentalità dell’azienda e i processi aziendali.

Da un punto di vista tecnologico, il telelavoro è abbastanza semplice:

  1. Una connessione ad internet;
  2. Un pc, meglio se portatile;
  3. Un telefono cellulare magari collegato con il centralino aziendale;
  4. Una webcam (le riunioni si devono fare comunque;
  5. Dei sofwtare di comunicazione (es. skype) e di groupware (e-groupware ad esempio).

Alcuni consigli:

  1. fissare orari di lavoro anche per i telelavoratori;
  2. studiare accuratamente le metodologie di comunicazione (la sola e-mail potrebbe essere troppo fredda);
  3. schedulare incontri in videoconferenza;
  4. ogni tanto, ad esempio ogni due settimane, schedulare comunque una riunione dal vivo;
  5. impostare un sistema di valutazione dei risultati.

Bisogna abituarsi: sarà comunque il modo di lavorare del prossimo futuro

Articoli Correlati

Gestione di gruppi di lavoro con strumenti open source

L’organizzazione di una azienda, di uno studio, necessità di condividere tra i collaboratori molte informazioni. Molto spesso queste informazioni sono sparse su una quantità di supporti eterogenea: rubrica cartacea, appunti, file sui diversi computer, conoscenze non scritte dei collaboratori. Questo comporta molto spesso inefficienze, ritardi nella trasmissione delle informazioni, perdita di informazioni.

Le organizzazioni più efficienti, da anni si sono dotate di strumenti di collaborazione per sopperire a ciò. Nella mia esperienza sono ancora troppo poche, soprattutto in Italia e non solo presso le piccole organizzazioni mancano questi strumenti.

Spesso si dice che costano troppo, che non servono, che sono troppo complesse. Niente di più falso.

Costi: Le soluzioni open source, quindi libere da costi di licenza sono sempre più numerose e sempre più complete.

Non servono: avere a disposizione in ogni momento la propria agenda, la propria rubrica e quella dei collaboratori, avere sottomano l’ultima offerta o lo stato di un ordine molto spesso fa la differenza tra acquisire e concludere un contratto o perderlo. Immagazzinare la conoscenza dell’organizzazione in questi strumenti puo’ sopperire alla mancanza di alcuni collaboratori (che magari se ne vanno portando via conoscenza).

Troppo complesse: sono tutte web based, intuitive. Con pochi clic si trovano le informazioni grazie anche ai potenti motori di ricerca inseriti all’interno.

La verità molto spesso è un’altra: non sono mai state provate a fondo per un periodo sufficiente, si pensa di perdere tempo ad inserire i dati. In sostanza è solo ed esclusivamente un fatto culturale.

Vediamo una applicazione che da tempo propongo ai clienti e che utilizziamo all’interno della nostra struttura: E-Groupware.

L’applicazione è presente sul mercato da svariati anni ed ha raggiunto una buona stabilità. Gira su qualsiasi sistema su cui gira un interprete php, un database mysql, un server web. Quindi gira su piattaforma Windows, Mac, Linux. E’ accessibile esclusivamente via web da qualsiasi dispositivo su cui giri un web browser: PC, MAC, Linux, iPhone, iPad, BlackBerry, cellulari in genere con capacità grafiche.

L’applicazione o, meglio il sistema, è composto da vari sottosistemi integrati tra di loro ad esempio:

  1. Rubrica condivisa o personale estendibile. E’ possibile garantire l’accesso alla propria rubrica ai membri dell’organizzazione in svariati livelli di accesso;
  2. Agenda personale condivisibile con i membri dell’organizzazione. E’ possibile ad esempio dare l’accesso alla propria segretaria per l’aggiornamento degli appuntamenti. Le viste possono essere giornaliere, settimanali, mensili. Gli appuntamenti si possono esportare rapidamente presso altre agende.
  3. Un completo sistema di gestione delle varie attività per gestire telefonate, mail, to do, note. Si possono categorizzare liberamente e gestire gli stati di avanzamento delle azioni (un mini crm praticamente)
  4. Un buon sistema per la gestione dei progetti (se la nostra azienda lavora per progetti ad esempio uno studio di ingegneria, di architettura);
  5. Un buon sistema di gestione del foglio ore utile per tracciare ad esempio attività da fatturare ai nostri clienti
  6. Un sistema per la gestione delle risorse aziendali su prenotazioni, ad esempio sale riunioni, auto aziendali, furgoni aziendali, apparecchiature di prova
  7. Un sistema completo per la gestione documentale aziendale completo di versioning, scadenza documenti, access list, ricerca per metadati (nella nostra organizzazione abbiamo svariate migliaia di documenti salvati all’interno e non da segni di cedimento o di lentezza)
  8. Un sistema di gestione documentale privato per ogni membro dell’organizzazione (che si usa poco, l’altro è molto più potente)
  9. Un sistema per la gestione della conoscenza aziendale classificabile in categorie utile per esprimere in documenti metodologie di lavoro, guide interne, policy aziendali.
  10. Un sistema wiki integrato, dalle funzionalità basilari;
  11. Integrazione e-mail, siti, notizie interne e molto altro ma meno utilizzati
  12. Soprattutto si puo’ estendere grazie alla buona documentazione offerta. Si possono quindi creare moduli ad hoc per l’azienda.

Le informazioni vengono tutte salvate su database relazionale e quindi è molto agevole accedere al sistema per effettuare ricerche non previste, analizzare le attività aziendali in ottica di migliorare la performance, etc.

Non vedo motivi quindi per non adottare un sistema del genere, in quanto i vantaggi che offre sono molti e di indiscutibile validità.

Articoli Correlati

Project management: alternative a Microsoft Project. Prova sul campo.

Nella mia attività consulenziale e formativa utilizzo spesso Microsoft Project come strumento,ovviamente, per la gestione dei progetti. E’ pero’ uno strumento complesso, evoluto e con molte funzionalità che spesso non vengono utilizzate per progetti comuni. In più, nelle ultime release, il programma non è più contenuto nel pacchetto Office; questo crea problemi quando si condividono progetti con clienti evoluti ma non tanto da acquistare licenze aggiuntive per programmi che non utilizzano spesso. Ho cercato quindi dei prodotti simili nel mondo del free software e dell’open source e ne ho provati due: Planner e OpenProj.

Planner, nato nel mondo linux ma portato anche nel mondo Microsoft Windows è molto semplice e molto limitato. Serve soprattutto per creare diagrammi di Gantt e assegnare qualche risorsa. Ha pochi campi dati a disposizione, non si possono rinominare. Gestisce la struttura WBS, gestisce le relazioni tra attività in maniera abbastanza completa ma poco altro. Puo’ essere utile per progetti veramente piccoli in quanto è anche molto semplice e non sottintende grandi conoscenze di teoria del Project Management.

OpenProj di Serena, nella versione stand alone provata, è invece tutta un’altra cosa. E’ veramente completo. e puo’ essere utilizzato molto bene per progetti anche complessi. La gestione delle informazioni delle attività è molto completa, la gestione delle risorse pure. Ha una gestione dei calendari delle risorse molto simile (per non dire uguale) a MS Project, gestisce i metodi di attribuzione del “consumo” delle risorse, gestice altri diagrammi, quali il reticolare. gestisce soprattutto le previsioni. Puo’ quindi essere utilizzato non solo nella fase di progettazione del progetto, ma anche nella fase di gestione e avanzamento con la tecnica del costo realizzato. Le WBS le gestisce, anche se non in maniera completa (Beh… neanche MS Project eccelle in questo). Con qualche artifizio si gestiscono anche le WBS  flessibili (più o meno come si gestiscono in MS Project). Non gestisce i sottoprogetti e la collaborazione tra team. Queste sono funzionalità presenti nella versione commerciale che pero’ non ho provato.  E’ compatibile con i il formato proprietario di MS Project (non l’ho testato a fondo su progetti complessi, ma nel futuro è un test che farò).

Per progetti medi l’ho adottato praticamente al 100% non trovando limitante le mancanze evidenziate. Da consigliare quindi.

Articoli Correlati

Firma digitale: dal 3 settembre 2010 in vigore nuove regole tecniche

Il 3 settembre p.v. entrano in vigore le modifiche alla firma digitale approvate con deliberazione n. 45/2009 dal Centro Nazionale per l’Informatica nella Pubblica Amministrazione (CNIPA) (pubblicata in Gazzetta Ufficiale lo scorso 3 dicembre).

Le nuove regole tecniche, che han modificato i formati delle firme digitali, sono supportate da tutte le Smart Card e dalle Business Key distribuite, tranne che dalle smart card con numero di serie che inizia con 1202… (il numero di serie è riportato sulla carta).

I possessori di tali carte possono richiedere il rilascio di un nuovo dispositivo (Business Key) allo sportello Servizi Telematici della Camera di Commercio di Venezia (sede di Mestre, Via Forte Marghera, 151 – tel. 041.2576612 – email: infosmartcard@ve.camcom.it – orario di sportello: dal lunedì al venerdì, dalle 8,45 alle 12,30).

È in corso da parte di Infocert S.p.A.l’invio di un’apposita comunicazione sull’argomento a tutti i titolari delle tessere in questione.

Da tale data devono essere sostituiti i programmi di firma dei documenti per poter apporre le nuove firme e verificare tutti i documenti firmati. Nel dettaglio la deliberazione prevede l’utilizzo di nuovi algoritmi matematici e nuovi formati dei dati per innalzare ulteriormente il livello di sicurezza, mantenendo inalterato il valore legale delle firme. Il nuovo software sarà disponibile dal 3 settembre 2010. Comunque in fase di aggiornamento dei vecchi programmi verrà richiesto di effettuare l’adeguamento alla nuova versione.
Per ulteriori approfondimenti su come richiedere la Business Key e sui costi relativi consulta la sezione del sito camerale http://www.ve.camcom.it/registro_imp/pagina.phtml?pagina=business_key&explode=40.3.1.

Articoli Correlati

Calo della produttività: pochi investimenti in ICT

La produttività del lavoro italiano arranca: negli ultimi 30 anni è cresciuta a una media annua dell’1,2% e già nell’ultimo decennio il suo valore è risultato negativo dello 0,5%. Ma nel periodo 2007-2009, pur in presenza di una sensibile caduta del monte ore lavorato, la produttività ha fatto registrare un vero e proprio crollo: -2,7 per cento in media d’anno. Lo rileva l’Istat che oggi ha reso note le serie storiche riferite a diverse misure di produttività per gli anni 1980-2009.

Questo è quanto si legge dal sito de “Il Sole 24 ore” e in molti altri titoli.

E’ interessante un articolo, pubblicato sul quotidiano cartaceo, in cui si fanno domande a Gian Maria Gros Pietro su questo argomento. L’intervista termina affermando che, considerando il trend c’è almeno un fattore che ha contribuito alla bassa crescita del valore aggiunto: il contributo fornito alla crescita dall’Information and Communication Technology è stato praticamente nullo, pur trattandosi di una tecnologia molto pervasiva.

In sostanza è quello che abbiamo ribadito più volte su questo blog: le aziende italiane non utilizzano gli strumenti messi a disposizione dall’Information Technology. E’ vero, siamo la popolazione con più telefonini e molto avanzati, il computer è spesso nelle nostre aziende e nelle nostre case, ma siamo ancora degli analfabeti. Molto spesso ci sentiamo dire: questo lavoro me l’ho fa tizio a metà del prezzo che mi fate voi. Oppure: No guardi la nostra azienda non ha bisogno di quel servizio, abbiamo gia’ il nostro gestionale che fa tutto. E tante risposte simili.

Il problema vero, a monte di tutto secondo noi è un altro: nella maggioranza degli imprenditori mancano competenze manageriali vere, nel senso che spesso non riescono a delegare a persone valide funzioni di ICT management in quanto loro stessi non capiscono bene cos’è, viene visto come un costo e non un investimento.

La soluzione dovrebbe partire (qualcosa si è già fatto per la verità) da un processo di informazione a cura delle associazioni di categoria per spiegare cosa è l’ICT e come puo’ servire anche in una azienda piccola. E soprattutto, continuiamo a ripetere, ci sono problemi di budget? Perchè non ricorrere a soluzioni Open Source per qualche progetto?

Articoli Correlati

Computer portatili: come lavorare in sicurezza

Fonte: http://www.puntosicuro.it/

Informazioni e buone pratiche per lavorare in sicurezza con i computer di ultima generazione: computer portatili e netbook. La normativa, le misure di prevenzione e i rischi degli schermi lucidi.

Nei giorni scorsi PuntoSicuro ha presentato l’aggiornamento di un documento Inail dedicato alla prevenzione e alle buone pratiche nell’uso professionale dei videoterminali (VDT).
Abbiamo tuttavia pensato di dedicare uno spazio di approfondimento ad una particolare attrezzatura di lavoro che si viene via via più diffondendo anche nei luoghi di lavoro a discapito del classico videoterminale: il computer portatile o notebook.

Questo computer portatile, chiamato anche laptop, è dotato insieme di display, tastiera, alimentazione a batteria, ha chiaramente il vantaggio di avere dimensioni e peso ridotti e dunque una facile trasportabilità.
Questa attrezzatura è dotato di una grande gamma di accessori incorporati – ad esempio la webcam e l’antenna Wi-fi – e viene venduta con una periferica di puntamento, un touchpad, ed uno schermo a cristalli liquidi. Riguardo allo schermo si possono trovare modelli retroilluminati e transriflettivi. Se nel primo caso un pannello luminoso dietro lo schermo genera energia luminosa che viene modulata poi dai cristalli liquidi, nel secondo caso la luce ambientale viene riflessa da uno specchio posto dietro allo schermo.
Questi notebook hanno permesso in questi anni un processo di “scollegamento” sempre più evidente tra lavoratore e luogo di lavoro, adattandosi perfettamente alle figure professionali caratterizzate da attività in continuo movimento (ad esempio agenti e rappresentanti).
Tuttavia a queste attrezzature si è affiancata recentemente una nuova tipologia di prodotto: il netbook.
I netbook sono ancora più piccoli, economici, leggeri. Hanno modelli di buona potenza di calcolo e rischiano di confinare per il futuro i notebook alla funzione che un tempo era dei computer da tavolo.

Quali sono i rischi dei computer portatili? Sono gli stessi dei classici computer fissi?

Cerchiamo di capirlo attraverso il documento Inail “Il lavoro al videoterminale”, prodotto da un gruppo di lavoro Inail nel 2002 – rielaborando una pubblicazione di Suva, Istituto nazionale svizzero di assicurazione contro gli infortuni sul lavoro – e aggiornato nel mese di giugno 2010.

Il documento ricorda che “in generale, l’uso dei computer portatili o notebook comporta maggiori difficoltà nel mantenere una posizione ergonomica”. Pertanto – continua – “non dovrebbero essere utilizzati nel luogo di lavoro se non per brevi periodi”.
Inoltre l’Inail indica espressamente che “con il Decreto legislativo 81/2008 anche le attività connesse all’uso del computer portatile rientrano in quelle tutelate dal titolo VII relativo ai videoterminali”.

In relazione al Decreto legislativo 81/2008 riportiamo alcune delle indicazioni per la sicurezza contenute nell’allegato XXXIV:
1. Attrezzature
(…)
f) Computer portatili
L’impiego prolungato dei computer portatili necessita della fornitura di una tastiera e di un mouse o altro dispositivo di puntamento esterni nonché di un idoneo supporto che consenta il corretto posizionamento dello schermo.

Dopo una breve digressione relativa alla normativa, veniamo ad alcune buone pratiche nell’uso di computer portatili:
– “regolare l’inclinazione, la luminosità e il contrasto sullo schermo in modo ottimale;
– quando si prevede di dover effettuare un lavoro prolungato è bene munirsi e fare uso di una tastiera esterna, di una base per il notebook (in modo da sollevare lo schermo) e di un mouse separati rispetto al computer portatile. È bene invece usare uno schermo esterno se i caratteri sullo schermo del computer portatile sono troppo piccoli”. Ricordiamo che l’adozione di un mouse ottico (al posto del touchpad) e di una tastiera ergonomica favoriscono l’appoggio di entrambi gli avambracci. In questo modo è possibile attenuare il sovraccarico degli arti superiori, ridurre l’angolazione dei polsi e l’affaticamento dei tendini della mano;
– “cambiare spesso posizione facendo pause molto frequenti;
– evitare di piegare la schiena in avanti;
– mantenere gli avambracci, i polsi e le mani allineati durante l’uso di mouse e tastiera, evitando di piegare o angolare i polsi”.

È evidente che le misure di prevenzione possibili e consigliabili dipendono sia dal tipo di uso del portatile, che dall’ambiente in cui si lavora.
Se del portatile si fa un uso saltuario i rischi sono minori, ma comunque non vanno sottovalutati. In ogni caso come per un computer fisso anche per un portatile è importante sistemare la postazione di lavoro regolando la sedia, posizionando e regolando lo schermo, con particolare attenzione alla posizione di finestre o fonti di luce che potrebbero abbagliare o creare fastidiosi riflessi sullo schermo.

Se poi si utilizza il portatile durante il viaggio, il documento propone innanzitutto di “non posizionare il computer portatile direttamente sulle gambe, ma tenerlo un po’ più alto anche usando un piano di appoggio di fortuna”.
In aggiunta alle indicazioni della guida INAIL, è necessario sottolineare come non si debba mai utilizzare come sopralzo una superfice morbida o un indumento: potrebbero ostruire fessure e aperture di aerazione causando un surriscaldamento del PC portatile. Per tenerlo sollevato in sicurezza si può invece usare un piano rigido come una valigetta o un libro.

Il documento propone inoltre altri suggerimenti:
– “se il sedile è troppo basso rispetto al piano di lavoro, sopraelevarlo con un cuscino/una coperta/un asciugamano;
– se necessario, creare un poggiapiedi con un oggetto di dimensioni opportune;
– se lo schienale del sedile è scomodo, coprirlo con una coperta e mettere un asciugamano arrotolato nella zona lombare;
– creare adeguati sostegni per le braccia quando si lavora sul divano, usando ad es. i cuscini”.

Come accennato in apertura molti computer portatili moderni hanno uno “schermo con una superficie molto riflettente (schermi lucidi o glossy) per garantire una resa ottimale dei colori”: questi computer presentano “maggiori rischi di affaticamento della vista”.
Dunque è consigliabile utilizzare portatili con schermo a cristalli liquidi rivestito dalla tradizionale pellicola ‘opaca’. In ogni caso è necessario, “prima di iniziare a lavorare, verificare che la posizione rispetto alle fonti di luce naturale e artificiale sia tale da non creare problemi di riflessi sullo schermo o di abbagliamento per l’utilizzatore”.
Riguardo ai piccoli netbook e ad attrezzature similari, l’Inail ci ricorda che per evitare problemi di affaticamento per la vista è “opportuno evitare attività prolungate di lettura e scrittura su tutte le apparecchiature informatiche attuali con schermi di dimensioni ridotte quali netbook (schermi di solito da 7-10”), smartphone, palmari, ecc., soprattutto se non presentano la possibilità di aumentare la dimensione dei caratteri”.

Occorre infine ricordare che è importante, durante la lettura sul portatile, “distogliere spesso lo sguardo dallo schermo per fissare oggetti lontani” e che la normativa prevede per ogni operatore (che utilizzi portatili per almeno 20 ore settimanali) una pausa di 15 minuti ogni 2 ore di applicazione continuativa al computer.

Inail, “Il lavoro al videoterminale”, aggiornamento a cura di Barbara Manfredi (formato PDF, 1.98 MB).

Articoli Correlati

Cultura generale: un po' di informazioni sul fantastico mondo dell'informatica

Questo articolo è l’anticipazione di quelloc he scriveremo durante questo agosto.

Niente di pesante, ma una serie di articoli per spiegare le nostre passioni, dare corpo ad alcuni tutorial, speriamo coerenti ma dateci il beneficio del dubbio, siamo ad agosto.

Questi articoli riflettono alcune ricerche collateriali relative a dei nostri progetti attuali.

Parleremo di sicurezza delle informazioni, crittografia, algoritmi per gli stessi, firma digitale, marca temporale, ingegneria del softare, gestione documentale, programmazione, metodologie di gestione.

Ci aspettiamo molti commenti, anche pesanti.

Buona lettura!!!!

Articoli Correlati