Nuova release per mozilla firefox

In questi giorni di fermento per l’imminente rilascio di Ubuntu 12.04, anche il team di Mozilla si da molto da fare e assieme alle novità attese per Firefox 14 ci arriva la notizia del rilascio della stable release di Firefox 12.

Questa nuova release porta con se il solito lavoro di bug fixing e un miglioramento per il tool di aggiornamento (per la versione Windows e Mac OS X, infatti a breve Firefox 12 per Linux sarà disponibile come update nei repository delle maggiori distribuzioni).

Firefox 12 porta con se anche il supporto text-align-last CSS ed ECMAScript 6 Map, due importanti aggiornamenti che rendono Firefox un browser al passo con le nuove tecnologie web.

Da provare!

Articoli Correlati

Decreto semplificazioni: cosa cambia per la privacy

Nella tarda mattinata di ieri il governo ha posto la questione della fiducia alla Camera sul decreto legge in materia di semplificazione fiscale ed ha introdotto svariate semplificazioni e novità.

In questo articolo parleremo delle novità in tema Privacy (decreto legislativo 193/2003)

Con il decreto semplificazioni ufficialmente vengono abrogati una serie di articoli in cui si evince (ma si sapeva da tempo ormai) che non serve più il dps come documento da avere in azienda.

Infatti vengono abrogati alcuni punti  del disciplinare tecnico in materia di misure minime di sicurezza e precisamente tutto l'articolo 19 e l'articolo 26 che riportiamo:

 

Documento programmatico sulla sicurezza
19. Entro il 31 marzo di ogni anno, il titolare di un trattamento di dati sensibili o di dati giudiziari redige anche attraverso il responsabile, se designato, un documento programmatico sulla sicurezza contenente idonee informazioni riguardo:

19.1. l'elenco dei trattamenti di dati personali;
19.2. la distribuzione dei compiti e delle responsabilità nell'ambito delle strutture preposte al trattamento dei dati;
19.3. l'analisi dei rischi che incombono sui dati;
19.4. le misure da adottare per garantire l'integrità e la disponibilità dei dati, nonchè la protezione delle aree e dei locali, rilevanti ai fini della loro custodia e accessibilità;
19.5. la descrizione dei criteri e delle modalità per il ripristino della disponibilità dei dati in seguito a distruzione o danneggiamento di cui al successivo punto 23;
19.6. la previsione di interventi formativi degli incaricati del trattamento, per renderli edotti dei rischi che incombono sui dati, delle misure disponibili per prevenire eventi dannosi, dei profili della disciplina sulla protezione dei dati personali più rilevanti in rapporto alle relative attività, delle responsabilità che ne derivano e delle modalità per aggiornarsi sulle misure minime adottate dal titolare. La formazione è programmata già al momento dell'ingresso in servizio, nonchè in occasione di cambiamenti di mansioni, o di introduzione di nuovi significativi strumenti, rilevanti rispetto al trattamento di dati personali;
19.7. la descrizione dei criteri da adottare per garantire l'adozione delle misure minime di sicurezza in caso di trattamenti di dati personali affidati, in conformità al codice, all'esterno della struttura del titolare;
19.8. per i dati personali idonei a rivelare lo stato di salute e la vita sessuale di cui al punto 24, l'individuazione dei criteri da adottare per la cifratura o per la separazione di tali dati dagli altri dati personali dell'interessato.

26. Il titolare riferisce, nella relazione accompagnatoria del bilancio d'esercizio, se dovuta, dell'avvenuta redazione o aggiornamento del documento programmatico sulla sicurezza.

In sostanza: il famoso documento "DPS" sparisce. Ma si sapeva da tempo.

Il DPS è sempre stato un documento farraginoso e poco adottato dalle aziende in tutti i settori in quanto visto sempre come un qualcosa di inutile, un costo da sostenere per essere a norma. Molto spesso il documento era creato in forma automatica (decine di programmi che facevano in automatico o quasi il documento minimale e a norma di legge) oppure creato da consulenti senza scupolo per poche centinaia di euro con metodi di taglia e incolla. Dimenticando però lo spirito originario del sistema (e qui comincio a parlare di sistema per la sicurezza dei dati aziendali, non più DPS): Essere una guida per salvaguardare il patrimonio informativo della propria attività. Poche organizzazioni lo hanno inteso in questo modo.

Cosa succederà da oggi: probabilmente si dedicheranno ancora meno soldi al tema della sicurezza del proprio sistema informativo in quanto, erroneamente, si presuppone che non servendo più questo documento, il sistema potrà essere lasciato cosi' com'e'. Sbagliando. In quanto tutto il resto del sistema di sicurezza comunque deve essere garantito. Soprattutto in un' era in cui la digitalizzazione sta diventando sempre più pervasiva anche in settori che storicamente erano resti. Aprendo nuove prospettive di furto di dati digitalizzati anche sensibili.

Dal nostro punto di vista, condiviso da molti, il dps dovrà essere sostituito, all'interno dalle organizzazioni, da un manuale operativo per la gestione della sicurezza dei dati comuni, personali e sensibili.

Noi continueremo comunque nella nostra opera di sensibilizzazione sulla necessità della sicurezza del sistema informativo in quanto unico vero patrimonio delel organizzazioni.

Articoli Correlati

Costruire la propria reputazione su facebook

Da corrierecomunicazioni.it

Imprese, la "reputation" si costruisce su Facebook

 

Secondo i risultati di una ricerca dell'Università Cattolica e Digital Pr cresce il numero di aziende italiane che si affida ai social newtwork per rafforzare il brand a scapito dei blog aziendali, utilizzati principalmente per comunicazioni interne. YouTube "re" della comunicazione video

I social network battono i blog aziendali. Almeno nelle strategie con cui le imprese costruiscono la loro brand reputation sul web. In questo contesto , Facebook è una piazza virtuale privilegiata e Twitter rappresenta la sfida per i prossimi anni mentre per la comunicazione video è YouTube a farla da padrone. Contestualmente perde d'importanza il blog aziendale, riservato per lo più alla comunicazione interna, mentre il sito web continua a svolgere il ruolo di archivio dei contenuti e delle informazioni tecniche.

È questa la fotografia scattata dall'indagine “Brands & Social Media. Osservatorio su 100 aziende e la comunicazione sui social media in Italia”, promossa dall'Università Cattolica e da Digital Pr e diffusa in occasione del seminario “Web Reputation”, organizzato dall'Atelier del Club della comunicazione d'impresa di Torino.
La ricerca, prima nel suo genere, ha selezionato 100 aziende fra le più rilevanti per il mercato italiano in cinque settori: consumer electronics, automobili, banche/assicurazioni, retail/grande distribuzione e servizi. L'indagine ha portato alla compilazione di una classifica che tiene conto non solo dell'impegno delle aziende, ma anche dell'interazione degli utenti. E dalla quale emerge una strategia “multi-piattaforma” nel mondo social da parte delle aziende, che oggi pensano sempre più in digitale, complice ce la crisi, il bisogno di fare saving e una più diffusa accessibilità alle piattaforme web.

L'indagine ha preso in considerazione social media – blog, Facebook, Twitter e YouTube – misurando le medie di aggiornamenti, commenti, condivisioni giornaliere (per i blog), i link agli update aziendali in bacheca, la presenza di sezioni speciali e di feedback degli utenti, nonché il numero di fan (per Facebook), le personalizzazioni dei profili e il numero di followers (per Twitter), unitamente ai report sui commenti e le visualizzazioni dei video (YouTube).

A sottolineare l'importanza di essere in rete, oggi, per un'azienda è Nicolò Michetti, chief executive officer Digital Pr: “L'informazione sul web non muore mai – spiega – e le notizie, positive o negative che siano, sono persistenti, rilevabili e tracciabili. È bene che chi si occupa di comunicazione abbia ben presente tutto ciò”.

Articoli Correlati

Agcom e le regole della fibra ottica per la banda larga

Argomento apparso su vari quotidiani on line, qui quello di punto-informatico.it

Roma – Il Consiglio dell'Autorità per le garanzie nelle comunicazioni (Agcom) ha approvato il regolamento con cui punta a semplificare le procedure e ridurre i costi di realizzazione delle opere civili per le reti di nuova generazione (NGN).

Adottato in virtù delle competenze che la legge 133/2008 ha conferito a Agcom, e in attuazione della Direttiva 140/2009 (il Telecoms Package), rappresenta la cornice di riferimento entro cui il settore dovrà sviluppare la realizzazione delle reti in fibra ottica: ad essa si aggiungeranno le regole, attualmente in discussione presso la stessa Authority, relative all'accesso delle reti di nuova generazione.

In pratica, il "Regolamento in materia di diritti di installazione di reti di comunicazione elettronica per collegamenti dorsali e cubicazione e condivisione di infrastrutture" dovrebbe fornire, secondo le intenzioni dell'Autorità, una serie di regole finalizzate all'incentivazione dello sviluppo di reti a banda larga e dà attuazione "ad alcune importanti disposizioni della nuova Direttiva quadro sulle comunicazioni elettroniche", regolamentando i diritti di passaggio ed accesso alle infrastrutture esistenti e ponendo obblighi di trasparenza a soggetti titolari di reti infrastrutturali (come strade e autostrade, linee ferroviarie, acquedotti).

Nello specifico esso prevede: la definizione di linee di indirizzo per l'accesso, da parte degli operatori, alle infrastrutture pubbliche utili alla realizzazione di reti di comunicazione elettronica sia per le reti dorsali dei collegamenti a lunga distanza, sia per le reti d'accesso in ambito cittadino.

Soprattutto, il nuovo regolamento prevede l'obbligo di condivisione delle infrastrutture esistenti in caso non sia possibile la loro replicabilità per motivi tecnici ed economici (collo di bottiglia).

Lo stesso obbligo di condivisione delle infrastrutture era già imposto dall'Agcom nei casi in cui non vi fossero state alternative praticabili per motivi di sicurezza e salute pubblica, tutela ambientale e pianificazione urbanistica.

Il nuovo regolamento prevede inoltre l'avvio del Catasto delle infrastrutture di rete e la messa a punto delle Linee guida per i Comuni che "mira a uniformare la predisposizione dei regolamenti per l'accesso alle infrastrutture da parte degli operatori di Tlc, che siano uniformi a livello nazionale".

Articoli Correlati

Trasparenza nei siti della pubblica amministrazione

Riferendomi ad un articolo apparso sul sole 24 ore del 27 settembre, riguardante la difficoltà di reperimento di informazioni nella maggioranza dei siti della pubblica amministrazione, vorrei fare un po’ di considerazioni.

Prima considerazione: non mi meraviglio!

Seconda considerazione: Ma è naturale.

Mi spiego.

La competenza informatica di molti amministratori della struttura informatica della pubblica amministrazione molto spesso è bassa, non perchè non siano brave persone ma spesso perchè non sono di estrazione informatica. Il loro curriculum molto spesso non è adeguato, molto spesso ricoprono l’incarico magari accorpato ad altre funzioni in cui sono maggiormente competenti. Questo perchè, come nelle aziende del resto, l’informatica spesso è vista come come un costo e per tale motivo vengono dedicate poche risorse. Molto spesso non hanno proprio tempo da dedicarci.

L’altro grave motivo, sempre a mio avviso, è la moltitudine di offerte a cui sono bersagliati: Non c’e’ nessuna Web Agency che non abbia il miglior CMS al mondo. E, come spesso accade, il sistema viene acquistato prima di provarne effettivamente le prestazioni. Poi cominciano i problemi. Tanto per dirne una: su qualsiasi manuale di informatica un po’ evoluto insegnano come primo esempio la costruzione di un CMS. Lo miglioriamo con un po’ di grafica accattivante ed ecco il prodotto.

Ma, provoco io: non si fanno i collaudi per le strade una volta eseguite? Non viene commissionato prima un progetto ad un professionista? Ma allora cari amministratori, perchè non fare la stessa cosa anche con l’Informatica? Non ci sono soldi? E il mondo open Source che ci sta a fare? Cari amministratori, guardate il sito della Casa Bianca e … è fatto con Drupal, CMS Open Source estremamente performante.

Se si operasse come si fa per le altre cose non ci sarebbero questi strafalcioni che vengono pubblicati. Non fidatevi di quello che vi propone la web agency, fate una prova vera del loro sistema, mettetevi dalla parte dell’utente ed esprimete un giudizio. State spendendo soldi dei contribuenti, fatelo bene. Non siete competenti? affidatevi ad esperti veri. In Italia ci sono corsi di laurea in Ingegneria Informatica e in Informatica. Rivolgetevi a qualcuno di loro. Vedrete che i punti deboli ve li trovano in pochi minuti di visione del prodotto spacciato come il migliore del mondo.

Soprattutto: il sistema informativo ha un costo (non è solo un costo) e quindi va trattato con le dovute cautele: rivolgetevi agli esperti.

Metto una mia piccola nota di folklore che mi ha fatto sorridere e allo stesso tempo piangere: abbiamo fatto qualche tempo fa una presentazione aziendale a circa 300 Comuni di 3 Provincie proponendoci per essere inseriti tra i loro eventuali fornitori.

Il risultato: 3 contatti. Il primo per partecipare ad una gara di manutenzione del sistema informatico. Ok. Il secondo ci hanno inviato un elenco di categorie pregandoci di scegliere dove proporci: nessuna categoria era confacente al nostro lavoro, se non consideriamo la riparazione hardware di macchine per ufficio che tra l’altro non facciamo. La terza era per l’iscrizione online all’elenco: ma non c’era nessuna categoria per la nostra attività….

Che dobbiamo pensare? Forse l’informatica non esiste oppure il processo di acquisto segue altre vie (si è vero, ci sono i gruppi di acquisto, ma non nella progettazione dei sistemi).

Non lamentiamoci pero’!

Articoli Correlati

Microsoft Security Essentials: presto gratuito per le pmi

Microsoft Security Essentials, la soluzione antivirus ed anti-malware che Microsoft un anno fa ha messo gratuitamente a disposizione di tutti gli utenti consumer, potrà presto essere installato in modo ufficiale anche dalle piccole aziende che hanno fino a 10 postazioni di lavoro.
A partire da Ottobre, infatti, i termini della sua licenza cambieranno e le aziende con dieci o meno PC potranno scaricare ed utilizzare il software senza alcun costo.
In realtà non si può fare a meno di notare come già la maggior parte delle piccole compagnie con pochi personal computer operino già in questo modo.
Con questa mossa Microsoft intende quindi formalizzare quella che è una realtà da tempo ben conosciuta dal colosso di Redmond. “Non è un segreto che moltissime piccole compagnie oggi non dispongono di un professionista IT dedicato o di uno staff che gestisca le loro risorse IT” – ha commentato la notizia con un post su Internet il responsabile Microsoft Eric Lingman – “Offrendo Security Essentials (con i suoi aggiornamenti automatici dal sito Microsoft) alle piccole imprese, senza richiedere alcun pagamento aggiuntivo, estendiamo quello che è il nostro impegno e la nostra missione annunciata, ovvero aiutarle a ridurre i costi dell’IT e far crescere il loro business”. In effetti, considerato il costo medio attuale di una licenza per un antivirus, il risparmio nell’utilizzare Microsoft Security Essentials nelle micro imprese può arrivare fino ai 250/300 euro all’anno, purchè i PC in uso siano dotati di regolari licenze Windows.
Microsoft Security Essentials si presenta all’utente finale come un’applicazione leggera da scaricare e utilizzare e dall’interfaccia intuitiva, volta a proteggere i PC contro virus ed altri malware e che si integra perfettamente con i controlli di sicurezza built-in presenti all’interno di Windows 7, Windows Vista e Windows XP (Service Pack 2 o superiore).
Il team di sicurezza Microsoft sta inoltre sviluppando una nuova versione del software comprendente ampliamenti e maggiori analisi di sicurezza, tuttavia la nuova versione è tutt’ora in fase beta.
Fin dal suo rilascio, sono stati numerosi i responsabili IT a chiedere che questo tipo di protezione potesse un giorno venire estesa gratuitamente a tutte le compagnie, a prescindere dalla loro dimensione in modo da incrementare anche la sicurezza degli ambienti Windows di minori dimensioni. L’annuncio della scorsa settimana viene visto da molti proprio come un ulteriore passo verso questa direzione.

Articoli Correlati

Risk Analysis

Da un estratto di un nostro documento per spiegare questa attività. Penso possa essere utile a molti.

Nelle realtà aziendali esistono innumerevoli contenitori di dati da cui si estraggono informazioni utili alla conoscenza del proprio business.
Questa frase contiene in sé il perché dell’analisi del rischio all’interno di una azienda.

Abbiamo dati in molteplici forme: cartacei, fogli excel, svariati databases, documenti informatici. Sono Fatti ed Oggetti. Da soli servono poco o nulla ma devono essere comunque gestiti.
Dai dati estraiamo informazioni correlandoli in configurazioni significative per la nostra attività.
La conoscenza è l’applicazione e l’uso produttivo dell’informazione.
Sono “oggetti” che quindi vanno preservati per la continuità dell’azienda.

Per tali motivi è necessario quindi analizzare l’intera azienda per scoprire dove sono questi “oggetti” e come preservali in caso di “disastri”.

Questo è l’oggetto della Risk Analysis:

  1. Fornire informazioni al management aziendale
  2. Verificare il rispetto di leggi e regolamenti
  3. Ridurre le perdite provocate dalle minacce

Gli obiettivi della Risk Analysis sono soprattutto:

  1. Determinare quali beni aziendali sono critici (e rientrano anche i beni o asset intangibili come la conoscenza e l’informazione)
  2. Identificare le minacce possibili
  3. Determinarne le criticità e le vulnerabilità
  4. Calcolare in maniera scientifica le perdite previste in caso di incidente
  5. Valutare le azioni e le contromisure da mettere in campo
  6. Mettere in campo le azioni correttive
  7. Periodicamente effettuare una nuova risk analysis

E’ un processo ciclico da effettuare con svariate metodologie:

  1. quantitative per dare un valore certo dei rischi, sono più costose e complesse ma alla lunga danno un vantaggio, sono ripetibili e confrontabili
  2. qualitative quando i beni o i dati non sono facilmente valutabili in termini economici (es quando un incidente causa perdita di immagine).

I passi sono abbastanza semplici da descrivere:

  1. identificare gli asset aziendali tangibili e intangibili determinandone i valori , la criticità la proprietà e la localizzazione
  2. Identificare le minacce distinguendo tra eventi naturali (es incendio) ed umani (furto di dati, abuso di privilegi) o tecniche (guasto hardware, guasto software) e facendo una stima della loro frequenza di accadimento
  3. Identificare le contromisure esistenti  (antivirus, ridondanza, condizionamento, antifurto, backup, controllo accessi)
  4. Identificare le vulnerabilità
  5. Calcolare il valore delle perdite stimate con funzioni matematiche ad hoc oppure con matrici di probabilità: Questo Ë il rischio

Una volta calcolato il rischio totale si mettono in pratica azioni correttive volte a eliminarlo, abbassarlo, oppure trasferirlo (assicurazione).

A questo punto si entra nella gestione del rischio vero e proprio in cui si mettono in pratica una serie di metodologie organizzative e tecnologiche massimizzando il rapporto Costo/beneficio in quanto la gestione del rischio ha benefici ma anche costi quali:

  1. Costi di investimento
  2. Costi di Implementazione delle contromisure
  3. Costi operativi e di manutenzione
  4. Costi diretti e indiretti.

Il ritorno dell’investimento per la riduzione del rischio è comunque positivo se il processo è eseguito correttamente: ci sono dei benefici economici in quanto perdo meno tempo (es, quanto costa ricostruire un sistema gestionale partendo dalle copie cartacee?), benefici non economici come una migliore gestione, una maggiore consapevolezza, un livello di integrità dei dati migliorato.

In definitiva, uno studio di risk management ha l’obiettivo di presentare al management aziendale le contromisure necessarie alla riduzione del rischi e comprende:

  1. Il risultato della Risk Analysis
  2. Gli scenari delle minacce e vulnerabilità
  3. I risultati secondo l’analisi costi/benefici
  4. Le contromisure da adottare.

In sostanza dire che serve assolutamente un doppio ced, oppure una rete dati completamente ridondata, un certo sistema di replica delle informazioni senza avere fatto una seria analisi sia dei costi che dei benefici attesi  è assolutamente priva di significato. Di volta in volta le soluzioni possono essere diverse a seconda dell’azienda.

Sicurezza e valore dei dati

Articoli Correlati

I Cms più usati

http://w3techs.com

Usage of content management systems for websites

This diagram shows the percentages of websites using various content management systems. See technologies overview for explanations on the methodologies used in the surveys.

How to read the diagram:
78.7% of the websites use none of the content management systems that we monitor.
Wordpress is used by 12.0% of all the websites, that is a content management system market share of 56.3%.

None
78.7%
WordPress
12.0%
56.3%
Joomla
2.3%
10.8%
Drupal
1.4%
6.3%
vBulletin
1.3%
6.3%
Typo3
0.6%
2.9%
Blogger
0.6%
2.8%
phpBB
0.5%
2.1%
Discuz!
0.3%
1.6%
ExpressionEngine
0.2%
1.1%
DataLife Engine
0.2%
1.1%
DotNetNuke
0.2%
1.0%
Simple Machines Forum
0.2%
1.0%
Movable Type
0.1%
0.6%
XOOPS
0.1%
0.5%
SPIP
0.1%
0.5%
PHP-Nuke
0.1%
0.4%
Bitrix
0.1%
0.4%
MediaWiki
0.1%
0.4%
IP.Board
0.1%
0.4%
Plone
0.1%
0.4%
eZ Publish
0.1%
0.3%
TypePad
0.1%
0.3%
CMS Made Simple
0.1%
0.3%
Ektron
0.1%
0.3%
Squarespace
less than 0.1%
0.2%
Open Text
less than 0.1%
0.2%
e107
less than 0.1%
0.2%
EPiServer CMS
less than 0.1%
0.2%
Contao
less than 0.1%
0.2%
Mambo
less than 0.1%
0.1%
PHP-Fusion
less than 0.1%
0.1%
SilverStripe
less than 0.1%
0.1%
Nucleus
less than 0.1%
0.1%
MODx
less than 0.1%
0.1%
Contenido
less than 0.1%
0.1%
OpenCms
less than 0.1%
0.1%
Concrete5
less than 0.1%
0.1%
DokuWiki
less than 0.1%
0.1%
CommonSpot
less than 0.1%
0.1%
W3Techs.com, 14 September 2010
absolute usage percentagemarket share
Percentages of websites using various content management systems

Articoli Correlati

I linguaggi più usati per creare siti web

Da http://w3techs.com

Usage of server-side programming languages for websites

This diagram shows the percentages of websites using various server-side programming languages. See technologies overview for explanations on the methodologies used in the surveys.

How to read the diagram:
PHP is used by 74.7% of all the websites whose server-side programming language we know.

PHP
74.7%
ASP.NET
23.8%
Java
3.8%
ColdFusion
1.4%
Perl
1.2%
Ruby
0.5%
Python
0.3%
W3Techs.com, 14 September 2010
Percentages of websites using various server-side programming languages
Note: a website may use more than one server-side programming language

Articoli Correlati

Per l'IT c'e' ancora crisi… ma ci sono segnali di ripresa

Riporto dal sito di Assinform, che è importante per il nostro settore.

Rispetto al 1° semestre 2009 (-9,0%), il recupero è di 6,5 punti percentuali. In ripresa la domanda delle imprese di Pc e server con + 10,3%; recupero di 3 punti percentuali del software (-1,2%, rispetto al -4,1% del 2009); mercato consumer a + 21% Indagine congiunturale su aziende IT a luglio 2010: positiva (+0,5%), per la prima volta da un anno (-14,9% nel luglio 2009), la valutazione sui budget dedicati dalle imprese clienti allo sviluppo di nuovi progetti informatici.

Angelucci: “Per la crescita competitiva e occupazionale occorre sostenere la ripresa degli investimenti in innovazione. Da parte della politica ci aspettiamo atti di coraggio: incentivi stabili per le imprese che innovano e che si aggregano, anche tramite acquisizioni; una riforma fiscale che metta fine all’iniquità dell’Irap sui settori “labour intensive” come l’IT; la modifica delle regole delle gare, che vanno centrate sulla qualità dei servizi informatici e non sul puro ribasso delle tariffe”.

Milano, 14 settembre 2010 Per l’IT l’emergenza non è finita, anche se si riscontra un’inversione di tendenza. Il bilancio di fine giugno 2010 è ancora in rosso e il trend negativo penalizzerà il settore fino alla fine dell’anno. L’informatica italiana continua a patire gli effetti della crisi, della totale assenza di una politica per l’innovazione e del clima di incertezza che vive il Paese. Pur nella consapevolezza che molte imprese, soprattutto quelle esposte alla competizione internazionale, non hanno gettato la spugna e stanno tornando a investire nelle tecnologie informatiche e nell’innovazione dei processi, il settore IT manifesta nel suo complesso grande fatica a beneficiare della piccola ripresa in atto.” E’ l’esordio di Paolo Angelucci, Presidente di Assinform, nell’aprire la conferenza stampa di anticipazione dei dati sull’andamento dei settori IT e TLC nel primo semestre 2010. Un andamento che ha visto l’IT chiudere il primo semestre di quest’anno a – 2,5% e le TLC fermarsi a – 2,3%, rispetto allo stesso periodo del 2009.

“Oggi, tuttavia, la nostra preoccupazione non riguarda tanto le performance dell’anno in corso, che già prevedevamo ridotte, date le condizioni di oggettiva difficoltà del mercato – ha continuato Angelucci – quanto le iniziative da prendere ora, affinché le grandi potenzialità dell’IT, quarto settore industriale italiano con oltre 380.000 addetti, motore dell’innovazione e di occupazione qualificata, possano essere colte dal Paese, per avviare una fase di crescita competitiva nel 2011″. “Se vogliamo che l’informatizzazione infrastrutturale da parte delle imprese – ha sottolineato il Presidente di Assinform – fenomeno importante emerso nei primi sei mesi dell’anno, evolva verso un utilizzo pervasivo dell’IT nell’economia italiana generando nuova occupazione qualificata, soprattutto tra i giovani, sono necessari atti di coraggio da parte delle istituzioni, del Governo, della classe politica tutta, per introdurre nuove regole e condizioni quadro capaci di creare un clima che premi l’innovazione a tutti i livelli. Per questo occorrono provvedimenti di politica industriale stabili, che agiscano sul fronte del credito fiscale e degli incentivi, accompagnati da misure che facilitino l’accesso a finanziamenti bancari. La finalità deve essere quella di sostenere sia la domanda IT, premiando le aziende italiane che usano la leva tecnologica per migliorare la propria efficienza/produttività, sia l’offerta di Made in Italy tecnologico. In questo contesto vanno favorite fusioni e acquisizioni aziendali con un programma straordinario di ammortizzazione fiscale. Al contempo, le addizionali dall’Irap vanno spostate sull’Ire per stemperare il peso sull’occupazione di questa tassa, particolarmente iniqua per un settore ad alto utilizzo di risorse professionali qualificate quale l’IT. Infine vanno cambiate le regole delle gare: i servizi informatici non possono essere acquistati al massimo ribasso, ma per la loro qualità, nell’ambito di un giusto rapporto costi/benefici”.

I dati Assinform, evidenziano come per la prima volta dall’avvio della crisi, si sia manifestata una tendenza all’attenuazione del calo di mercato. Con il -2,5% segnato a fine giugno 2010, l’IT italiana ha recuperato oltre 6 punti percentuali rispetto al -9,0% registrato a fine giugno 2009 (sul 1° semestre dell’anno precedente). Il recupero ha interessato tutte le componenti informatiche, dall’hardware, al software, ai servizi, ma con notevoli differenziazioni e prospettive.
Il fenomeno nuovo, oggi potenzialmente più significativo, riguarda la crescita della domanda di Pc e server da parte delle imprese. Nei primi sei mesi dell’anno, infatti, il mercato dei Pc portatili, desktop e server ha registrato, rispetto allo stesso periodo dell’anno scorso, un incremento in volume di + 12,9%, pari a oltre 400.000 unità, assorbite per l’80% dalle imprese, la cui domanda è passata da -2,5% del 2009 all’attuale +10,3%. In particolare la domanda di server è salita del 12,3% (era stata -29% nello stesso periodo 2009), quella di desktop del + 13,4% (-21,5% nel 2009), mentre l’incremento dei Pc portatili è stato del 12,7% (simile al +14,8% dell’anno precedente). “Questi dati – ha commentato Angelucci – segnalano l’avvio di processi di rinnovamento delle tecnologie aziendali, di maggior informatizzazione delle imprese italiane, di investimenti in infrastrutture innovative. Processi che la crisi aveva quasi del tutto bloccato e che oggi appaiono sempre più indispensabili a quelle imprese che intendono affrontare la ripresa dei mercati”.
I riflessi positivi di questo tipo di strategie aziendali si ritrovano anche nell’andamento del segmento Software, che a fine giugno si è attestato a -1,2% a fronte della perdita di -4,1% raggiunta nello stesso periodo del 2009. Si attende quindi un’amplificazione positiva nei prossimi mesi verso la domanda di nuove applicazioni, spinta anche dalla novità delle scelte che le imprese stanno compiendo, privilegiando per oltre la metà della propria domanda l’acquisto di Pc portatili e quindi portando il focus verso le nuove frontiere tecnologiche e organizzative dettate dalla mobilità. Il segmento dei Servizi, che costituisce la metà dell’intero mercato informatico italiano (pari a 4.215 milioni di euro per i primi sei mesi dell’anno, a fronte di un valore totale di 8.918 mln), passato dal -7,3% del primo semestre 2009, all’attuale -3,7%, continua, al contrario, a essere fortemente penalizzato dalla tendenza sempre più accentuata al calo delle tariffe professionali.
“Se è evidente che nella maggioranza delle imprese e della Pa prevalgono tutt’ora le strategie di razionalizzazione finalizzate alla riduzione dei costi – ha concluso il presidente di Assinform – , il ribasso delle tariffe non può rappresentare un percorso sostenibile, ma una semplice valvola di sfogo che comprime i margini dei fornitori, rischia di incidere pesantemente sulla qualità dei servizi dei clienti e preclude lo sviluppo di nuova occupazione”.
Anche dalla VII indagine congiunturale condotta a luglio di quest’anno su un campione significativo di imprese associate Assinform, si ricavano segnali contrastanti, fra potenziali opportunità di ripresa, oscurate da previsioni ancora fosche sull’occupazione. In generale emerge un clima di ripresa di fiducia, con previsioni di crescita dei fatturati per il 43% delle imprese partecipanti (contro il 24% di luglio 2009 e il 27,6% di aprile 2010). Ma le Pmi prevedono, nella maggioranza dei casi, un andamento in calo degli ordinativi e degli utili.
Il dato più interessante, che conferma le rilevazioni di mercato, riguarda le valutazioni sull’andamento dei budget da parte delle aziende clienti. Per la prima volta dal luglio 2009 il tasso di crescita medio della spesa destinata allo sviluppo di nuovi progetti informatici raggiunge una valutazione positiva (+ 0,5%, a luglio 2009 era di -14,9%), mentre le spese correnti e per manutenzione guadagnano in stabilità, sebbene ancora in calo (-1,6%, valutazione di -6,1% nel luglio 2009).
Sul fronte dell’occupazione, dall’indagine congiunturale non emerge ancora alcuna previsione di ripresa. Continua l’emorragia dei consulenti, soprattutto da parte delle grandi imprese, sebbene in leggera attenuazione . Per i dipendenti sparisce la fascia di valutazione “molto peggiorato”, ma il 15% delle imprese continua a considerare la situazione in peggioramento, tendenza che nelle medie arriva al 33% e nelle grandi al 21%.

Articoli Correlati