Microsoft Security Essentials: presto gratuito per le pmi

Microsoft Security Essentials, la soluzione antivirus ed anti-malware che Microsoft un anno fa ha messo gratuitamente a disposizione di tutti gli utenti consumer, potrà presto essere installato in modo ufficiale anche dalle piccole aziende che hanno fino a 10 postazioni di lavoro.
A partire da Ottobre, infatti, i termini della sua licenza cambieranno e le aziende con dieci o meno PC potranno scaricare ed utilizzare il software senza alcun costo.
In realtà non si può fare a meno di notare come già la maggior parte delle piccole compagnie con pochi personal computer operino già in questo modo.
Con questa mossa Microsoft intende quindi formalizzare quella che è una realtà da tempo ben conosciuta dal colosso di Redmond. “Non è un segreto che moltissime piccole compagnie oggi non dispongono di un professionista IT dedicato o di uno staff che gestisca le loro risorse IT” – ha commentato la notizia con un post su Internet il responsabile Microsoft Eric Lingman – “Offrendo Security Essentials (con i suoi aggiornamenti automatici dal sito Microsoft) alle piccole imprese, senza richiedere alcun pagamento aggiuntivo, estendiamo quello che è il nostro impegno e la nostra missione annunciata, ovvero aiutarle a ridurre i costi dell’IT e far crescere il loro business”. In effetti, considerato il costo medio attuale di una licenza per un antivirus, il risparmio nell’utilizzare Microsoft Security Essentials nelle micro imprese può arrivare fino ai 250/300 euro all’anno, purchè i PC in uso siano dotati di regolari licenze Windows.
Microsoft Security Essentials si presenta all’utente finale come un’applicazione leggera da scaricare e utilizzare e dall’interfaccia intuitiva, volta a proteggere i PC contro virus ed altri malware e che si integra perfettamente con i controlli di sicurezza built-in presenti all’interno di Windows 7, Windows Vista e Windows XP (Service Pack 2 o superiore).
Il team di sicurezza Microsoft sta inoltre sviluppando una nuova versione del software comprendente ampliamenti e maggiori analisi di sicurezza, tuttavia la nuova versione è tutt’ora in fase beta.
Fin dal suo rilascio, sono stati numerosi i responsabili IT a chiedere che questo tipo di protezione potesse un giorno venire estesa gratuitamente a tutte le compagnie, a prescindere dalla loro dimensione in modo da incrementare anche la sicurezza degli ambienti Windows di minori dimensioni. L’annuncio della scorsa settimana viene visto da molti proprio come un ulteriore passo verso questa direzione.

Articoli Correlati

Google finanzierà la PA trasparente

Da saperi.forumpa.it.

Dopo quasi due anni di lavoro Google ha annunciato i vincitori del concorso 10^100 che, lanciato nel 2008, ha raccolto oltre 154.000 idee provenienti da 170 paesi e scritte in 25 lingue. Sono 5 progetti, anzi 5 idee, che hanno l’ambizione di migliorare il mondo utilizzando le nuove tecnologie e le potenzialità della rete. In particolare l’idea “Rendere le amministrazioni pubbliche più trasparenti” è una delle 5 vincitrici e l’associazione Public.Resource.Org riceverà 2 milioni di dollari per portarla avanti.

Public.Resource.Org è una organizzazione non profit che si occupa principalmente di fornire l’accesso online a documenti delle amministrazioni pubbliche negli Stati Uniti. I 2 milioni di dollari vinti serviranno a pubblicare online i documenti legali degli Stati Uniti in modo da renderli accessibili a tutti. Le altre quattro idee, premiate con la stessa cifra sono: “Rendere disponibili sul Web risorse educative gratuitamente”; “Migliorare l’istruzione scientifica e tecnica”; “Promuovere l’innovazione nei trasporti pubblici”; “Offrire istruzione di qualità agli studenti africani”.

Come si è svolto il concorso

Il 2008 è stato l’anno del lancio dell’iniziativa e della raccolta delle idee. Tra settembre e ottobre 2008 sono arrivate attraverso il form presente sul sito di Google 150.000 idee che spaziavano da suggerimenti per grandi aree di investimento a proposte tecnologiche e di implementazione molto specifiche.
L’intenzione degli organizzatori era di proporre le migliori 100 idee alla votazione della rete, ma l’enorme successo ottenuto e l’affinità di molte proposte ha spinto a cambiare programma.
In sostanza gli oltre 3000 dipendenti di Google hanno vagliato tutte le idee e hanno combinato insieme gli aspetti più innovativi di diverse proposte, in modo da creare nuovi approcci ad alcuni grandi problemi.
Ogni idea è stata esaminata in base a cinque criteri: portata, impatto, realizzabilità, efficienza e longevità.
Ne sono uscite fuori 16 idee, ognuna delle quali traeva ispirazione da numerose idee inviate dagli utenti.

Il 2009 è stato l’anno della votazione on line. Tutti gli utenti della rete hanno avuto la possibilità di esprime la propria preferenza per una delle sedici idee. Dopo l’8 ottobre 2009 (termine ultimo fissato per la votazione) tutte le preferenze di voto sono state consegnate ad un apposito comitato consultivo formato da esperti di riconosciuta competenza nei settori individuati dalle categorie di presentazione delle idee. Basandosi proprio sulle preferenze della rete il comitato consultivo ha selezionato cinque idee finaliste da finanziare.

Dato che ogni idea non era più il frutto di una singola proposta ma era un concentrato di elementi positivi provenienti da più proposte a questo punto rimaneva il problema di chi finanziare per la realizzazione dell’idea. Il team di Google ha aperto, allora, un nuovo concorso, nel quale si chiedeva ad organizzazioni no profit di “candidarsi”. Tramite una procedura RFP (richiesta di offerta) finalmente qualche giorno fa sono stati comunicati ufficialmente i nomi dei soggetti che si vedranno riconoscere i 2 milioni di dollari.

I vincitori

  • Idea: Rendere disponibili sul Web risorse educative, gratuitamente Progetto finanziato: Khan Academy una organizzazione non profit che fornisce un’istruzione gratuita e di alta qualità a tutti e ovunque tramite una raccolta online di oltre 1.600 video didattici. Il finanziamento servirà a supportare la realizzazione di altri corsi e a consentire alla Khan Academy di tradurre la sua raccolta di base nelle lingue più parlate del mondo.
  • Idea: Migliorare l’istruzione scientifica e tecnica Progetto finanziato: FIRST una organizzazione non profit che promuove l’istruzione scientifica e matematica in tutto il mondo tramite la competizione di squadra. La sua missione è stimolare i giovani a diventare leader in campo scientifico e tecnologico consentendo loro di fare esperienze reali lavorando con tecnici e scienziati professionisti. Il finanziamento consentirà lo sviluppo e l’avvio di nuovi programmi di raccolta fondi per team di robotica formati da studenti che consentiranno a più team di studenti di partecipare a FIRST.
  • Idea: Rendere le amministrazioni pubbliche più trasparenti Progetto finanziato: Public.Resource.Org
  • Idea: Promuovere l’innovazione nei trasporti pubblici Progetto finanziato: Shweeb un’idea di trasporto cittadino delle persone su breve-media distanza utilizzando veicoli azionati dall’uomo su monorotaia. Il finanziamento sarà utilizzato per finanziare la ricerca e lo sviluppo allo scopo di testare la tecnologia di Shweeb per un contesto urbano.
  • Idea: Offrire istruzione di qualità agli studenti africani Progetto finanziato: L’African Institute for Mathematical Sciences (AIMS) un centro che si occupa di istruzione e di ricerca in campo scientifico e matematico a Cape Town, in Sudafrica. L’attività principale dell’AIMS è costituita da un programma ponte della durata di un anno per neolaureati. Tale programma consente loro di acquisire competenze e conoscenze prima di affrontare eventuali master e dottorati PhD. Il finanziamento permetterà l’apertura di altri centri AIMS per promuovere gli studi matematici e scientifici postlaurea in Africa.

Articoli Correlati

Banda larga? forse si…

Bernabé non cede e rilancia: Telecom Italia non intende scendere a patti e anzi continua a promettere un percorso proprio per portare la banda larga nel paese a modo proprio ed in modo indipendente. Lo fa direttamente davanti all’AGCOM, quello che dovrebbe essere l’”arbitro” che mette le parti sui binari del corretto sviluppo negli interessi della nazione. Lo fa promettendo banda larga in 6 grandi città con offerta commerciale già pronta ad essere lanciata.

Entro Natale 520.000 abitazioni di Roma, Milano, Catania, Bari, Venezia e Torino potranno accedere ad una offerta per connettività fino a 100 Mbps. la rete poi verrà successivamente ampliata di anno in anno per arrivare nel 2018 a circa il 50% della popolazione.

E’ un modo per recuperare un gap che sta diventando pesantissimo verso gli altri paesi industrializzati: In Francia e Germania la rete esiste gia’ a 100 Mbps e in altri paesi come Stati Uniti, Giappone, Corea del Sud, Hong Kong hanno già in certe aree 1 Gbps (10 volte tanto).

Ci sono aree gia’ be attrezzate anche in Italia grazie anche allo sforzo di alcuen regioni (Trentino Alto Adige e Lombardia in primis) che hanno gia’ realizzato proprie reti cittadine ad alta velocità grazie ad investimenti con propri fondi. Ma sono progetti che vanno a rilento. Siamo ancora molto lontani dall’euforia dei primi anni del 2000 quando non si trovava letteralmente fibra ottica dati i grandi volumi di posa dell’epoca.

Il mio parere è che molta colpa è anche delle amministrazioni pubbliche locali, miopi sui vantaggi di tali sistemi. Il costo di una infrastruttura per le reti di prossima generazione si sarebbe potuto annegare in svariate opere di urbanizzazione fatte negli anni (ad esempio rifacimento di fognature, acquedotti, manti stradali, illuminazione pubblica).

Aspettiamo, per ora ci viene spacciata l’offerta ad alta banda quella delle chiavette internet o delle nostre vecchie linee adsl….

Articoli Correlati

Ma ci sarà mai la vera banda larga?

Da punto informatico che ha fatto un articolo veramente bello:

Roma – I principali operatori nazionali di telecomunicazioni, dopo aver di fatto rotto nel Comitato NGN, hanno raggiunto un accordo sul “modello strutturale di base per lo sviluppo di reti di nuova generazione”: lo ha comunicato il (vacante) Ministero dello Sviluppo Economico, attraverso il Dipartimento delle comunicazioni.

Davanti al sottosegretario Paolo Romani si era nuovamente riunito il tavolo tecnico che chiamava gli operatori del settore ”ad effettuare i necessari approfondimenti tecnici, tecnologici, economici e finanziari” necessari ad “una più ampia e veloce diffusione delle Reti di accesso in fibra ottica”. Dopo una serie di annunci e speranze più o meno condivise, un primo passo sembra effettivamente essere stato compiuto: un accordo sul modello su cui basare lo sviluppo della nuova rete (cavidotti, fibre ottiche spente, collegamenti verticali, permutatori ottici e collegamenti ottici per stazioni radio base i sistemi sul tavolo) e che dovrà rappresentare “il punto di riferimento dell’attività che Governo, Enti locali e operatori prevedono di sviluppare congiuntamente”.

Secondo le indiscrezioni si dovrebbe trattare di un modello ibrido in cui si potranno usare (a discrezione degli operatori) sia la tecnologia Gpon ( fortemente voluta da Telecom Italia) sia quella point-to-point (preferita dagli OLO, la concorrenza), grazie all’impiego di un cavidotto in cui far transitare le fibre.

L’accordo rappresenta, spiega il sottosegretario Romani, un passo fondamentale “proprio nell’attuale situazione economica che impone ogni sforzo per fare scelte mirate su progetti di natura infrastrutturale capaci di dare un impulso serio e strutturato alle prospettive di sviluppo e crescita del Paese”.

Questo modello, spiega Romani, è volto “ad assicurare la massima armonizzazione con le infrastrutture esistenti”. A questo scopo, continua, verrà avviato, tramite una consultazione pubblica, “un veloce e accurato censimento delle infrastrutture in fibra ottica presenti nel Paese e dei relativi piani di investimento per lo sviluppo delle stesse nei prossimi tre anni. Questo atto è propedeutico all’identificazione delle aree oggetto di intervento secondo il modello su cui oggi è stato trovato l’accordo e a un celere e omogeneo sviluppo delle reti di nuova generazione sul territorio nazionale”.

Tutto pronto per partire dunque? Non proprio: “Tra due settimane sarà convocata la seconda riunione del Tavolo Governo Operatori con l’obiettivo di sancire i principi e le tappe necessarie per l’avvio concreto della partnership pubblico – privata che possa operare sulle infrastrutture passive necessarie alle reti di nuova generazione”, e la prossima settimana il Ministero dello Sviluppo Economico convocherà gli operatori medi e piccoli ai quali sarà presentato il nuovo modello (ma che avrebbero, secondo il sottosegretario, “già manifestato un concreto interesse a partecipare al progetto Italia digitale“). Sarà inoltre dato il via sempre questa settimana alla consultazione pubblica per il censimento della fibra e dei relativi piani di investimento per lo sviluppo delle stesse nei prossimi tre anni, atto “propedeutico all’identificazione delle aree oggetto di intervento secondo il modello su cui oggi è stato trovato l’accordo e a un celere e omogeneo sviluppo delle reti di nuova generazione sul territorio nazionale”.

Intanto l’Europa sta a guardare (ma non sta con le mani in mano): dovrebbe essere divulgata (attese per i primi giorni della settimana) la Raccomandazione Nga approvata in via definitiva dalle Commissione europea mercoledì, e presto sarà avviato Broadband Communication, il primo framework europeo a cui gli Stati membri dovranno attenersi per centrare gli obiettivi dell’Agenda digitale (che vorrebbe garantite connessioni a 30 Mbps per tutti i cittadini della UE e disponibilità di 100 Mbps in almeno il 50 per cento delle abitazioni) e del Piano pluriennale per la gestione dello spettro radio. A Bruxelles sono convinti che la competitività del Vecchio Continente dipenda anche dalle nuove tecnologie e, in particolare, da Internet. Interessanti sviluppi che da Roma dovranno osservare attentamente: verrà delineata in questa sede la cornice entro cui i regolatori nazionali dovranno iscrivere le proprie norme per la realizzazione e l’accesso alle nuove infrastrutture di rete. Il tutto nell’ottica della contrapposizione tra incumbent e OLOe della definizione di rispettive responsabilità e delle tariffe sulle nuove reti.

Claudio Tamburrino

Articoli Correlati

Banda larga? non ancora

Vi ricordate il discorso degli 800 milioni di euro riservati per la banda larga in Italia e annunciati in pompa magna come primo step di una nuova rete next generation?

Beh ne sono rimasti molto pochi…..

Che tristezza.

I dettagli qui:

Punto Informatico.

WebNews.

Articoli Correlati

Risk Analysis

Da un estratto di un nostro documento per spiegare questa attività. Penso possa essere utile a molti.

Nelle realtà aziendali esistono innumerevoli contenitori di dati da cui si estraggono informazioni utili alla conoscenza del proprio business.
Questa frase contiene in sé il perché dell’analisi del rischio all’interno di una azienda.

Abbiamo dati in molteplici forme: cartacei, fogli excel, svariati databases, documenti informatici. Sono Fatti ed Oggetti. Da soli servono poco o nulla ma devono essere comunque gestiti.
Dai dati estraiamo informazioni correlandoli in configurazioni significative per la nostra attività.
La conoscenza è l’applicazione e l’uso produttivo dell’informazione.
Sono “oggetti” che quindi vanno preservati per la continuità dell’azienda.

Per tali motivi è necessario quindi analizzare l’intera azienda per scoprire dove sono questi “oggetti” e come preservali in caso di “disastri”.

Questo è l’oggetto della Risk Analysis:

  1. Fornire informazioni al management aziendale
  2. Verificare il rispetto di leggi e regolamenti
  3. Ridurre le perdite provocate dalle minacce

Gli obiettivi della Risk Analysis sono soprattutto:

  1. Determinare quali beni aziendali sono critici (e rientrano anche i beni o asset intangibili come la conoscenza e l’informazione)
  2. Identificare le minacce possibili
  3. Determinarne le criticità e le vulnerabilità
  4. Calcolare in maniera scientifica le perdite previste in caso di incidente
  5. Valutare le azioni e le contromisure da mettere in campo
  6. Mettere in campo le azioni correttive
  7. Periodicamente effettuare una nuova risk analysis

E’ un processo ciclico da effettuare con svariate metodologie:

  1. quantitative per dare un valore certo dei rischi, sono più costose e complesse ma alla lunga danno un vantaggio, sono ripetibili e confrontabili
  2. qualitative quando i beni o i dati non sono facilmente valutabili in termini economici (es quando un incidente causa perdita di immagine).

I passi sono abbastanza semplici da descrivere:

  1. identificare gli asset aziendali tangibili e intangibili determinandone i valori , la criticità la proprietà e la localizzazione
  2. Identificare le minacce distinguendo tra eventi naturali (es incendio) ed umani (furto di dati, abuso di privilegi) o tecniche (guasto hardware, guasto software) e facendo una stima della loro frequenza di accadimento
  3. Identificare le contromisure esistenti  (antivirus, ridondanza, condizionamento, antifurto, backup, controllo accessi)
  4. Identificare le vulnerabilità
  5. Calcolare il valore delle perdite stimate con funzioni matematiche ad hoc oppure con matrici di probabilità: Questo Ë il rischio

Una volta calcolato il rischio totale si mettono in pratica azioni correttive volte a eliminarlo, abbassarlo, oppure trasferirlo (assicurazione).

A questo punto si entra nella gestione del rischio vero e proprio in cui si mettono in pratica una serie di metodologie organizzative e tecnologiche massimizzando il rapporto Costo/beneficio in quanto la gestione del rischio ha benefici ma anche costi quali:

  1. Costi di investimento
  2. Costi di Implementazione delle contromisure
  3. Costi operativi e di manutenzione
  4. Costi diretti e indiretti.

Il ritorno dell’investimento per la riduzione del rischio è comunque positivo se il processo è eseguito correttamente: ci sono dei benefici economici in quanto perdo meno tempo (es, quanto costa ricostruire un sistema gestionale partendo dalle copie cartacee?), benefici non economici come una migliore gestione, una maggiore consapevolezza, un livello di integrità dei dati migliorato.

In definitiva, uno studio di risk management ha l’obiettivo di presentare al management aziendale le contromisure necessarie alla riduzione del rischi e comprende:

  1. Il risultato della Risk Analysis
  2. Gli scenari delle minacce e vulnerabilità
  3. I risultati secondo l’analisi costi/benefici
  4. Le contromisure da adottare.

In sostanza dire che serve assolutamente un doppio ced, oppure una rete dati completamente ridondata, un certo sistema di replica delle informazioni senza avere fatto una seria analisi sia dei costi che dei benefici attesi  è assolutamente priva di significato. Di volta in volta le soluzioni possono essere diverse a seconda dell’azienda.

Sicurezza e valore dei dati

Articoli Correlati

I Cms più usati

http://w3techs.com

Usage of content management systems for websites

This diagram shows the percentages of websites using various content management systems. See technologies overview for explanations on the methodologies used in the surveys.

How to read the diagram:
78.7% of the websites use none of the content management systems that we monitor.
Wordpress is used by 12.0% of all the websites, that is a content management system market share of 56.3%.

None
78.7%
WordPress
12.0%
56.3%
Joomla
2.3%
10.8%
Drupal
1.4%
6.3%
vBulletin
1.3%
6.3%
Typo3
0.6%
2.9%
Blogger
0.6%
2.8%
phpBB
0.5%
2.1%
Discuz!
0.3%
1.6%
ExpressionEngine
0.2%
1.1%
DataLife Engine
0.2%
1.1%
DotNetNuke
0.2%
1.0%
Simple Machines Forum
0.2%
1.0%
Movable Type
0.1%
0.6%
XOOPS
0.1%
0.5%
SPIP
0.1%
0.5%
PHP-Nuke
0.1%
0.4%
Bitrix
0.1%
0.4%
MediaWiki
0.1%
0.4%
IP.Board
0.1%
0.4%
Plone
0.1%
0.4%
eZ Publish
0.1%
0.3%
TypePad
0.1%
0.3%
CMS Made Simple
0.1%
0.3%
Ektron
0.1%
0.3%
Squarespace
less than 0.1%
0.2%
Open Text
less than 0.1%
0.2%
e107
less than 0.1%
0.2%
EPiServer CMS
less than 0.1%
0.2%
Contao
less than 0.1%
0.2%
Mambo
less than 0.1%
0.1%
PHP-Fusion
less than 0.1%
0.1%
SilverStripe
less than 0.1%
0.1%
Nucleus
less than 0.1%
0.1%
MODx
less than 0.1%
0.1%
Contenido
less than 0.1%
0.1%
OpenCms
less than 0.1%
0.1%
Concrete5
less than 0.1%
0.1%
DokuWiki
less than 0.1%
0.1%
CommonSpot
less than 0.1%
0.1%
W3Techs.com, 14 September 2010
absolute usage percentagemarket share
Percentages of websites using various content management systems

Articoli Correlati

I linguaggi più usati per creare siti web

Da http://w3techs.com

Usage of server-side programming languages for websites

This diagram shows the percentages of websites using various server-side programming languages. See technologies overview for explanations on the methodologies used in the surveys.

How to read the diagram:
PHP is used by 74.7% of all the websites whose server-side programming language we know.

PHP
74.7%
ASP.NET
23.8%
Java
3.8%
ColdFusion
1.4%
Perl
1.2%
Ruby
0.5%
Python
0.3%
W3Techs.com, 14 September 2010
Percentages of websites using various server-side programming languages
Note: a website may use more than one server-side programming language

Articoli Correlati

Openoffice alla portata dei più piccoli.

Riporto  da Html.it. Veramente un bel progetto e grazie html.it per averlo recensito.

OOo4Kids è un progetto avente lo scopo di sviluppare un software derivato dal codice sorgente di OpenOffice.org destinato ai bambini con età compresa tra 7 e 12 anni e al settore educativo. Si ha pertanto la possibilità di scrivere testi, impaginare documenti, fare disegni di vario genere e creare presentazioni multimediali, utili ad esempio per ricerche e progetti in ambiti scolastici. Obiettivo principale è di rendere disponibile un prodotto gratuito in grado di far avvicinare l’utenza più giovane al mondo della videoscrittura e degli strumenti cosiddetti d’ufficio in modo semplice ed efficace. Il software, realizzato dai volontari dell’associazione EducOOo, viene distribuito con licenza LGPL v3 e può pertanto essere liberamente utilizzato per scopi privi di lucro, potendo inoltre contare su idee, suggerimenti e proposte provenienti dalla stessa comunità di utilizzatori. Per ottenere la massima fruibilità della suite l’interfaccia è stata particolarmente curata per risultare chiara, attraente, colorata e invitante, senza perdere di vista aspetti legati anche alle disabilità. Tra i moduli disponibili vi sono:

  • Writer: dotato di barre degli strumenti organizzate per semplificarne l’interazione, di una palette di colori dedicata e di font adattabili per la dislessia;
  • Calc: offre un numero di celle ridotto, un elenco di funzioni che si adattano automaticamente agli utenti e un assistente alle operazioni principali;
  • Draw: fornisce strumenti di disegno vettoriale basati su una ricca libreria e uno spazio di lavoro appositamente studiato;
  • Impress: rivolto alla definizione di presentazioni in modo intuitivo e coerente.

Alcuni screenshot:

Installazione OOo4Kids

Finestra principale di benvenuto - OOo4Kids

Procedura guidata modulo Impress - OOo4Kids

Interfaccia utente modulo Calc - OOo4Kids

L’articolo Originale e completo è qui.

Articoli Correlati

Per l'IT c'e' ancora crisi… ma ci sono segnali di ripresa

Riporto dal sito di Assinform, che è importante per il nostro settore.

Rispetto al 1° semestre 2009 (-9,0%), il recupero è di 6,5 punti percentuali. In ripresa la domanda delle imprese di Pc e server con + 10,3%; recupero di 3 punti percentuali del software (-1,2%, rispetto al -4,1% del 2009); mercato consumer a + 21% Indagine congiunturale su aziende IT a luglio 2010: positiva (+0,5%), per la prima volta da un anno (-14,9% nel luglio 2009), la valutazione sui budget dedicati dalle imprese clienti allo sviluppo di nuovi progetti informatici.

Angelucci: “Per la crescita competitiva e occupazionale occorre sostenere la ripresa degli investimenti in innovazione. Da parte della politica ci aspettiamo atti di coraggio: incentivi stabili per le imprese che innovano e che si aggregano, anche tramite acquisizioni; una riforma fiscale che metta fine all’iniquità dell’Irap sui settori “labour intensive” come l’IT; la modifica delle regole delle gare, che vanno centrate sulla qualità dei servizi informatici e non sul puro ribasso delle tariffe”.

Milano, 14 settembre 2010 Per l’IT l’emergenza non è finita, anche se si riscontra un’inversione di tendenza. Il bilancio di fine giugno 2010 è ancora in rosso e il trend negativo penalizzerà il settore fino alla fine dell’anno. L’informatica italiana continua a patire gli effetti della crisi, della totale assenza di una politica per l’innovazione e del clima di incertezza che vive il Paese. Pur nella consapevolezza che molte imprese, soprattutto quelle esposte alla competizione internazionale, non hanno gettato la spugna e stanno tornando a investire nelle tecnologie informatiche e nell’innovazione dei processi, il settore IT manifesta nel suo complesso grande fatica a beneficiare della piccola ripresa in atto.” E’ l’esordio di Paolo Angelucci, Presidente di Assinform, nell’aprire la conferenza stampa di anticipazione dei dati sull’andamento dei settori IT e TLC nel primo semestre 2010. Un andamento che ha visto l’IT chiudere il primo semestre di quest’anno a – 2,5% e le TLC fermarsi a – 2,3%, rispetto allo stesso periodo del 2009.

“Oggi, tuttavia, la nostra preoccupazione non riguarda tanto le performance dell’anno in corso, che già prevedevamo ridotte, date le condizioni di oggettiva difficoltà del mercato – ha continuato Angelucci – quanto le iniziative da prendere ora, affinché le grandi potenzialità dell’IT, quarto settore industriale italiano con oltre 380.000 addetti, motore dell’innovazione e di occupazione qualificata, possano essere colte dal Paese, per avviare una fase di crescita competitiva nel 2011″. “Se vogliamo che l’informatizzazione infrastrutturale da parte delle imprese – ha sottolineato il Presidente di Assinform – fenomeno importante emerso nei primi sei mesi dell’anno, evolva verso un utilizzo pervasivo dell’IT nell’economia italiana generando nuova occupazione qualificata, soprattutto tra i giovani, sono necessari atti di coraggio da parte delle istituzioni, del Governo, della classe politica tutta, per introdurre nuove regole e condizioni quadro capaci di creare un clima che premi l’innovazione a tutti i livelli. Per questo occorrono provvedimenti di politica industriale stabili, che agiscano sul fronte del credito fiscale e degli incentivi, accompagnati da misure che facilitino l’accesso a finanziamenti bancari. La finalità deve essere quella di sostenere sia la domanda IT, premiando le aziende italiane che usano la leva tecnologica per migliorare la propria efficienza/produttività, sia l’offerta di Made in Italy tecnologico. In questo contesto vanno favorite fusioni e acquisizioni aziendali con un programma straordinario di ammortizzazione fiscale. Al contempo, le addizionali dall’Irap vanno spostate sull’Ire per stemperare il peso sull’occupazione di questa tassa, particolarmente iniqua per un settore ad alto utilizzo di risorse professionali qualificate quale l’IT. Infine vanno cambiate le regole delle gare: i servizi informatici non possono essere acquistati al massimo ribasso, ma per la loro qualità, nell’ambito di un giusto rapporto costi/benefici”.

I dati Assinform, evidenziano come per la prima volta dall’avvio della crisi, si sia manifestata una tendenza all’attenuazione del calo di mercato. Con il -2,5% segnato a fine giugno 2010, l’IT italiana ha recuperato oltre 6 punti percentuali rispetto al -9,0% registrato a fine giugno 2009 (sul 1° semestre dell’anno precedente). Il recupero ha interessato tutte le componenti informatiche, dall’hardware, al software, ai servizi, ma con notevoli differenziazioni e prospettive.
Il fenomeno nuovo, oggi potenzialmente più significativo, riguarda la crescita della domanda di Pc e server da parte delle imprese. Nei primi sei mesi dell’anno, infatti, il mercato dei Pc portatili, desktop e server ha registrato, rispetto allo stesso periodo dell’anno scorso, un incremento in volume di + 12,9%, pari a oltre 400.000 unità, assorbite per l’80% dalle imprese, la cui domanda è passata da -2,5% del 2009 all’attuale +10,3%. In particolare la domanda di server è salita del 12,3% (era stata -29% nello stesso periodo 2009), quella di desktop del + 13,4% (-21,5% nel 2009), mentre l’incremento dei Pc portatili è stato del 12,7% (simile al +14,8% dell’anno precedente). “Questi dati – ha commentato Angelucci – segnalano l’avvio di processi di rinnovamento delle tecnologie aziendali, di maggior informatizzazione delle imprese italiane, di investimenti in infrastrutture innovative. Processi che la crisi aveva quasi del tutto bloccato e che oggi appaiono sempre più indispensabili a quelle imprese che intendono affrontare la ripresa dei mercati”.
I riflessi positivi di questo tipo di strategie aziendali si ritrovano anche nell’andamento del segmento Software, che a fine giugno si è attestato a -1,2% a fronte della perdita di -4,1% raggiunta nello stesso periodo del 2009. Si attende quindi un’amplificazione positiva nei prossimi mesi verso la domanda di nuove applicazioni, spinta anche dalla novità delle scelte che le imprese stanno compiendo, privilegiando per oltre la metà della propria domanda l’acquisto di Pc portatili e quindi portando il focus verso le nuove frontiere tecnologiche e organizzative dettate dalla mobilità. Il segmento dei Servizi, che costituisce la metà dell’intero mercato informatico italiano (pari a 4.215 milioni di euro per i primi sei mesi dell’anno, a fronte di un valore totale di 8.918 mln), passato dal -7,3% del primo semestre 2009, all’attuale -3,7%, continua, al contrario, a essere fortemente penalizzato dalla tendenza sempre più accentuata al calo delle tariffe professionali.
“Se è evidente che nella maggioranza delle imprese e della Pa prevalgono tutt’ora le strategie di razionalizzazione finalizzate alla riduzione dei costi – ha concluso il presidente di Assinform – , il ribasso delle tariffe non può rappresentare un percorso sostenibile, ma una semplice valvola di sfogo che comprime i margini dei fornitori, rischia di incidere pesantemente sulla qualità dei servizi dei clienti e preclude lo sviluppo di nuova occupazione”.
Anche dalla VII indagine congiunturale condotta a luglio di quest’anno su un campione significativo di imprese associate Assinform, si ricavano segnali contrastanti, fra potenziali opportunità di ripresa, oscurate da previsioni ancora fosche sull’occupazione. In generale emerge un clima di ripresa di fiducia, con previsioni di crescita dei fatturati per il 43% delle imprese partecipanti (contro il 24% di luglio 2009 e il 27,6% di aprile 2010). Ma le Pmi prevedono, nella maggioranza dei casi, un andamento in calo degli ordinativi e degli utili.
Il dato più interessante, che conferma le rilevazioni di mercato, riguarda le valutazioni sull’andamento dei budget da parte delle aziende clienti. Per la prima volta dal luglio 2009 il tasso di crescita medio della spesa destinata allo sviluppo di nuovi progetti informatici raggiunge una valutazione positiva (+ 0,5%, a luglio 2009 era di -14,9%), mentre le spese correnti e per manutenzione guadagnano in stabilità, sebbene ancora in calo (-1,6%, valutazione di -6,1% nel luglio 2009).
Sul fronte dell’occupazione, dall’indagine congiunturale non emerge ancora alcuna previsione di ripresa. Continua l’emorragia dei consulenti, soprattutto da parte delle grandi imprese, sebbene in leggera attenuazione . Per i dipendenti sparisce la fascia di valutazione “molto peggiorato”, ma il 15% delle imprese continua a considerare la situazione in peggioramento, tendenza che nelle medie arriva al 33% e nelle grandi al 21%.

Articoli Correlati