Internet, nuovo virus on line: occhio alle email con la mappa degli autovelox

Roma – (Adnkronos) – Email, aventi come falso mittente la polizia, forniscono un link per consultare l’elenco aggiornato delle postazioni fisse autovelox. In realtà cliccando si installa un virus che ‘cattura’ informazioni sensibili contenute nel computer

Roma, 30 lug. (Adnkronos) – La polizia postale mette in guardia da una nuova truffa che da ieri sera circola online: email, aventi come falso mittente la polizia, nelle quali si dà la possibilità di consultare l’elenco aggiornato delle postazioni fisse autovelox e a tale scopo viene fornito un link. In realtà cliccando si installa un virus molto insidioso che ‘cattura’ informazioni sensibili contenute nel computer.

Scopo di queste mail ‘truffaldine’, dietro le quali spesso si nasconde la mano della criminalità organizzata, è accedere ad esempio ai conti correnti bancari. ”Abbiamo già allertato le forze di polizia locali colombiane e ucraine, dove si trovano i server a cui rimanda il link – spiega all’ADNKRONOS Nunzia Ciardi, una dirigente della Polizia Postale e delle Comunicazioni – Sappiamo che stanno circolando centinaia di migliaia di queste mail, che possono trarre in inganno perché prendono spunto da un testo pubblicato sul sito della polizia ma poi rimandano a un link che se viene cliccato scarica un virus capace di catturare le informazioni sensibili”.
”Le truffe più comuni sono quelle che, servendosi di pagine clonate dai siti degli istituti bancari comunicano al cliente la modifica delle modalità di accesso – prosegue Ciardi – chiedendogli di fornire username e password: a quel punto possono avere accesso al conto e il gioco è fatto”. Nel caso degli autovelox, invece, ”è la prima volta che scopriamo una truffa del genere.
Forse hanno pensato di approfittare dell’esodo estivo, in modo da rendere più credibile la truffa”.

La polizia consiglia di cestinare l’e-mail evitando di cliccare sul link e di tenere sempre aggiornato il proprio antivirus.

fonte: http://www.adnkronos.com/IGN/News/Cronaca/?id=3.1.756431152

Articoli Correlati

Banda Larga? Non qui

Riportiamo un articolo da Dday:

Noi Italiani, dobbiamo ammetterlo, siamo un popolo che si lamenta spesso e volentieri. Non sempre, però, a torto: stando infatti alla classifica sulle velocità della rete stilata da Ookla, gestore dei famosi siti di test delle velocità di connessione SpeedTest.net e PingTest.net, il nostro Bel Paese si piazza al 61° posto della classifica mondiale, con 4,5 Mbps in download e 0.84 Mbps in upload di media. I dati, ovviamente, arrivano da tutti gli utenti che effettuano il test sui suddetti siti.

La situazione è ancora più sconfortante se si analizza la situazione generale: l’Italia risulta infatti essere il fanalino di coda dell’Europa, seguita solo dai paesi dell’ex area dei Balcani, peggio anche di Paesi come il Ghana, 42esimo con 6,28Mbit/s, e il Kirghizistan, 21esimo con 11Mbps. A onor del vero va detto che in questi Paesi la penetrazione di Internet non è certo una delle più elevate, quindi chi ha effettuato il test sarà qualche ricco fortunato.

Limitandoci a Paesi più “livellati”, però, le cose non vanno molto meglio: escludendo la Corea del Sud, prima con oltre 30Mbit/s, troviamo un quartetto tutto europeo composto da Lettonia, Olanda, Moldavia e Lituania, tutte sopra i 20 Mbit/s. E le altre? Ecco una piccola tabellina riassuntiva:

# Paese Velocità
1 Corea del Sud 31,47
8 Svezia 17,91
12 Portogallo 14,51
13 Germania 14,46
19 Francia 11,52
23 Finlandia 10,99
34 Regno Unito 7,71
45 Spagna 5,95
60 Maldive 4,52
61 Italia 4,52
62 Jamaica 4,41
160 Nepal 0,37

Se siete interessati alla classifica completa, potete consultarla direttamente sul sito di Ookla. Munitevi prima di un fazzoletto, però, perché c’è da piangere.

Casa che fra l’altro avevamo pubblicato già un po’ di tempo fa qui.

Sembra che siamo ulteriormente peggiorati!

Articoli Correlati

VPH 2010

Dal sito dell’Unione Europea, per gli interessati:

Evento VPH 2010
30 September 2010 – 1 October 2010 Brussels, Belgium

The European Commission launched the Virtual Physiological (VPH) initiative to research and develop patient-specific computer models for personalised and predictive healthcare and ICT-based tools for modelling and simulation of human physiology and disease-related processes. This is the first of a series of conferences to be held by the VPH Network of Excellence (VPH NoE). The VPH NoE is an umbrella project, representing the Virtual Physiological Human Initiative set up by the European Commission under the 7th Framework Programme. The VPH NoE is also responsible for producing a ‘VPH Vision and Strategy Document’ in preparation of the next calls under FP7, FP8 and for European large infrastructural actions.

Articoli Correlati

Pubblicati i dettagli di 100 milioni di account Facebook

Ron Bowes, sviluppatore del noto tool nmap, ha scritto un piccolo programma di scansione e lo ha lanciato sugli account pubblici di Facebook.

Il risultato? Un bel file di 2.8 GB contenente oltre 100 milioni di account dei quali è possibile sapere nome, cognome, ID, e molte altre informazioni lasciate pubblice.

Mi ricordo un’altra provocazione del genere di poco tempo fa: su un sito si mostrava chi non era a casa, raccogliendo i dati da questo sito social.

Comunque ecco una bella intervista dell’autore di questo “furto”:

Ron Bowes, a security consultant, used a piece of code to scan Facebook profiles, collecting data not hidden by the user’s privacy settings.

The list, which contains the URL of every searchable Facebook user’s profile, name and unique ID, has been shared as a downloadable file.

Mr Bowes told BBC News that he did it as part of his work on a security tool.

“I’m a developer for the Nmap Security Scanner and one of our recent tools is called Ncrack,” he said.

“It is designed to test password policies of organisations by using brute force attacks; in other words, guessing every username and password combination.”

By downloading the data from Facebook, and compiling a user’s first initial and surname, he was able to make a list of the most common probable usernames to use in the tool.

The three most common names, he found, were jsmith, ssmith and skhan.

In theory, researchers could then combine this list with a catalogue of the most commonly used passwords to test the security of sites. Similar techniques could be used by criminals for more nefarious means.

Mr Bowes said his original plan was to “collect a good list of human names that could be used for these tests”.

“Once I had the data, though, I realised that it could be of interest to the community if I released it, so I did,” he added.

Mr Bowes confirmed that all the data he harvested was already publicly available but acknowledged that if anyone now changed their privacy settings, their information would still be accessible.

“If 100,000 Facebook users decide that they no longer want to be in Facebook’s directory, I would still have their name and URL but it would no longer, technically, be public,” he said.

Mr Bowes said that collecting the data was in no way irresponsible and likened it to a telephone directory.

“All I’ve done is compile public information into a nice format for statistical analysis,” he said

Simon Davies from the watchdog Privacy International told BBC News it was an “ethical attack” and that more personal information had not been included in the trawl.

“This is a reputational and business issue for Facebook, for now,” he said

“They can continue to ride the risk and hope nothing cataclysmic occurs, but I would argue that Facebook has a special responsibility to go beyond doing the bare minimum,” he added.

Snowball effect

Mr Bowes’ file has spread rapidly across the net.

On the Pirate Bay, the world’s biggest file-sharing website, the list was being distributed and downloaded by thousands of users.

One user said that the list showed “why people need to read the privacy agreements and everything they click through”.

In a statement to BBC News, Facebook confirmed that the information in the list was already freely available online.

“No private data is available or has been compromised,” the statement added.

That view is shared by Mr Bowes, who added that harvesting this data highlighted the possible risks users put themselves in.

“I am of the belief that, if I can do something then there are about 1,000 bad guys that can do it too.

“For that reason, I believe in open disclosure of issues like this, especially when there’s minimal potential for anybody to get hurt.

“Since this is already public information, I see very little harm in disclosing it.”

Digital trends

However, he said, it also highlighted a new trend that was emerging in the digital age.

“With traditional paper media, it wasn’t possible to compile 170 million records in a searchable format and distribute it, but now we can,” he said.

“Having the name of one person means nothing, and having the name of a hundred people means nothing; it isn’t statistically significant.

“But when you start scaling to 170 million, statistical data emerges that we have never seen in the past.”

A spokesperson for Facebook said the list was “similar to the white pages of the phone book.

“This is the information available to enable people to find each other, which is the reason people join Facebook.”

“If someone does not want to be found, we also offer a number of controls to enable people not to appear in search on Facebook, in search engines, or share any information with applications.”

Earlier this year there was a storm of protest from users of the site over the complexity of Facebook’s privacy settings. As a result, the site rolled out simplified privacy controls.

Facebook has a default setting for privacy that makes some user information publicly available. People have to make a conscious choice to opt-out of the defaults.

Articoli Correlati

La sicurezza della rete in mano a sette persone

Da un comunicato dell’ICANN:

Se un giorno la rete fosse messa a repentaglio da un qualche disastro, sette persone avranno l’autorità e la possibilità di ripristinarne il funzionamento ritrovandosi e ricomponendo la chiave ultima di sicurezza per l’indirizzario fondamentale su cui l’intera rete si regge.
I nomi sono i seguenti:

* Paul Kane, Regno Unito
* Bevil Wooding, Trinidad e Tobago
* Norm Ritchie, Canada
* Moussa Guebre, Burkina Faso
* Jiankang Yao, Cina
* Ondrej Sury, Repubblica Ceca
* Dan Kaminsky, Stati Uniti d’America, già noto per precedenti scoperte relative alle vulnerabilità del sistema DNS

Sono i sette “Trusted Community Representatives” che avranno la responsabilità di custodire differenti porzioni del codice “Recovery Key” utilizzato pe rl’autenticazione nella Root Zone.
In caso di disastro i sette si ritroveranno negli Stati Uniti in una località segreta ed avranno il compito di autorizzare il riavvio dei server per il ripristino della situazione.

Sviluppato in collaborazione con l’azienda specialista del settore VeriSign e il Dipartimento Usa del Commercio, il sistema “Domain Name System Security Extensions” (DNSSEC) assegna un codice segreto e specifico per ogni indirizzo internet, consentendo ai siti di essere subito identificati in modo da assicurare la loro legittimità.
Impedisce, inoltre, l’esistenza di siti simili a quelli già esistenti che spingono gli utenti a scaricare virus o a rendere noti i propri dati personali.
Tutto si basa sull’adozione di questo nuovo Protocollo che consente di controllare l’affidabilità delle informazioni fornite dai sistemi DNS segnalando eventuali intromissioni e movimenti sospetti. Nel caso di un maxi attacco cibernetico, il sistema lancia un allarme, cui potrebbe seguire un blackout totale provocato dall’esterno, oppure una interruzione momentanea decisa a tavolino per evitare danni peggiori.
A margine della presentazione di questo nuovo Protocollo nella conferenza sulla sicurezza che si è tenuta a Las Vegas, Rod Beckstrom, direttore dell’ICANN, ha dichiarato che si tratta di “rivoluzione storica” visto che va a migliorare l’uso del computer e della navigazione internet.
L’esperto di sicurezza Dan Kaminsky ha anche illustrato altre particolarità del sistema, specie quelle per proteggere da attacchi di phishing.
I motori di ricerca come Google, per esempio, potrebbero essere in grado di garantire che la pagina di identificazione di una banca online sia davvero autentica o solo un falso.
Dan Kaminsky ha commentato che quanto un cliente riceve una Mail da una banca deve essere sicuro che si tratti di una comunicazione reale e non di una trappola montata ad arte da criminali informatici.
Il protocollo sviluppato dall’ICANN “è uno strumento utile e necessario” per assicurare che anche truffe del genere non accadano più.

Per maggiori informazioni, visitare il sito dell’ICANN

Articoli Correlati

Linee guida per i siti web della pubblica amministrazione

Direttamente dal sito innovazionepa.gov.it:

Online le Linee guida per i siti web delle pubbliche amministrazioni. Il loro obiettivo è quello di suggerire criteri e strumenti utili alla razionalizzazione dei contenuti online, riducendo al tempo stesso il numero dei siti web pubblici ormai obsoleti. Tra gli obiettivi di una PA di qualità vi è infatti anche l’esigenza di fornire tramite web informazioni corrette, puntuali e sempre aggiornate nonché di erogare servizi sempre più fruibili a cittadini e imprese.

Il documento da un lato illustra i principi criteri generali per accompagnare le pubbliche amministrazioni nell’attuazione degli indirizzi contenuti nella Direttiva Brunetta n. 8 del 2009 (descrivendo gli interventi da realizzare ai fini del miglioramento della qualità del web), dall’altro definisce le modalità e i passi necessari per l’iscrizione al dominio “.gov.it” (che garantisce la natura pubblica dell’informazione e l’appartenenza di un sito a una pubblica amministrazione). Vengono altresì affrontati possibili percorsi operativi e le relative azioni che una pubblica amministrazione può intraprendere nel caso in cui gli interventi da porre in essere riguardino, ad esempio, la riduzione dei siti web e la razionalizzazione dei contenuti online. Una particolare attenzione è stata prestata nella definizione di una mappa di contenuti minimi che per legge i siti web istituzionali devono includere, di fatto semplificando il rispetto dei diversi adempimenti vigenti. Oltre a un inquadramento generale sui criteri e sugli strumenti per il trattamento dei dati e della documentazione pubblica, le Linee guida forniscono i principi generali per le pubbliche amministrazioni che vorranno confrontarsi su temi innovativi quali la customer satisfaction, le rilevazioni di qualità attraverso il benchmark tra amministrazioni, il confronto e l’interazione dei cittadini. Completano il documento una serie di approfondite appendici tecniche.

Le Linee guida per i siti web delle PA si collocano a pieno titolo nell’ambito delle iniziative di innovazione delle amministrazioni pubbliche promosse dal Ministro Renato Brunetta per realizzare un rapporto aperto e trasparente con i propri clienti e avviano, per la prima volta in Italia, un processo di “miglioramento continuo” della qualità dei siti web pubblici. Coerentemente con il dettato stessa della Direttiva Brunetta n. 8/2009, saranno aggiornate con cadenza almeno annuale e corredate da vademecum di approfondimento. In questo modo forniranno con continuità alle pubbliche amministrazioni i criteri guida sulle modalità di razionalizzazione, dismissione, gestione, sviluppo e diffusione dei loro siti web, tenendo anche conto degli avanzamenti e dei progressi tecnico-normativi in materia.

Il documento, elaborato in via preliminare da un gruppo di lavoro interno (composto da esperti del Dipartimento della Funzione Pubblica, del Dipartimento Digitalizzazione e Innovazione tecnologica, di DigitPA e di FormezPA) è stato successivamente pubblicato online nell’aprile di quest’anno per una consultazione telematica durata due mesi e che ha registrato circa 17.000 accessi alle diverse sezioni del forum di discussione. I cittadini, le pubbliche amministrazioni, le associazioni di categoria e i fornitori ICT hanno così potuto esprimere liberamente la loro opinione sui principali contenuti e temi trattati. I riscontri e le indicazioni pervenuti durante questa fase di condivisione e confronto sono stati poi utilizzati in sede di revisione del documento iniziale.

Qui le linee guida.

Articoli Correlati

Evento ISH

Un evento interessante che merita la giusta pubblicità.

Da forumhealthcare.it.

Nel comparto sanitario le piattaforme tecnologiche, le reti e le infrastrutture, i processi e i servizi sono in continua evoluzione grazie all’innovazione in grado di permeare sempre più rapidamente i modelli organizzativi. La diffusione delle tecnologie informatiche costituisce una naturale leva di trasformazione e miglioramento per la realizzazione di un modello di sanità omogeneo, di forte qualità e sostenibile sotto il profilo economico e organizzativo. All’impiego diffuso delle nuove tecnologie corrisponde però un incremento di rischi e minacce connessi alla stessa gestione telematica dei flussi di dati in un ambito complesso quale quello sanitario: l’immaterialità delle informazioni, la facilità con cui possono essere consultate, duplicate, modificate o addirittura distrutte crea situazioni in cui, nonostante le misure di protezione, si apre una serie di nuovi interrogativi etici e giuridici.

In questo contesto nasce il convegno ISH che, grazie alla costituzione di un Comitato Consultivo che vede riuniti i principali opinion leader del settore di riferimento, si propone di favorire l’incontro fra le diverse realtà che ne compongono il tessuto, instaurando quel collegamento indispensabile tra i più importanti player del mercato e gli operatori sanitari. Il focus specifico verso le tecnologie, l’informatica e l’innovazione nel mondo sanitario italiano, fa del convegno ISH un appuntamento imperdibile per chi, operando in un settore che attraversa un periodo di fortissima evoluzione e trasformazione, deve essere continuamente informato e documentato sulle nuove opportunità offerte dal mercato.

I destinatari del progetto sono: Operatori sanitari dei Sistemi Informativi, Direzione del Personale, Organizzazione, Ufficio Legale, Security Manager, Direzione Sanitaria, Aziende produttrici di hardware e software, Consulenti.

La mostra convegno si terrà in data 30 novembre 2010 all’AtaHotel di Villa Pamphili

Il comitato scientifico sarà composto da:

Piero Giovanni Caporale – Sicurezza Organizzativa e Gestionale Settore ICT – CNIPA, Isabella Corradini – Centro Themis Crime, Mauro Cosmi – Value Team S.p.A, Fabio Di Resta – Consulente legale privacy e ISO 27001 ICT Security Auditor, ricopre l’incarico di consulente legale presso multinazionali del settore ICT e bancario, Elena Ferrari – Docente del Dipartimento di Informatica e Comunicazione dell’Università dell’Insubria, Luisa Franchina – Direttore Generale del Nucleo Operativo NBCR, Dipartimento Protezione Civile, Presidenza del Consiglio dei Ministri, Pierfrancesco Ghedini – Direttore Dipartimento Tecnologie dell’Informazione e Biomediche – Azienda USL di Modena – in qualità di  AISIS (Associazione Italiana Sistemi Informativi in Sanità),Andrea Lisi – Professore a contratto di Informatica Giuridica – Scuola Professioni Legali, Facoltà Giurisprudenza – Università del Salento, Presidente di ANORC (Associazione NazionaleOperatori e Responsabili della Conservazione Sostitutiva), Coordinatore del Digital&Law Department Studio Legale Lisi, Studio Associato D&L – Business&Legal Consultancy, ICT &International Trade, Executive Management SCiNT – Study&Research Centre, Giovanni Manca – Responsabile Sicurezza DigitPA (ex CNIPA), Baldo Meo – Responsabile Comunicazione  Garante per la protezione dei dati personali, Elio Molteni – Presidente AIPSI, ISSA Italian Chapter, Alessandro Musumeci – Direttore Centrale Sistemi Informativi (DCSI), Ferrovie dello Stato, Massimo F. Penco – Presidente Associazione Cittadini di Internet, Membro del Antiphishing Working Group, Vice presidente Gruppo Comodo, Andrea Rigoni – Senior Advisor presso Booz & Company, Giuseppe Russo – Chief Technology Officer, Sun Microsystems Italia, Roberto Setola – Docente e Direttore del Laboratorio Sistemi Complessi e Sicurezza – Università CAMPUS Bio-Medico di Roma, Domenico Vulpiani – Dirigente Generale Polizia di Stato – Consigliere Ministeriale.

Articoli Correlati

Progetto R@DHOME: Sperimentazione in Piemonte

Il progetto sperimentale di radiologia domiciliare della Regione Piemonte si estende nel Parco Nazionale del Gran Paradiso, sul territorio delle Valli Orco e Soana, dove la Regione Piemonte ha realizzato una rete a banda larga senza cavi per ridurre il cosiddetto “divario digitale”

Obiettivo: garantire assistenza radiologica a domicilio a persone anziane, disabili o comunque in condizioni tali per cui il trasporto in Ospedale sarebbe difficoltoso sia per i pazienti che per gli operatori.

Dallo scorso marzo, ogni quindici giorni, all’interno della Casa di Riposo Vernetti di Locana è attivo un ambulatorio di radiologia, costituito da una stazione operativa mobile su vettura Fiat Doblò.

l termine della sperimentazione sarà possibile quantificare, da un lato, il risparmio ottenibile sui costi a carico del SSN e dall’altro di valutare i vantaggi sociali e umani che traggono i pazienti e le loro famiglie.

Per maggiori dettagli sul progetto e le tecnologie impiegate si consiglia di visitarne il sito.

Articoli Correlati

La distribuzione più insicura del pianeta? Ovviamente una distribuzione linux!!!

Da Tuxjournal.

Quando si installa sul proprio PC l’ultima distribuzione uscita sul mercato ci si aspetta che pacchetti aggiornati, dunque sicura e lontana da possibili bug che potrebbero comprometterne il corretto utilizzo. Damn Vulnerable Linux (DVL) segue invece la filosofia opposta: offrire agli utenti/studenti una distribuzione più buggata che mai, con software non proprio aggiornato, “exploitabile” e mal configurato.

La distribuzione, sviluppata da un professore universitario di informatica tedesco, è nata essenzialmente per far capire agli studenti dei corsi di sicurezza del software come rendere sicuro un software oppure trattare temi delicati come il code engineering, i buffer overflow, sviluppo di shellcode, SQL injection e chi più ne ha, più ne metta. Disponibile come live CD grazie ad una ISO da ben 1.8GB, tra la dotazione software segnaliamo Apache, MySQL, PHP, FTP, SSH (ovviamente pieni di bug e configurazioni “da urlo”) e molti altri strumenti come GCC, GDB, NASM, strace, ELF Shell, DDD, LDasm, LIDa, etc. Tutti gli interessati possono scaricare la ISO da questo indirizzo.

Articoli Correlati