Caso Yahoo video la Corte di Appello di Milano non vede responsabilita nell’operato dell’internet provider

La Corte di Appello di Milano con questa sentenza n. 29 del 7 gennaio 2015 dice la sua su un argomento noto e delicato come la responsabilità dell’Internet Provider in merito ai contenuti presenti in Rete. In particolare la controversia coinvolge RETI TELEVISIVE
ITALIANE s.p.a. (RTI) nei confronti di YAHOO! ITALIA s.r.l. e YAHOO!INC. ed ha per oggetto uno specifico servizio di YAHOO! IT. (denominato YAHOO! VIDEO) che ai tempi della controversia erogava attraverso i suoi siti un servizio di pubblica fruizione di video, mediante il quale i singoli utenti potevano caricare, sulle piattaforme messe a disposizione dal gestore, contenuti video da condividere con altri utenti di Internet, i quali, dunque, senza alcuna preventiva registrazione, potevano accedere e visionare gratuitamente i video, potendo altresì procedere a un commento degli stessi attraverso l’inserzione di un messaggio a mezzo di appositi spazi. RTI, titolare dei diritti di sfruttamento economico di molti programmi televisivi inseriti illecitamente da terzi sulla rete telematica gestita da YAHOO! IT. chiama in giudizio il provider contestando un ingiustificato comportamento omissivo circa la rimozione dei programmi oggetto di contestazione con conseguente sviluppo di un’accesa vertenza giudiziaria che probabilmente non cesserà con questa pronuncia della Corte di Appello di Milano. In verità il giudice di 2° grado riformando, a favore dell’Internet Provider, la sentenza n. 10893/2011 del Tribunale di Milano si allontana molto da quel delicato assetto di equilibrio e di bilanciamento che, ormai, si stava delineando in materia sia in dottrina
che in giurisprudenza, e che in verità in toto aveva recepito il giudice di prime cure. La stessa Corte di Giustizia con recenti sentenze sta ormai assumendo una posizione di maggior rigore nei confronti degli Internet Provider che mal si concilia con questa decisione della Corte di Appello.

Il trattamento dei dati personali nel codice delle comunicazioni elettroniche

Il Capo I del Titolo X rubricato “Comunicazioni elettroniche” del Codice in materia di protezione dei dati personali adottato con D.Lgs. 30 giugno 2003, n.196 (d’ora in avanti anche Codice della privacy) è dedicato alla regolamentazione dei servizi di comunicazione
elettronica. La normativa da attuazione alla Direttiva 2002/58/CE relativa al trattamento dei dati personali e alla tutela della vita privata nel settore delle comunicazioni elettroniche sostitutiva della Direttiva n.1997/66/CE recepita dal legislatore italiano con il D.Lgs. n.171 del 13
maggio 1998, recante disposizioni in materia di tutela della vita privata nel settore delle telecomunicazioni ed in tema di attività giornalistica. La normativa succitata, revisionata con le Direttive 2009/136/CE1 e 2009/140/CE2, si pone come obiettivo la definizione di un quadro regolamentare in grado di garantire un efficace ed omogeneo livello di protezione dei dati personali, rafforzando, da un lato, il
sistema delle sanzioni a carico dei fornitori delle reti e dei servizi di comunicazione elettronica, e dall’altro, prevedendo un sistema europeo di notifica delle violazioni dedicato al settore delle comunicazioni elettroniche. La normativa si innesta e si adatta, con riferimento alle comunicazioni elettroniche, al più volte richiamato principio di convergenza che, come noto, ha portato ad una progressiva integrazione tra i mercati delle comunicazioni digitali rispetto ai quali il contenuto veicolato è indifferente e ad una conseguente commistione di regole che ha alimentato l’esigenza di una regolamentazione comune ai diversi mezzi, uniforme e non discriminante.

Wireless: problemi tecnici e giuridici

Il termine wireless (dall’inglese senza fili) indica i sistemi di comunicazione fra dispositivi elettronici che non fanno uso di cavi, al contrario dei sistemi tradizionali basati su connessioni cablate. Per wireless local area network (Wlan), si intende una “rete locale senza fili”, cioè tutte le reti locali di computer che non utilizzano dei collegamenti via cavo per connettere fra loro gli hosts della rete. Le onde radio vengono utilizzate dalle reti tipo Wi-Fi, reti che devono coprire ambienti eterogenei dove le diverse postazioni da collegare non sono necessariamente visibili. Wi-Fi, abbreviazione di Wireless Fidelity, è il nome commerciale delle reti locali senza fili (Wlan) basate sulle specifiche Ieee 802.11, infrastrutture relativamente economiche e di veloce attivazione, che permettono di realizzare sistemi flessibili per la trasmissione di dati usando frequenze radio, estendendo o collegando reti esistenti ovvero creandone di nuove. Nel 2001 venne ratificato il protocollo 802.11a, approvato nel 1999. Questo standard utilizza lo spazio di frequenze nell’intorno dei 5 Ghz e opera con una velocitàmassima di 54 Mbit/s sebbene nella realtà la velocità reale disponibile all’utente sia di circa 20 Mbit/s. La velocità massima può essere ridotta a 48, 36, 34, 18, 9 o 6 se le interferenze  elettromagnetiche lo impongono. Quasi ogni Stato ha emanato una direttiva diversa per regolare le frequenze ma, dopo la conferenza mondiale per la radiocomunicazione del 2003, l’autorità federale americana ha deciso di rendere libere le frequenze utilizzate dallo standard 802.11a. Quest’ultimo, però, non ha riscosso i favori del pubblico, così come è accaduto, invece, per lo standard l’802.11b, che si era già molto diffuso (e in molti paesi l’uso delle frequenze a 5 Ghz è tuttora riservato). Prima della ratifica ufficiale dello standard, avvenuta nell’estate del 2003, vi erano dei produttori indipendenti che fornivano delle apparecchiature basate sulle specifiche non definitive dello standard. Nel giugno del 2003 venne  atificato lo standard 802.11g, che utilizza le stesse frequenze di quello 802.11b e fornisce una banda teorica di 54 Mbit/s. Nel gennaio 2004 lo Ieee avviò lo studio di un nuovo standard per realizzare reti wireless di dimensioni metropolitane. La velocità reale di questo standard dovrebbe essere di 100 Mbit/s (quella fisica dovrebbe essere prossima a 250 Mbit/s), quindi, dovrebbe essere cinque volte più rapido del protocollo 802.11g e ben quaranta volte più rapido dell’802.11b. Ma nonostante la varietà di standard il vero problema delle reti wireless, estremamente convenienti per i bassissimi costi della tecnologia, rimane la sicurezza. Le versioni originali dei protocolli 802.11 erano basati sulla crittografia Wep (Wired Equivalent Privacy). Nel 2001 un gruppo di ricercatori dell’università di Berkeley presentò un lavoro che evidenziò le falle di sicurezza del   protocollo 802.11. Sia lo Ieee sia la Wi-Fi Alliance si misero al lavoro per progettare un’evoluzione dello standard di sicurezza Wep. Quest’ultima annunciò nel 2003 la realizzazione del Wpa (Wi-Fi Protected Access), che rimuoveva la maggior parte dei problemi di sicurezza rendendo le reti wireless discretamente sicure. Nel 2004 vennero rilasciate dallo Ieee le specifiche dello standard 802.11i, che rendeva le reti wireless molto sicure e la Wi-Fi Alliance lo adottò subito con il nome di Wpa2. In effetti, il sistema di protezione Wep, acronimo di Wired Equivalent Privacy non è infallibile. Esso utilizza l’algoritmo RC4 in modalità sincrona. Si basa su un sistema a crittazione con due chiavi, una pubblica (chiamata initialization Vector, di 24 bit) e una privata, inizialmente codificata con una lunghezza di 40 bit, successivamente aumentati a 128 bit quando la legge americana sull’esportazione di tecniche crittografiche lo ha permesso. La lunghezza di soli 24 bit dell’Initialization Vector permette la creazione di un numero relativamente limitato di codici di crittazione, che fra l’altro non devono nemmeno cambiare ad ogni trasmissione, secondo lo standard: monitorando, quindi ,per un certo tempo una rete wireless è possibile creare una tabella contenente tutte le possibili chiavi di decrittazione, utilizzandole quindi per intercettare i dati e inserirsi nella rete. Con il diffondersi dei collegamenti via cavo o via ADSL si è avuto un notevole incremento degli utenti che realizzano piccole reti locali per condividere il collegamento a Internet; molte di queste sono wireless. D’altronde le reti wireless rappresentano, ormai, una importante forma di connessione: il mercato per i dispositivi wireless è stimato in forte crescita, come il relativo giro d’affari, che è passato da 300 milioni di dollari nel 1998 a oltre 2 miliardi nel 2006. Data la scarsa competenza (in media) dei realizzatori di queste reti “casalinghe” capita spesso che le Wlan non usino alcuna crittografia, al massimo Wep. Queste reti  naturalmente sono insicure e possono essere forzate con semplicità, permettendo l’intercettazione del traffico wireless e l’accesso abusivo alla rete, che, fra l’altro, non permette di rintracciare a posteriori gli autori di comportamenti pericolosi o illegali. Si è diffusa nell’underground informatico l’abitudine di segnalare la presenza di reti wireless non sicure o addirittura senza nessuna forma di protezione. È stato creato un linguaggio convenzionale per identificare le reti wireless accessibili mediante simboli grafici disegnati sui muri. La stessa pratica di cercare reti wireless vulnerabili è detta wardriving, mentre quella di segnalarle con segnimurali è detta warchalking. Purtroppo la rete wireless non potràmai essere sicura al 100%, ma molto si può fare autenticando gli indirizzi hardware (Mac Address) dei Nic o configurando apposite regole sui firewall. Alternativamente, si può instradare sulla rete wireless un canale VPN (Virtual Private Network) cifrato, ottenendo un livello di sicurezza sicuramente paragonabile a quello di una rete cablata, anche se purtroppo in questo modo si perderà qualcosa in termini di efficienza e prestazioni. Il problema è che, ormai, in aree commerciali molto frequentate, come aeroporti, stazioni ferroviarie o alberghi, è possibile trovare servizi commerciali di connettività wireless (HotSpots), che, però, normalmente identificano i loro utenti. Inoltre, proprio di recente, grazie all’intesa raggiunta dagli ex Ministri della Difesa Arturo Parisi e delle Comunicazioni Paolo Gentiloni per l’avvio in Italia delle nuove tecnologie di telecomunicazioni wireless (Wi-Max) è stata avviata e conclusa la gara per l’assegnazione dei relativi diritti d’uso. Wi-Max è acronimo di Worldwide Interoperability for Microwave Access ed è un sistema basato sullo standard IEEE 802.16. Tale tecnologia ha la possibilità, al pari di altre tecnologie wireless, di essere utilizzata su molti tipi di territorio (si possono utilizzare sistemi Wi-Max in ambienti dall’urbano al rurale). A seconda della normativa del paese di riferimento, le frequenze usate da Wi-Max potrebbero essere soggette a concessione in licenza (cioè assegnate in uso esclusivo dalle istituzioni governative preposte a enti e aziende, solitamente dietro compenso, oppure, trovarsi su bande “non licenziate” (cioè essere frequenze per il cui utilizzo non è necessaria licenza, ma possono essere necessarie autorizzazioni). Lo svolgimento della gara per l’assegnazione dei 35 diritti d’uso delle frequenze “Wi-Max” nella banda 3.4-3.6 GHz (banda 3.5 GHz), ha reso necessarie 9 giornate di rilanci, articolate in 48 tornate, con un incasso finale pari a € 136.337.000,00 (+ 176% sulla base d’asta), il più elevato fra le gareWi-Max sin’ora svolte nell’Unione Europea. In base alla procedura stabilita dal Ministero delle Comunicazioni sono stati rilasciati 3 diritti d’uso complessivi delle frequenze disponibili nella banda 3.4 – 3.6 GHz, indicati come Blocco A, Blocco B e Blocco C, ciascuno di ampiezza  requenziale pari a 2×21 MHz. Di tali diritti d’uso, 2 (Blocco A e Blocco B) sono stati rilasciati per aree di estensione geografica macroregionale, per 7 Macroregioni, mentre 1 diritto d’uso (Blocco C) è stato rilasciato a livello regionale (con suddivisione provinciale nel caso delle Province Autonome di Trento e Bolzano) per 21 regioni. Le aggiudicazioni dei diritti d’uso, suddivise per aree di estensione geografica macro regionali e regionali, sono state le seguenti: tra gli 11 vincitori, quattro operatori sono di grandi dimensioni (Ariadsl, AFT Linkem, E-Via Group Retelit e Telecom Italia) e sette più piccoli. Le frequenze Wi-Max in Sicilia portano il nome di Temix, MediaNET e Gruppo Franza, la cordata regionale che, insieme a Ariadsl e AFT, è uscita vincitrice dall’asta indetta dal Ministero delle Telecomunicazioni. Regina della gara per la banda larga senza fili è stata Ariadsl, vittoriosa nelle macroregioni dell’area due (Valle d’Aosta-Piemonte-Liguria-Toscana), area quattro (Umbria, Lazio, Abruzzo, Molise) e in Sicilia. eVia (gruppo Retelit) si è aggiudicata l’area due, e Telecom l’area quattro. AFT Linkem e a Tourist Ferry Boat, oltre ad Ariadsl, hanno espugnato la Sicilia. Le licenze sarde vanno a Telecom, Ariadsl e AFT Linkem. Le licenze dureranno 15 anni, rinnovabili, ma non saranno cedibili; due licenze avranno diritti d’uso su sette macroregioni (Lombardia e Pr. Autonome di Trento e Bolzano; Valle d’Aosta, Piemonte, Liguria e Toscana; Friuli, Veneto, Emilia Romagna e Marche; Umbria, Lazio, Abruzzi e Molise; Campania, Puglia, Basilicata e Calabria; Sicilia; Sardegna), mentre la terza licenza, per chi non detiene quella Umts, è su base regionale; le 3 licenze delle frequenze disponibili nella banda 3.4-3.6 Ghz avranno a disposizione archi di frequenza di 2×21 MHz; non c’è l’obbligo di wholesale, ma il ministero punterebbe su intese tra operatori; i gestori dovranno completare l’uso delle frequenze entro 30 mesi dall’assegnazione e in caso contrario dovranno metterle a disposizione di terze parti.

Inquadramento ed analisi delle problematiche giuridiche relative al cloud computing

Come è noto il cloud computing è un sistema di implementazione di risorse basato su “nuvole” di computer realizzate e gestite da grossi providers, in grado di fornire ai clients finali servizi di storage e processoring. Il cloud computing rappresenta per le sue caratteristiche la soluzione del  momento per molte aziende grandi e piccole, che hanno bisogno ciclicamente di notevoli risorse e che non sono in grado di sostenerne gli ingenti costi. In effetti l’importanza strategica del “cloud computing” risiede nel fatto che la sua diffusione su larga scala consentirebbe il superamento dell’assetto attuale, caratterizzato da una miriade di clients remoti, dotati di una propria autonoma postazione o di propri server “in house” (si pensi alle aziende e alla mole di dati che si trovano a gestire), in favore di un regime di “Software as a Service” (o “Storage as a Service”), consistente nel servirsi di software e hard disk messi a disposizione dai gestori delle nuvole e accessibili tramite browser web. Non più programmi da far girare né dati da archiviare su singoli pc, ma grossi sistemi integrati, indefiniti, di server e processori, dai quali attingere capacità di memoria e di processo a seconda delle proprie esigenze. Tale sistema si concreta nell’esternalizzazione dei servizi IT dai clients finali ai provider di nuvole. In tal modo, quindi, le aziende smetterebbero di gestire al proprio interno dati e applicazioni, delegando tale servizio in outsourcing, con grosso risparmio sulla gestione del personale e delle strutture fisiche IT. È evidente, quindi, che il modello Software as a Service è alla base del cloud computing. Con esso si intende qualificare una nuova concezione del software, svincolato dalla sua fisicità di asset e orientato a soddisfare le esigenze degli utilizzatori. Il modello in questione succede nel tempo a quello ASP (Application Service Provider), con il quale coincide nella ratio, cioè l’esternalizzazione delle esigenze informatiche, con risparmio sui costi di licenze d’uso dei software, manutenzione delle strutture informatiche in house e formazione del know- how informatico aziendale, ma se ne differenzia perché SaaS, a differenza di ASP, consente a ciascun cliente di godere di uno spazio virtuale separato da quello degli altri,mentre in ASP tale spazio era in comune. Tra gli esempi di Cloud Computing più  rilevanti si annoverano Google che è l’oracolo più importante del modello che stiamo trattando. Azienda pioniera nel campo dei servizi Web Based, la tigre di Mountain View non smette mai di stupire per prolificità, rapidità e qualità di innovazione e, molte volte, per criticità tecniche e legali. Il search engine che ne porta il marchio e il nome è stato ed è l’esempio più fulgido di come Google intenda il web: semplicità di navigazione, velocità e precisione. Senza costi per gli utenti, che vengono invece scaricati sul merchandising. La vasta piattaforma di servizi offerti dall’azienda in questione è supportata da una infrastruttura informatica poderosa chiamata MapReduce, costituita da uno strato di software sul quale vengono fatti girare migliaia di programmi, tra cui i notissimi Google Earth, Google Toolbar, You Tube, Print Ads. Di Yahoo! è invece la piattaforma Hadoop. Essa supporta una serie di programmi open-source come Hadoop Core, Hbase, ZooKeeper. Molto interessanti sono pure i servizi lanciati da Amazon, sia con EC2 (Elastic Comput Cloud) e S3 (Simple Storage Service), che coglie in pieno i vantaggi della scalabilità delle risorse internet, sia con progetti settoriali come Book On Demand e MP3, che stanno rivoluzionando il mercato dell’editoria e delle produzioni musicali. Per gli esperti di settore è Amazon l’azienda leader nel mercato di applicazioni cloud. Nel mercato del cloud ci sono anche Salesforce ed Ibm, rispettivamente con Force.com Development as a Service (ma non solo) e Blu Cloud.