dal 1998 ad oggi

       

Studi e Glossari

La Rete Telefonica Mobile

Dall'NMT al 5G e oltre...

Compendio tecnico riassuntivo della storia  della comunicazione radio-mobile. Un "ritorno al futuro" sui concetti di base che hanno portato alla comunicazione mobile globale e agli sviluppi futuri. [argomento che potrà subire integrazioni e aggiornamenti]

Sommario del capitolo

 

 

I sistemi radio-mobili

 

 

1G (the first generation)

2G (the second generation)

ETSI (l'organo di controllo primario)

3G (the third generation)

4G (the fourth generation)

5G (the fifth generation)

I sistemi radio-mobili, la salute umana e animale

 

La radiofrequenza

Possibili effetti su uomo e animale

 

Il passo successivo

 

6G (the sixth generation) Global Connection

   
     

 

I sistemi radio-mobili

1G (the first generation)          torna su

Nel 1982 fu introdotto nel nostro paese, il primo sistema di comunicazione radiomobile, e che oggi si potrebbe definire 1G, perché la terminologia nG è stata introdotta solo con la terza generazione 3G, ed è entrata nel lessico comune. L'1G si chiamava "Nordisk Mobil Telefoni" (NMT) e aveva questo chiaro riferimento ai paesi del nord in cui era stato sviluppato e testato fin dagli anni settanta. Il suo studio e la sua realizzazione sono dovuti alla necessità di creare un sistema ben più pratico e affidabile di quello precedente (che volgarmente potremmo chiamare 0G - zeroG) delle reti di comunicazione ARP (Address Resolution Protocol) e/o MDT (Master Digital Trasformation), e/o anche quello più evoluto - per il proprio periodo - TACS (Total Access Communication System) che si basavano su concetti prettamente analogici. TACS derivava a suo volta dal protocollo statunitense AMPS (Advanced Mobile Phone System, che subì nel giro di poco una miglioria in termini di ampiezza della banda disponibile, ovvero comprese fra 450 e 900 Mhz, e prese il nome di E-TACS (EnHanced Total Access Communication System). Questi sistemi erano impiegati solo per telefonia di tipo business, e a partire dal 1993 il mercato si espanse ai privati. E-TACS rimase ancora in uso fino al 1995/1996, mentre il GSM si stava ritagliando spazio fino a mandarlo in pensione. E-TACS aveva la capacità di essere l'unico vero sistema di comunicazione non clonabile!

La NMT è quindi l'unica e vera prima rete telefonica radiomobile o "cellulare" a commutazione automatica, cioè non richiedeva l'impiego di operatori per eseguire la connessione come accadeva invece nelle prime reti di comunicazione cablate.

I telefoni erano di dimensioni abnormi e dotati di un "valigiotto" da installare sul veicolo, o da potersi portare appresso: inutile dire la scomodità legata all'ingombro, al peso, e a quella che venne chiamata "la canna da pesca" ovvero l'antenna a sfilo per captare il radio-segnale.

 

2G (the second generation)          torna su

Circa 10 anni dopo, nel 1991/92, fu sviluppato un upgrade dei precedenti sistemi, ritenuti obsoleti ed inefficaci, vista anche l'aumento della richiesta di dispositivi mobili più accessibili e confortevoli.

Il 2G prende piede (relativamente ai canoni dell'epoca) e si inizia a parlare di standard GSM (Global System for Mobile telecommunications). I canali trasmissivi adottano tecnologia digitale e non più analogica permettendo anche il primo approccio alla trasmissione di informazioni (dati) oltre alla semplice fonia (suono). Un esempio dell'invio di dati è caratterizzato dal protocollo SMS (Short Message System), che permise lo scambio tra utenti di messaggi alfanumerici, con una lunghezza massima di 160 caratteri. Sistema che ha avuto il picco massimo del suo utilizzo quando gli operatori telefonici hanno iniziato a non farli pagare singolarmente e sono stati migliorati nel corso degli anni e poi surclassati da nuove applicazioni (che vedremo in seguito).

Successivamente il GSM ha subito degli upgrade, ma sempre all'interno del 2G (una sorta di 2G+), con lo sviluppo e l'introduzione dei sistemi GPRS (General Packet Radio Service - detto anche 2,5G) e EDGE (Enhanced Data Rate for GSM evolution, detto anche 2,75G); il GPRS fu sviluppato per il trasferimento di dati ad una velocità maggiore rispetto al GSM "standard" e ne manteneva tutte le peculiarità, quindi la "rete", cioè le frequenze impiegate rimanevano le medesime; mentre EDGE oltre ad un ulteriore incremento di velocità aveva visto anche l'impiego di nuova tecnologia. Infatti lo scambio di informazioni fra due terminali in modalità EDGE prevedeva che fosse necessario la connessione tramite una Stazione Radio Base BTS.

Un esempio su vasta scala dell'uso del GPRS, lo si poté avere con l'aggiornamento delle colonnine di soccorso autostradale che furono dotate di tale tecnologia. L'utente in panne effettuava la chiamata premendo il pulsante posto sulla colonnina, la quale agganciava la BTS, che inviava la comunicazione a mezzo rete mobile al server di smistamento della chiamata per il primo operatore libero (freccia rossa), o nel caso di saturazione o congestione della rete mobile, utilizzava una classica connessione cablata (RTG - rete telefonica generale) e incanalava la chiamata verso un sistema di smistamento pbx (centralino telefonico automatico) per indirizzare ancora una volta al primo operatore libero.

Ciò siignifica che è ufficialmente iniziata l'era della "palificazione" del territorio, per consentire una più capillare ed efficace copertura delle aree interessate e permettere ad una mole maggiore di utenti di avere una connessione stabile funzionale.

L'intero territorio è stato diviso in piccole aree, dove venivano installate le "celle", ognuna della quali alloggiava un BTS. Le dimensioni di queste aree potevano variare a seconda della tipologia del territorio, e della densità di abitanti. Successivamente alla "celle base" (HLR) furono affiancate delle "celle ripetitrici" (ripetitori) che consentivano di suddividere ulteriormente le aree, in base all'incremento demografico, immobiliare e di apparati a disposizione degli utenti.

Contrariamente a quello che molti pensano le aree di copertura non hanno una vera forma circolare, ma molto più simile ad un esagono regolare.

Col GSM è anche stato introdotto lo standard di identificazione diretta dell'utente, ovvero la SIM Card (Subscriber Identification Module).
La SIM, quindi, consente un ulteriore passo tecnologico verso una più semplice modalità di acquisizione dell'apparato (telefonino) e della sua gestione, oltre a tutta una serie di nuove funzionalità e informazioni consentite proprio grazie alla SIM stessa.

Le frequenze impiegate sono in banda 900 e 1800 Mhz, specificatamente fra 876/960 e 1710/1880 Mhz.
All'interno del mondo GSM sono presenti anche protocolli, oggi obsoleti come IS-95, IS-136 (dove IS sta per Interim Standard) e PDC (Primary Domain Controller) ma che non analizzeremo in quanto riservati rispettivamente a Stati Uniti e Asia, Americhe, Giappone.

 

ETSI (l'organo di controllo primario)           torna su

E' doveroso a questo punto, prima di proseguire, che nel 1988 viene istituito l'ETSI (European Telecommunications Standards Institute), ovvero un organismo indipendente e senza fini di lucro riconosciuto da tutti gli stati del vecchio continente, quale responsabile della definizione e del controllo degli standard di trasmissione nel campo delle telecomunicazioni. Oltre a tecnici sperimentatori e medici scientifici, ne compongono il consiglio, amministrazioni, service provider, enti di ricerca nazionali, ed utilizzatori, ripartiti fra ben 55 paesi, in quanto l'organismo si è espanso anche a paesi extra-europei.

In sostanza l'ETSI ha il compito di vigilare e verificare come gli standard di comunicazione debbano rispettare diversi parametri, tra cui quelli relativi alla salute dell'individuo, stabilendone i criteri massimi di applicazione per non superare la cosiddetta "soglia del dolore" e garantire quindi l'incolumità degli esseri viventi. Lo studio di questi criteri è molto delicato e al contempo ampio, dovendo analizzare una diversa moltitudine di fattori, e per questo sempre in continuo sviluppo e aggiornamento.

 

3G (the third generation)          torna su

Attorno all'anno 2001 fu introdotto il nuovo standard definito 3G (terza generazione) e per la prima volta si iniziò a fare uso anche nel mondo comune di questa terminologia di acronimi. Contrariamente al passato e a come molti credono, questo nuovo passo non fu sviluppato in Europa, ne tanto meno negli Stati Uniti (come molti erroneamente accreditando alla Apple), ma bensì nel paese del sol levante, il Giappone.

La spettacolarità dell'avvicendamento tecnologico, fece si che in Europa, soprattutto in Italia, vi fu una smisurata corsa all'accaparramento delle licenze per l'utilizzo della banda dedicata al nuovo sistema [le frequenze non sono libere, ad eccezione di poche alcune, e debbono essere concesse in licenza dal Governo - ndr].

Inutile dire che di molti operatori che si sono avvicendati, solo i più economicamente forti hanno potuto perdurare sul mercato, e altri invece hanno creato delle joint-venture o vere e proprie fusioni per non fallire. Infatti la nuova tecnologia 3G aveva costi molto elevati dovuti anche alla necessità, oltre che alle strutture di interconnessione aziendali, di ampliare quelle territoriali.

La capillarizzazione di BTS sul territorio è altamente insufficiente: se da un lato sono aumentati il numero degli utenti e il numero degli apparecchi (anche più di uno per utente), dall'altro lato sono cambiate le frequenze e la loro applicazione. Altresì l'ETSI ha imposto nuovi parametri più sicuri per l'individuo relativamente all'irraggiamento o propagazione del segnale, andando a ridurne anche la potenza a disposizione.

Aumentando la frequenza, cala l'ampiezza di banda,  e quindi diminuisce la capacita di una singola BTS di diffondere il segnale in un dato spazio territoriale. Pertanto è stato necessario impiantare nuove BTS, e quindi risuddividere le aree del territorio. Infatti le frequenze del 3G sono comprese nella cosiddetta banda 1, cioè 2100 Mhz e in banda 8 (o secondaria) - 900 Mhz - per la connessione internet: la prima nuova sostanziale opportunità offerta dal 3G è la navigazione Internet (ci si aveva provato anche col GPRS, ma la cosa era alquanto inconsistente).

L'altra grandissima novità è la video-chiamata, ma non essendovi ancora una determinata stabilità del servizio questa non ha avuto un grande impatto sull'utenza: la chiamata si presentava sgranata e a volte a scatti.

In sostanza la voce da ora viene trasferita in modalità di pacchetto dati, e pertanto si inizia a parlare di telefonia digitale.

Il vero core-business è legato al download di contenuti, primo fra tutti la musica.

Il 3G è anche il primo protocollo di comunicazione mobile che assume specifiche di tipo globale, ovvero standardizzate per tutti i paesi del mondo, o quasi: l'ITU (o unione internazionale delle telecomunicazioni), affiancatosi all'ETSI, ne stabilisce i paradigmi nell'IMT-2000 (International Mobile Telecommunication) e lo classifica in 4 categorie.

E' così che nel mondo 3G si inizia a parlare di UMTS (W-CDMA), CDMA2000, TD-SCDMA, e Wideband CDMA:

- UMTS (Universal Mobile Telecommunications System) è basato sul protocollo a onde radio W-CDMA, e prevalentemente impiegato nei paesi di utilizzo del GSM, ed è monitorato, supervisionato e gestito da un nuovo organo che si chiama 3GPP (3rd Generation Partnership Project) - che si affianca al lavoro dei precedenti - e ne deve approvare tutte le specifiche sia al fine tecnologico sia al fine salutistico. [vedremo poi che il 3GPP si occuperà anche degli standard successivi -ndr.] L'UMTS opera sulle frequenze 850, 900, 1800 e 2100 Mhz, essendo naturale evoluzione dei precedenti sistemi. Il W-CDMA (Wideband Code Division Multiple Access) indica la tecnologia ad accesso multiplo al canale radio per reti mobili, ovvero consente l'interfacciamento del dispositivo mobile alla nuove BTS con "banda larga" (o detta anche a spettro espanso) e consente quindi una maggiore velocità di trasmissione, avendo a disposizione, per dirlo volgarmente, più porte per poter far transitare le informazioni;

- CDMA2000 è l'evoluzione del CDMA IS-95 del 2G, ed è stato particolarmente sviluppato ad uso commerciale nelle Americhe, Giappone e Corea, mentre in paesi come l'Italia, era utilizzato più per forma di sperimentazione e/o back-up in caso di caduta del sistema principale, ma effettivamente senza trovarne reale impiego. Il vero impiego di questo protocollo è legato alla comunicazione fra satellite GPS (Geo Positioning System) e cellulare, quindi fu l'archetipo del primo posizionamento degli apparecchi mobili sul territorio, da cui furono sviluppate le applicazioni (app) per la cartografia veicolare in tempo reale e/o la localizzazione di veicoli come quelli delle flotte aziendali (camion, taxi, ecc...);

- TD-SCDMA (Time Division Synchronous Code Diivision Multiple Access) è il meno noto e applicato a livello globale, ma indubbiamente il più utilizzato per rapporto territorio/utente essendo sviluppato in Cina per il proprio mercato mobile e ed è funzionante solo nella detta Cina. La sua peculiarità primaria era la capacita di andare in back-up in caso di caduta di linea sul vecchio 2G (ed erano detti Legacy). Seppur ancora funzionante è stato sostituito con l'avvento del 4G (che poi vedremo) e pertanto è inutile approfondirne ulteriori caratteristiche;

- Wideband CDMA (Wideband Code Division Multiple Access) come già visto è il protocollo dedicato all'UMTS, ma va trattato singolarmente, in quanto l'UMTS ha poi subito ulteriori evoluzioni tecnologiche, mentre il Wideband Code Division Multiple Access, è rimasto impiegato nelle connessioni punto-punto di tipo privato come WAN (Wide Area Network - rete che si estende su grande distanza geografica, acneh di tipo privato) e LAN (Local Area Network - rete locale privata, come quelle all'interno di una azienda, sia di tipo cablato, si di tipo wireless), ovvero connessioni tra il dispositivo mobile e la propria rete utilizzando un canale di telecomunicazioni esterno, e non la connessione wi-fi (che nei telefoni dell'epoca era agli albori). In sostanza consentiva una connessione sicura (per gli standard del periodo) e molto performante con velocità comprese fra un minimo di di 384 Kbit/s (kilobitspersecondo) e i 2 Mbit/s (megabitspersecondo).

L'ultima evoluzione del 3G-UMTS e precorritrice del 4G ha avuto il suo sfogo nel 3.5G, dove si è potuto apprezzare un seppur minimo, aumento della velocità di connessione e trasferimento di dati. Il protocollo impiegato era l'HSDPA (High Speed Downlink Packet Access), detto anche HSPA, che poteva in effetti raggiungere la ragguardevole velocità di 42,2 Mbit/s (megabitspersecondo), partendo da un minimo (ma non garantito) di 5,75 Mbit/s.

Si tentò anche con l'HSUPA (High Speed Uplink Packet Access), che consentiva di aumentare anche la velocità di invio di dati fino a 5,75 Mbit/s.

Questi furono gli ultimi passaggi che portarono all'evoluzione dello standard LTE per il 4G.

 

4G (the fourth generation)          torna su

Nel 2001 sono iniziati anche gli studi di ricerca e sviluppo per l'erede del 3G, ovvero un sistema altamente più performante e basato sull'evoluzione dell'UMTS di prima generazione. Questo nuovo percorso prese inevitabilmente il nome di 4G (quarta generazione). Contrariamente al passato, la concentrazione della sperimentazione non avvenne in un solo luogo, ma ripartita in più aree geografiche del globo.

Ma perché se nel 2001 nasceva il 3G, si pensava già al 4G ??  E' presto detto. I tecnici, incaricati dagli organi di controllo e gestione (ETSI, ITU, 3GPP, e altri), dello studio della rete 3G si accorsero che questo nuovo protocollo, impiegando un range di frequenze più ampio avrebbe sofferto di diverse problematiche.

Come già detto all'aumentare della frequenza, cala l'ampiezza della banda a disposizione, ovvero la capacità di irraggiamento del segnale in un determinato luogo, e non si poteva (e può) aumentare la potenza, perché poteva portare a conseguenze sgradite agli individui, e perché l'aumento di potenza avrebbe ulteriormente ridotto l'estensione del segnale nella sua ampiezza propagativa.

Sembra contorto, ma proviamo a semplificarlo: più viene amplificato il segnale e più questo deve essere direttivo verso uno specifico punto (connessione punto-punto), facendone diminuire la sua estensione perimetrale verso altri punti (connessione multi-punto).

Nello specifico il 4G riesce ad adottare la connessione multicanale permettendo collegamenti dati con un più ampio troughput (banda passante). Si precisa che per banda passante s'intende l'effettiva capacità messa a disposizione di segnale che può transitare; se si trattasse di un tubo, si parlerebbe dell'effettiva capacità di liquido che può passare all'interno di tutta l'area del tubo, in uno specifico punto in un secondo.

Ovviamente dal 2001 si è parlato solo di studio teorico, e solo nel 2005 iniziò la sperimentazione pratica, che fu definita solo nel 2010, dando il via alla commercializzazione del 4G nel giugno del 2011.

La "nuove frequenze" di utilizzo non sono molto difformi dalle precedenti e ne appaiono di nuove e divise come segue tra gli operatori:

- banda 800 Mhz Vodafone, Tim e Wind;
- banda 1800 Mhz Vodafone, Tim, H3G (Tre);
- banda 2000 Mhz rimasta inceduta e tutt'ora solo ad uso dei reparti di ricerca e sviluppo;
- banda 2600 Wind, 3Italia (ex H3G), Tim e Vodafone.
E' da sottolineare che in banda 800 e 1800 Mhz specifici canali trasmissivi sono stati riservati a emittenti televisive.

Più specificatamente nell'era 4G ci si torva ad avere un portfolio di bande in determinate frequenze ripartite come segue:
- banda 800 Mhz (banda 20) in uso a tutti gli operatori nel 2020 e impiegata per le zone extraurbane/rurali;
- banda 1800 Mhz (banda 3) in uso a tutti gli operatori nel 2020 e impiegata per i centri urbani;
- banda 2100 Mhz (banda 1) in uso solo a Vodafone nel 2020 in grandi centri urbani;
- banda 2600 Mhz (banda 7) in uso a tutti gli operatori nel 2020 e impiegata per i centri urbani.

Una ulteriore classificazione a visto il modificarsi  dell'assegnazione in blocchi da 5+5 Mhz come segue:
- banda 800 Mhz (banda 20) LTE (Tim 2bl., Vodafone 2bl., W3 2bl.) - [W3 è la fusione tra Wind e Tre];
- banda 900 Mhz (banda 8) GSM-UMTS (Tim 2bl., Vodafone 2bl. W3 3bl.);
- banda 1800 Mhz (banda 3) GSM-LTE (Tim 4bl., Vodafone 4 bl., W3 6bl. (3+3));
- banda 2100 Mhz (banda 1) UMTS (Tim 3bl., Vodafone 3bl., W3 6bl. (3+3));
- banda 2600 Mhz (banda 7) LTE FDD (Tim 3 bl., Vodafone 3 bl., W3 7bl. (4+3)) - [FDD = full duplex];
e
- banda 2600 Mhz (banda 38) LTE TDD ( solo W3) in lblocchi da 15 Mhz - [TDD = time duplex].

Le frequenze più basse sono in grado di coprire distanze maggiori e con più facilità rispetto alle alte frequenze, e sono le uniche a garantire una determinata qualità di copertura di segnale all'interno degli edifici che non abbiano, per caratteristiche costruttive, materiali inibitori alla propagazione del segnale.
Le frequenze più alte sono più performanti in ambienti urbani grazie alla possibilità di aggregazione a quelle inferiori per capacità di "salto di banda" del dispositivo mobile che andrà a cercare il sempre miglior segnale.

Si può notare che nello spettro delle frequenze, non sono state inserite tutte quelle prossime al wireless fidelity, ovvero il wifi, che opera sia in banda 2.4 Ghz (2400 Mhz) sia in banda 5 Ghz (5000 Mhz), e nel caso della prime (2.4) sono state trascurate anche quelle in banda 2300 e 2500 Mhz in quanto dedicate ad uso di connessioni punto-punto wireless (bridge-radio-lan) non potendo essere impiegate per uso di propagazione punto-multipunto in quanto le apparecchiature mobili (se non alcune di tipo specifico) non possono riceverle.

Ritornando nello specifico del 4G nel 2012 la Commissione Europea decise di ampliare la banda a disposizione nella banda dei 2100 Mhz di 120 Mhz trasformando l'UMTS in Super UMTS (detto molto grossolanamente e volgarmente) e avviare il processo di miglioramento del segnale LTE (Long Term Evolution), per terminare nella costruzione del 4G, e determinare la vera classificazione di standard e protocolli a nome 4G e fugare tutti i dubbi nati dal periodo di transizione dalla precedente tecnologia 3G.

Successivamente si parlò di LTE Advanced o 4G+ aggregando ulteriormente frequenze differenti in modo da poter aumentare la velocità di picco per il download. Ovviamente non si parla di questo aumento in senso assoluto, in quanto determinato sempre dalla posizione dell'apparato mobile sul territorio rispetto alle BTS e alle possibili interferenze dovute a materiali costruttivi e/o altre interferenze elettromagnetiche.

Per diverso periodo il settore di ricerca e sviluppo ha parallelamente operato sul fronte del massimo miglioramento del 4G, sempre sotto la supervisione di organi di controllo, e sul fronte dello sviluppo di nuova tecnologia più avanzata per rispondere alla domanda di realizzazione di una rete di comunicazione a banda larga di livello europeo entro l'anno 2020 come definita in "Agenda Digitale", e che si prefiggeva l'obiettivo dell'Anti-Digital Divide, ossia portare una connessione (dati/voce) anche in tutti quei luoghi più remoti per interconnettere abitazioni, frazioni, o località non altrimenti raggiungibili.

All'interno del 4G sono stati sviluppati anche protocolli come il VoLTE (Voice over LTE), ovvero la possibilità di trasmettere una informazione vocale - quella che era la vecchia telefonata per capirci - attraverso una connessione dati, basandosi su un modello architetturale tecnologico di IP Multimedia Subsystem, come ad esempio la "chiamata vocale di WhatApp", argomento di cui non entreremo nello specifico in questo capitolo.

Questi processi di continua miglioria hanno portato allo studio di "segnali" di più ampio uso metropolitano come il WiMax (Worldwide Interoperability Micorwave Access) e il WiBro (Worldwide Interoperability Broadband).

Per il WiMax, fondamentalmente si parla di tecnologia della famiglia "wireless", con frequenza di partenza più alta (3.5 Ghz), e con l'impiego di potenze molto elevate che andavano in contraddittorio con la normativa elettromagnetica (che varia da stato a stato - in Italia vi è quella più restrittiva) e pertanto il progetto non è mai veramente partito.
Il WiSoa (WiMax Spectrum Owners Alliance) è la prima organizzazione di proprietari di frequenze per il WiMax, e si aggiudicata, oltre alla 3.5 Ghz, anche la 3.4 Ghz e le bande 2.3 e 2.5 Ghz, che comunque nel nostro Paese possono ancora essere impiegate per uso sperimentale.

Il WiBro, seppur simile al WiMax differisce per diverse peculiarità a cominciare dalla normativa di riferimento, e alla frequenza di impiego. E' un protocollo proprietario e richiede apparecchiature dedicate, utilizzando frequenze che potrebbero non essere licenziate e rese a disposizione in diverse parti del mondo.

Volendo fare una summa - pour parler - possiamo dire che entrambi concorrono alla formazione del nuovo 5G, più che altro per concetto di fondo, rispetto ai caratteri tecnologici.

 

5G (the fifth generation)          torna su

Era l'anno 2014, quando venivano definiti i requisiti per la costruzione di una rete più evoluta rispetto al 4G e che potesse raggiungere lo scopo di uno standard europeo unificato di comunicazione mobile dati-voce-servizi. Questi nuovi standard sono stati definiti dalla NGMN (Next Generation Mobile Network Alliance), ovvero un'associazione di operatori, produttori e istituti di ricerca operanti nel settore delle comunicazioni mobili.

Questa associazione esiste già dal 2006 e ha sempre avuto lo scopo di valutare le tecnologie e sviluppare le nuove versioni per le comunicazioni wireless (senza filo) in banda larga attraverso percorsi ben definiti, e soprattutto con studi applicativi al fine di valutarne correttamente la facilità di impiego e le risultanze in natura (quindi su uomini e animali). Infatti nel 2008, in base ad approfonditi studi e valutazioni in campo, il consiglio d'amministrazione dell'associazione stabilì che la LTE/SAE, cioè l'evoluzione del sistema di architettura LTE (System Architecture Evolution) - già approvata dal 3GPP - è la prima tecnologia a soddisfare pienamente tutti i requisiti necessari per una divulgazione globale.

L'associazione ha fortemente lavorato anche per unificare e adattare i diritti di proprietà intellettuale sulla costruzione dei dispositivi, perché si uniformassero allo standard unico e quindi andare a fugare ogni dubbio sulla funzionalità e la sicurezza degli apparati mobili.

Gli standard di base (siccome lo sviluppo resterà in fase costante e continuativa anche dopo il lancio test) per il 5G possono essere così classificati:

- migliore velocità: decine di Mbit/s per decine di migliaia di utenti (in funzione al proprio territorio - ndr);
- 1 Gbits (gigabitpersecondo) simultaneo per diversi apparati simultaneamente;
- centinaia di migliaia di connessioni simultanee  per reti di sensori wireless;
- diversificato utilizzo dello spettro della banda a disposizione;
- copertura migliorata grazie a capillare copertura del territorio;
- potenziamento del segnale (nel rispetto dei limiti di potenza stabiliti dalle normative - ogni stato ha le sue - e dall'OMS);
- riduzione della latenza (tempo di elaborazione tra l'informazione richiesta e la risposta ottenuta).

Parlando in termini puramente divulgativi e non tecnologici, si potrà indicare il 5G anche come internet delle "cose" - Machine To Machine o M2M (di cui si ebbe un primo approccio con il GPRS) o anche IoT (Internet of Things), avendo appunto la possibilità di permettere a diversi oggetti la connessione alla rete.

Certo non è una novità assoluta, esistono già cronotermostati, climatizzatori, e altri strumenti domotici che si collegano a internet per essere comandati a distanza, ma la miglioria consentirà una migliore fruizione dello status in tempo reale, e soprattutto si potrà verificare tutto uno scenario in campo preventivo nella trasmissione di informazioni (anche automatiche) d'importanza vitale: il primo passo prevede questa applicazione per una migliore prevenzione e studio di disastri naturali. Altresì anche in campo medicale molte apparecchiature potranno essere gestite in telecontrollo anche laddove non vi è la possibilità di usufruire di connessioni cablate.

Gli standard applicativi del 5G altro non sono che l'evoluzione naturale di quelli del 4G, con nuove capacità stabilite e raggruppate nelle dispense dell'ITU (Unione Internazionale delle Telecomunicazioni). Queste dispense contenenti i parametri di base e gli standard fondamentali di applicazione del 5G sono altresì stati studiati e approvati anche dalla FCC (Federal Communications Commission), dal 3GPP, e anche l'ETSI ne ha validato lo sviluppo.

Se la storia ci insegna che nel corso dello sviluppo tecnologico sono sempre state assegnate nuove frequenze ai nuovi standard e/o riassegnate alcune di quelle esistenti, ciò avviene anche questa volta ma con una estensione diversa al fine di diversificare più accuratamente quelle dedicate a connessioni punto-punto (per il collegamento fra BTS e ripetitori, ripetitori e ripetitori, ecc...) e a connessioni punto-multipunto (per il collegamento dell'utente finale alla BTS o al ripetitore, ecc...). Questa suddivisione permette altresì di annullare possibili interferenze con altri sistemi di comunicazione (4G, wifi, satelliti, ecc...).

Le bande assegnate sono:

- N28 (banda 700 Mhz - 694/790) suddivisa in 14 range applicativi;
- N78 (banda 3.7 Ghz - 3.6/3.8) suddivisa in 8 range applicativi di 1x20 Mhz;
- N257 (banda 26 Ghz - 26.5/27.5) suddivisa in 10 range applicativi.

In questo esempio grafico standardizzato è possibile vedere come vi siano dei collegamenti (linea azzurra) di edifici di tipo tradizionale dalla centrale telefonica urbana di zona, come questa sia collegata ad altre mediante fibra ottica, e come nello stesso modo si colleghi alle BTS primarie (linea di colore viola), come le BTS possano essere collegate direttamente alla centrale urbana, e collegate fra di loro on banda N257 (colore rosso), distribuire il segnale per i dispositivi mobili in banda N78 (colore verde) e infine come possano collegare strumenti all'interno di edifici o in altri luoghi in banda N28 (colore arancio). E' possibile che una BTS risponda possa essere equipaggiata per un solo compito, o tutti, indifferentemente, e in base alle necessità di zona, come è possibile che in una singola zona ne sia presente più di una o nessuna.

Le bande sono state suddivise in blocchi tra gli operatori come segue:

- N28: Iliad (2x10 Mhz), Tim (2x10 Mhz), Vodafone (2x10 Mhz);
- N78: Iliad (20 Mhz), Tim (80 Mhz), Vodafone (80 Mhz), W3 (20 Mhz);
- N257: Fastweb, Iliad, Tim, Vodafone, W3 (tutte 200 Mhz).

Questo riassetto delle frequenze (le precedenti restano invariate al 4G), è stato affrontato e riorganizzato con l'adozione del Piano Nazionale di Ripartizione delle Frequenza (PNRF), a seguito del decreto del MISE (Ministero Sviluppo Economico - ex Ministero Delle Comunicazioni); il Piano regolamenta tutte le Frequenza Radio (RF) per tutte le bande, comprese tra 0 e 3000 Ghz, attribuendo a ciascuna il proprio servizio in funzione dei diversi usi. Questo perché lo spettro radio complessivo non è illimitato e costituisce tutte le risorse per le comunicazioni senza filo, tra cui quelle di emergenza (Sanità, Polizia, Intervento), oltre a WiFi, Mobile, trasporto terrestre, navale e aereo, e radiofonia.

A queste si aggiungono poi tutte le bande UHF e VHF. Proprio su queste si adotterà in un imminente futuro (2022) una riassegnazione per implementazione al 5G, e i canali dedicati al digitale terrestre saranno ulteriormente ricompressi in altre bande.

Il progetto nel suo intero assieme prevede quindi una riformulazione totale delle frequenze, al fine di andare a ridurre il numero di quelle attualmente assegnate per poterle dedicare ad altri eventuali nuovi servizi, perché come abbiamo detto pocanzi le frequenze non sono infinite. Una riduzione in termini di assegnazioni, e riqualificazione dei servizi, porterà anche ad un abbattimento dell'inquinamento elettromagnetico.

In sostanza il 5G si presenta come uno strumento con un sistema "end to end" (utente-utente) per permettere all'individuo di vivere una società completamente mobile e interconnessa. Ovvero si renderà possibile la creazione di un valore attraverso modelli aziendali più sostenibili: accessi alla rete ad alta capacità/prestazione sia in ambiante aperto, sia in ambiente chiuso. Questo non implica un immediato termine delle connessioni cablate - s'intenda - che resteranno per usi altamente professionali, soprattutto in aree ad alta densità abitativa, per la sicurezza nella mobilità degli utenti, la geo-localizzazione in casi di soccorso e salvavita, nonché in ultimo a servizi simil-radiotelevisivi.

Stante all'NGMN il 5G arricchirà la vita dell'individuo con innumerevoli applicazioni anche dallo scopo sociale e umanistico. Infatti i casi di richiesta di sistemi di comunicazione variano molto fra di loro e richiedono spesso anche requisiti molto diversi e a volte (rare) anche estremi.

Una maggiore facilità e performabilità della rete, andrà a limitare in maniera importante la congestione, ovvero quel disturbo che rallenta molte attività e che spesso blocca veri e propri processi produttivi, sopratutto laddove vi sono molte macchine connesse.

Un criterio di base su cui tutti gli enti si sono espressi chiaramente e con forza, è la sicurezza che il sistema intero deve garantire. Sicurezza che spazia dalla efficacia del servizio per protezione dei dati che vi transitano, alla sicurezza di protezione dell'individuo.

Ad oggi il 5G in Italia non è ancora operativo se non in piccole zone in funzione di beta-test pre-lancio, mentre in altre parti del mondo ha già preso servizio.

Un recentissimo studio ha verificato che l'unificazione ancora non è proprio facile, e richiederà ancora del tempo, basti vedere che le velocità di trasmissione sono diverse da paese a paese, e questo avviene perché le BTS, comunque si appoggiano con connessioni cablate in fibra ottica alle varie centrali urbane. Ovvero la rete cablata di ogni paese è proporzionata al grado di vetustà costruttiva e/o aggiornamento. Gli operatori stanno, altresì lavorando anche per realizzare queste connessioni in modalità "total-link", quindi senza la connessione cablata, che resterà a servizio back-up e per connessioni dedicate.

Tutto questo lavoro di implementazione di nuova tecnologia, comporta - come si è anticipato in precedenza - ad un lavoro fisico di costruzione di nuove infrastrutture per la diffusione del segnale (nuove BTS, nuovi ripetitori). Il 5G usa tre frequenze ampiamente diverse fra di loro, e non perché una sia migliore dell'altra, ma perché saranno complementari.
Una frequenza bassa, intesa come emissione elettromagnetica con una frequenza dell'ordine di centinaia di Mhz, ha la capacità specifica di arrivare a trasportare il segnale molto lontano, ma con una capacità minore di dati per unità di tempo (per secondo), come una connessione punto-punto fra due luoghi specifici, e nessuno potrà interconnettersi per usare la banda, che è riservata solo a questi due punti.
Una frequenza alta, intesa come emissione elettromagnetica con una frequenza dell'ordine di diversi Ghz, al contrario della bassa, ha una limitata portata in distanza, ma permette una enorme capacità di dati per unità di tempo, come nel caso di connessioni multi-utente o punto-multipunto: tanti dispositivi mobili che accedono ad una BTS ad esempio.

Quindi le connessioni in frequenza alta richiedono una maggiore potenza effettiva per effetture il link fra i due punti e mantenere stabilità durante il trasferimento; quelli per la "divulgazione di massa" - per così dire - richiederanno invece meno potenza effettiva, soprattutto dal punto di vista della salute, e pertanto saranno aumentata per numero nelle singole aree territoriali.

I nuovi apparati mobili adotteranno una tecnologia chiamata "Adaptive Beam Switching", cioè la capacita di variare la frequenza di utilizzo, in base al servizio in funzione in quel dato momento in modo da mantenere stabile la connessione. Infatti "stabilità" - se ancora non detto - è la parola chiave del 5G: non servono velocità stratosferiche di upload e download per permettere all'individuo il miglior utilizzo del proprio apparato, ma ciò che veramente serve è la stabilità della connessione, che permette a sua volta che il troughput sia effettivamente quello associato al servizio offerto dall'operatore mobile.

Rispetto al 4G, la vera novità in campo di banda, è l'impiego di una frequenza al di sopra dei 24 Ghz. Ottime per trasmissioni ad altissima velocità (Hiperlink) ma poco affidabili in termini di portata di dati per unità di tempo, e soprattutto necessitano di un perfetto allineamento ottico: le due antenne direttive devono "vedersi", ovvero realizzare una sorta di linea immaginaria fra i due emettitori/ricevitori e non devono essere presenti ostacoli, che ne possono disturbare e/o interrompere il segnale. Inoltre è da indicare che la distanza fra un punto e l'altro ad oggi con queste frequenze, è nell'ordine di una 20ina di km o poco più. Se si impiegasse una banda di 80 Ghz si ridurrebbe notevolmente ed in maniera quadratica la distanza, e si dovrebbe ricorre all'aumento di potenza, arrivando a livelli eccessivi e senza dubbio fuori norma. Queste frequenze da 24 Ghz prendono il nome di Onde Millimetriche o Microonde (Microwave).

Sia chiaro che questa non è una novità del 5G, anche nel caso volessimo realizzare un link privato a 2.4 Ghz per uso wifi (bridge-radio-lan) abbiamo bisogno delle stesse condizioni di visibilità, ma si possono realizzare a livello sperimentale e/o per uso sporadico link di parecchi chilometri.

Non essendo presenti ostacoli sulla direttrice di allineamento (visibilità ottica), il collegamento è eseguito in maniera corretta

Essendo presente della vegetazione sulla direttrice di allineamento, si possono avere dei disturbi che impediscono il corretto funzionamento del collegamento soprattutto nei periodi di presenza del fogliame, ed in caso di forte vento che scuote le fronde, ma è comunque eseguibile

La presenza di ostacoli impenetrabili sulla direttrice di allineamento, impedisce che il collegamento possa essere effettuato, e bisogna ricorrere ad altre soluzioni, come "punto ripetitore rompi tratta", "rimbalzo", e/o "riflessione"

Un esperimento condotto dall'URI (Unione Radioamatori Italiani) da non confondere con l'ARI (Associazione Radioamatori Italiani - in precedenza Radiotecnici - ndr) fece un esperimento fra il Monte Amiata (entroterra toscano) e il Monte Capanne dell'Isola d'Elba comprendo la ragguardevole distanza di circa 120 km.  Altresì si narra di un link di circa 300 km eseguito in una zona desertica, sempre a 2.4 Ghz, ma di cui non vi è testimonianza, ma che a livello prettamente teorico non risulta impossibile [argomento che sarà meglio trattato nel capitolo dedicato].

Le "onde radio" comprese tra un 1 e 6 Ghz sono anche definite "onde medie" o "sub-6", e saranno quelle di maggior utilizzo da parte degli smart-phone. Godono della capacità di avere un ampio raggio d'azione con una discreta velocità e quindi di consentire le connessioni multi-utente: 1 BST - tanti smart-phone. Inoltre hanno anche il non trascurabile vantaggio che non soffrono particolarmente gli ostacoli, ad eccezione di edifici costruiti con particolari peculiarità edilizie, e/o materiali isolanti, e sono soggette a molti meno disturbi ed interferenze. Specificatamente si dovrebbe anche andare ad analizzare il concetto della "gabbia di Faraday" e le "correnti parassite indotte di Focault", ma è un argomento complesso e che va analizzato nella sua interezza e non in un riassunto come questo, perciò eventualmente sarà trattato in un proprio capitolo.

Analizzando infine le onde in banda bassa quelle sotto ad 1 Ghz, che in precedenza erano state assegnata al primo digitale terrestre (DVB), si può indicare che queste saranno ad uso, non privilegiato, di dispositivi secondari, come cronotermostati, timer, light-controller, o comunque per prodotti smart-home per domotica, laddove non sia possibile avere una connessione wifi. Un dispositivo di comunicazione mobile, non dovrebbe quindi mai usare queste basse bande, per evitare perdite di connessione e mancati allineamenti, e perdita di informazioni durante il trasferimento, dovute proprio a causa dello spostamento del dispositivo.

Dal punto di vista normativo e tecnico, la capillarizzazione della rete, non è fatta senza prendere in esame diversi fattori paesaggistici come molti (non esperti) ritengono.

Innanzi tutto bisogna considerare il mero e vile denaro... già perché un'antenna costa svariate decine di migliaia di euro. Inoltre si deve tenere conto della densità di popolazione di altre antenne presenti in un territorio.
Sembra un concetto un po' sibillino, ma in realtà identifica che in una determinata area non possono esserci più di n BTS perché invece che offrire più potenziali connessioni, andrebbero ad ostacolarsi, con interferenze anche importanti, tanto da deficitarne completamente il funzionamento: esiste una regola bene precisa sul posizionamento fra antenne, in funzione della banda e del canale. Ad esempio una antenna che definiremo di frequenza 'A' e sul canale 'a', potrà avere attorno a sè in un determinato raggio altre n antenne di frequenza A, ma con canale 'b', 'c', ecc... in funzione di quanti canali definiti "centro banda" sono presenti, e che anche questi canali non siano mai contigui o adiacenti ad altri stessi paritetici di altra antenna: in una parola è un accurato "Tetris" (come il gioco) di incastri.
Altro fattore assolutamente non trascurabile, dettato dalle normative in campo sanitario, è l'irraggiamento del segnale e della potenza trasmissiva, e che vedremo a seguito.

Tutto ciò premesso, il "5G PPP" ossia il programma collaborativo di ricerca organizzato dalla Commissione Europea, suggerisce che per supportare i principali settori produttivi, e quindi anche gli utenti finali, si dovrà avere una latenza massima di 5ms (millisecondi), e una disponibilità contemporanea di connessione FDD (fullduplex) fino a 100 dispositivi per km2 e quindi un'area di copertura affidabile.

L'argomento dal punto di vista tecnologico, della normativa tecnica, e dell'applicazione richiederebbe ancora diversi approfondimenti, ma questo è un compendio riassuntivo e non una analisi dettagliata del 5G che richiederebbe decine e decine di ore di lavoro per essere comunque una summa degli anni di studi, lavoro, ed esperimenti che hanno portato alla sua realizzazione.

 

I sistemi radio-mobili, la salute umana e animale

Prima di analizzare nello specifico alcune delle problematiche sulle relazioni tra i sistemi nG e la salute è obbligatorio una piccolo ripasso di che cos'è la radiofrequenza, al fine di poter meglio comprenderne le nozioni.

La radiofrequenza          torna su
(estratto dal capitolo dedicato)

La radiofrequenza, è ai più nota con la sigla RF, o segnale RF, ed è formata da segnali elettrici che vengono emanati o inviati e ricevuti, sotto forma di onda elettromagnetica ad una determinata frequenza, che si propaga nello spazio, e o nella materia in funzione delle relative caratteristiche fisiche intrinseche.

Quindi molto più grossolanamente possiamo dire che che con un segnale RF possiamo inviare e/o ricevere informazioni in modalità senza fili (wireless). Il primo prodotto concreto, che possiamo citare ad esempio, di questa tecnologia è la Radio intesa come strumento di diffusione di massa di segnali acustici (parlato e musica).

Cenni Storici
Marconi nel 1901 è riuscito ad inviare il primo segnale radio tra Cornovaglia e Terranova (fra le due si estende l'Atlantico per circa 3.000 km). Ovviamente non trasferì ne musica, ne parole, il trasferimento vide l'invio e la ricezione della lettera S mediante codice Morse, ovvero 3 punti.

I primi studi iniziarono già anni prima a cura anche di altri scienziati, che impiegavano mezzi più arcaici e con altra tecnologia (seppur simile) a quella di Marconi, che è la base dell'odierna trasmissione radio. Fra i tanti solo Nikola Tesla, attraverso il suo studio sui campi elettromagnetici, già nel 1891, sosteneva la teoria (poi concretizzatasi) che questa forza elettromagnetica potesse essere impiegata per applicazioni energetiche, di comunicazione audio e visiva, e studio anche l'applicazione per il comando a distanza di apparecchi e macchinari.

Funzionamento
Questi precursori (tutti, non solo i due più famosi) hanno dettato quindi le regole, che ancora oggi si applicano per l'impiego di questa tecnologia.

In sostanza si necessità di una antenna trasmittente, una antenna ricevente, e dei dispositivi in grado di codificare il segnale radio, sia per poterlo inviare e sia per poterlo ricevere sottoforma di onda elettromagnetica. Grandezza e forma delle antenne varia con rapporti stabiliti e ben precisi matematicamente in funzione alla lunghezza d'onda della frequenza che si intende utilizzare.

Per restare nel mondo radiofonico, per l'esempio, l'antenna trasmittente dovrà essere adeguata al territorio da coprire (quindi di grandi dimensioni) - e potrà impiegare anche ripetitori in caso il territorio sia ampiamente vasto - mentre l'antenna ricevente potrà essere anche di ridotte dimensioni.  Il sintonizzatore (cioè il ricevitore) lavora in modulazione di frequenza, ovvero è in grado di poter variare il range di frequenze fra quelle a disposizione (tra 87,5 e 108 Mhz per la radio FM).

Lo spettro delle onde radio varia in funzione del loro specifico campo elettromagnetico e ne fanno parte anche l'infrarosso, l'ultravioletto, i raggi x, e i raggi gamma.

La frequenza
La frequenza corrisponde al numero di cicli d'onda (o oscillazioni) che passano per un dato punto nell'unità di tempo, e viene misurata in Hertz (Hz).

Ovvero la frequenza è un fenomeno che presenta un andamento continuo di eventi che si ripetono identici (o quasi)nel tempo. La ripetizione nel tempo e nello spazio di questa onda avviene generando delle oscillazioni cicliche, una volta positiva, e una volta negativa. La frequenza può essere misurata con appositi strumenti come l'oscilloscopio e frequenzimetro.

frequenza

 

Possibili effetti su uomo e animale          torna su

Da quando esiste la radiofrequenza e soprattutto la sua diffusione di massa, gli scienziati e i medici si sono sempre posti il problema degli effetti che questa forza elettromagnetica potesse esercitare sugli individui e sugli animali.

Nel corso degli anni si è iniziato a parlare di elettro-smog, cioè di inquinamento ambientale da campi elettromagnetici, proveniente da antenne di trasmettitori/ripetitori televisivi, telefonici, ecc...

Gli organi o enti, già citati nei paragrafi relativi al mondo nG, da quando sono stati creati si sono sempre posti come supervisori di tutti gli aspetti legati alle tecnologie trasmissive, per stabilirne i valori massimi, soglia per individui e animali, al fine di evitare disfunzioni fisiche e cerebrali, o la comparsa di patologie degenerative.

In parentesi, è da indicare come moltissimi parecchi elettro-medicali, impieghino onde elettromagnetiche per la cura dell'essere umano. Ovviamente le frequenze e le potenze impiegate per queste pratiche nulla hanno a che vedere con quelle delle comunicazioni, ma possono essere al contempo molto più invasive, come la radioterapia che adotta "raggi x", ovvero si inizia a parlare di radiazione ionizzante.

In Italia uno specifico decreto, del 1998, dopo aver analizzato tutti i criteri e i parametri imposti come limiti massimo "pre-soglia del dolore" dai succitati organi competenti e commissioni di tecnici, ha sancito che questi valori - per il nostro paese - sarebbero dovuti essere ulteriormente ridotti per mantenere una adeguata fascia di garanzia prima di arrivare in zona di pericolo.

Ovviamente non tutti gli individui sono uguali, così come non tutti i cani, ad esempio, sono identici fra di loro:  ogni individuo - è palese - si contraddistingue da un altro per diversa "fattura" e "sensibilità intrinseche". Pertanto i dipartimenti di ricerca e sviluppo affiancati dagli organi di sanità hanno eseguito veri e propri test su volontari (si parla per l'uomo) per capire le effettive dinamiche e per fissare i precisi limiti entro i quali si possa restare prolungatamente esposti senza conseguenze.

Organi territoriali come Arpa e affini, si occupano di far si che questi limiti vengano rispettati dagli operatori telefonici, radiofonici e televisivi, mantenendo le potenze di trasmissione a livelli ben definiti, e che non possono essere superati, non solo a seguito di severe sanzioni pecuniarie, ma con vere e proprie conseguenze penali, fino alla cessazione dell'attività e lo smantellamento delle strutture.

Queste potenze nel mondo del wifi si aggirano nell'ordine di qualche milliwatt (precisamente si misurano in dbi e/o db,) e possono aumentare fino a qualche watt, o qualcosa in più, a secondo del campo di applicazione. Basti pensare che un sistema di trasmissione/ricezione ad uso radioamatoriale può raggiungere la potenza massima di 500 watt, sulle frequenze assegnate per questo utilizzo.

Cosa significa? Significa che anche la sola potenza non è fattore identificativo della pericolosità per la salute umana. Significa inoltre che per rispettare i dettami di norma e garantire buona copertura di segnale (nel nostro campo di telefonia mobile) è necessario aumentare il numero di punti di accesso e rispettarne le regole tecniche per il loro posizionamento [che abbiamo già analizzato - ndr].

Il 5G per come è strutturato a livello di bande e di irraggiamento elettromagnetico, dovrebbe (ancora non vi sono smentite in grado di affermare il contrario, in quanto si stanno ancora eseguendo i test) andare a scavalcare quei divieti che impongono di non utilizzare cellulari e/o dispositivi mobili, in aereo od ospedale, essendo lo spettro di frequenze applicate ben diverso da quello in uso in questi ambienti, anzi nel "Libro Bianco" della Commissione Europea si ipotizza proprio una integrazione fra 5G e Chirurgia.

In realtà questi potevano - e possono - essere usati anche attualmente ma con la sola funzione wi-fi, perché le frequenze di "aggancio" della SIM al ripetitore più vicino (comunque a 11.000 metri di quota è impossibile che ciò avvenga) è molto simile ad alcune frequenze in uso negli strumenti di bordo o di macchinari medici.

Al fine di impedire ai "furbetti" di tentare ugualmente, alcune compagnie aree, così come alcuni nosocomi si sono dotate/i di dispositivi in grado di isolare il segnale di telefonia radiomobile. Altresì una massiccia struttura di cemento armato, ma anche il tessuto edilizio di un antico centro storico (muri molto spessi) riescono ad annullare l'irraggiamento elettromagnetico: prova ne è lo scarso segnale che si ha quando si tenta una conversazione da una cantina, o da un nuovissimo edificio ultratecnologico.

All'estero, con a disposizione un range di potenza maggiore si ha una copertura maggiore del segnale radiofonico, e che risente molto meno dei limiti fisici dei materiali costruttivi. Test hanno dimostrato anche che laddove sono impiegate vetrate ad alta percentuale di piombo si ha un segnale scarso o inesistente. Il piombo infatti è un ottimo isolante di campi elettromagnetici.

Nuovi studi sono in corso anche in campo "protesico elettronico", cioè su apparecchiature come pace-maker (inventato nel 1960)  e apparecchi acustici (1868...), che già con l'avvento della prima tecnologia GSM, hanno riportato malfunzionamenti. Il processo tecnologico, coadiuvato dai centri di ricerca e sviluppo, ha poi permesso di migliorare questi delicati oggetti, e renderli co-esistenti alle nuove forme di radiocomunicazione. Una di tante ipotesi è proprio quella di poter gestire il pace-maker tramite connessione e mettere in condizione di "sorvegliato speciale" chi soffre di gravissime patologie cardiache, aumentando quindi il "fattore salvavita" dello stesso pace-maker.

Spesso si incappa in informazioni forvianti e/o completamente errate quando si parla dell'irraggiamento del segnale. La normativa in Italia in materia di irraggiamento (Legge quadro 36/01) prevede che per le intensità dei campi si applichino 3 criteri di base:
a) limite di esposizione: non deve mai essere superato per le persone non professionalmente esposte (gli utenti);
b) valore di attenzione: si applica agli ambienti residenziali e lavorativi a permanenze maggiori di 4 ore giornaliere e loro pertinenze esterne e in modalità continuativa senza interruzione;
c) obiettivo di qualità: è un valore che si raggiunge nel caso di nuove costruzioni.

Per i campi da alta frequenza (da 0,1 Mhz a 300 Ghz) il limite previsto di irraggiamento (stabilito nel 2003) è compreso fra 20V/m e 60V/m. Il valore di attenzione e l'obbiettivo di qualità sono di 6V/m. E' da indicare che molte BTS, alle quale sono state rilevati questi lavori, si è potuto apprezzare il valore di 0,3V/m alla base della BTS: la misura andrebbe effettuata ad un metro di distanza in linea perpendicolare alla linea (virtuale) di irraggiamento, ma è un po' complicato misurare in quota (a seconda dell'altezza del traliccio e all'inclinazione dell'antenna), e pertanto si è adottata la misura a terra. Ovviamente la misura alla base della BTS è in una zona definita "vuota" in quanto non si trova sulla proiezione della perpendicolare della linea di irraggiamento.


[esempio BTS direttiva, sul tetto di un edificio]

I dispositivi mobili (smart-phone, tablet, ecc...) non sono direttamente soggetti a questa normativa, in quanto non sono dei veri emettitori di segnale, ma più che altro ricevitori, comunque soggetti a limiti stabiliti da FCC, CE e organi di controllo dei costruttori, e il parametro generalizzato è che il dispositivo non possa avere più di 1 watt di potenza.

Se facciamo un rapido calcolo, 1 watt di potenza genera un irraggiamento di 6V/m a 1 metro di distanza, quindi di 60V/m a 10 cm. Pertanto più siamo lontani dalla BTS, più basso sarà il segnale emesso.

Si tenga presente che sulla linea elettrica a 50Hz (Hertz), cioè la tradizionale linea elettrica 220/240 Vca (volt corrente alternata) di casa, il decreto del 2003 prevede un limite di esposizione di 100µT (microTesla) per l'induzione magnetica e di 5000 V/m per il campo elettrico. Il valore di attenzione in questo caso è di 10µT, e per l'obbiettivo di qualità di 3µT, a tutti i luoghi con una permanenza maggiore alle 4 ore.

Dopo questa premessa di calcolo ai sensi di norma, va detto che in tutti i casi di test volontario ad esposizione prolungata di irraggiamento elettromagnetico, anche con potenze ben superiori, ad oggi non si sono riscontrati effetti noti sulla salute. Per effetti noti s'intendono disturbi di chiara identificazione e/o patologie ben definite. Sono infatti allo studio altre disfunzioni dell'organismo, ma ancora senza esiti. Gli studi - cita l'OMS - epidermiologici e sperimentali condotti finora, non hanno ancora mostrato associazione significativa tra l'esposizione a campi magnetici in genere, e un'aumentata insorgenza di cancro in bambini e adulti. Gli studi svolti sino ad oggi non hanno mostrato alcuna capacità delle onde radio e delle microonde utilizzate per il 5G e i suoi predecessori, di danneggiare il DNA delle cellule.

L'Istituto Superiore di Sanità (Italia) con specifico riferimento al 5G (ma anche per i precedenti sistemi già abbondantemente studiati) dice che al momento, non è possibile formulare una previsione sui livelli di campo elettromagnetico ambientale dovuti allo sviluppo delle reti 5G. Se da un lato aumenteranno sul territorio i punti di emissione di segnali elettromagnetici, dall'altro questo aumento porterà a potenze medie degli impianti emittenti più basse. Un'ulteriore riduzione dei livelli medi di campo sarà dovuta alla rapida variazione temporale dei segnali. Una valutazione adeguata dell’impatto di questa nuova tecnologia potrà essere effettuata solo a seguito di una conoscenza dettagliata delle caratteristiche tecniche degli impianti e della loro distribuzione sul territorio.

Tutto ciò detto, questa nuova tecnologia viene continuamente osteggiata da vere e proprie campagne di fake news e iniziative "anti" da chi sostiene che le onde radio sono nocive: quelle stesse persone che usano a loro volta computer, tablet, e smart-phone per le loro azioni di propaganda mediatica. Stante il criterio da cui traggono la loro "fede", ossia "le onde radio fanno male", si dovrebbe allora cessare ogni sorta di comunicazione, e approvvigionamento elettrico degli edifici; non si dovrebbero usare treni e automobili, ecc... ma si accaniscono solo contro il 5G. Sono gli stessi che promuovono la vita Eco-Sostenibile con il sistema fotovoltaico e/o eolico, come se questi non avessero come principio l'elettromagnetismo ?! Altresì la forza elettromagnetica più importante presente anche in natura (si vedano gli studi di Nikola Tesla) è formata dal campo elettromagnetico terrestre, o campo geomagnetico generato dal dipolo magnetico, che ha poli non coincidenti a quelli geografici e non statici e con asse inclinato di 11,30° rispetto all'asse di rotazione terrestre. Ma questo è un argomento altrettanto vasto e complesso e che non interessa questo capitolo.

E' comunque doveroso indicare che esistono anche effetti noti  all'esposizione alle radiazioni elettromagnetiche e si classificano in due tipi:
1) effetti acuti dovuti a meccanismi di interazione ben conosciuti che avvengono al di là di valori soglia, quindi stimolazione di tessuti che contengono cellule elettricamente eccitabili come fibre muscolari e neuroni con frequenze al di sotto di 1 Mhz, mentre si ha un riscaldamento generalizzato del tessuto con frequenza superiori a 1 Mhz;
2) effetti sanitari a lungo termine che sono difficilmente valutabili e le cui reazioni causa/effetto si possono basare solo su indagini epidemiologiche. Questi contemplano sintomi sia soggettivi come cefalee, irritabilità, affaticamento, difficoltà di concentrazione, insonnia ed altro (vedi uso eccessivamente prolungato di personal computer e consolle per il videogioco), sia patologie oggettive anche gravi come tumori o malattie degenerative (eccessiva e prolungata continuativa esposizioni a fonti di alta potenza come ad esempio raggi x o raggi gamma).

Anche gli studi compiuti su popolazioni di ratti hanno dimostrato questo scenario (tumorale), ma i soggetti che restavano vittima della patologia, erano in genere già debilitati o affetti da altre patologie.

Nel 2007 fu realizzata una ricerca specifica proprio per vagliare la connessione fra "uso del cellulare e tumori cerebrali", che ha comparato e analizzato per 6 anni dati in continuo aggiornamento, con l'aiuto anche di soggetti test volontari e non ha evinto alcuna correlazione tra l'insorgenza di tumori e un utilizzo medio del telefono radiomobile. Per utilizzo medio si è considerato l'arco temporale di uso quotidiano ripartito nell'arco dell'anno, su diversi soggetti che ne facevano un uso continuo e soggetti che ne facevano uso sporadico. Questo uso va inteso come conversazione con apparecchio appoggiato all'orecchio, ovverosia quando le parti elettromagnetiche sono più vicine al cervello.

Nel 2014, un altro studio, smentì in parte, la precedente ricerca del 2007, imputando a circa 5000 casi di Glioma (tumore lobo temporale), un aumento del rischio, ma non confermandone appieno la causa. Infatti si parla di possibile aumento del rischio.

Esistono alcuni altri effetti accertati, dovuti sempre a campi di elevata potenza, come la fotosensibiltià, e la fototossicità, e la dermatite attinica, nelle ustioni da laser e infrarossi, passando per danni termici da esposizione a microonde (di elevata potenza come quelle dei radar o radiofari).
Un effetto di facile misurazione, è l'innalzamento della temperatura dei tessuti biologici attraversati da acqua (si prenda ad esempio il forno a microonde per uso alimentare). Nel caso dei dispositivi radiomobili, come già detto e ripetuto la potenza è bassa (circa 1 watt) e l'innalzamento della temperatura è apprezzabile nell'ordine di poche frazioni di grado, e solo nella zona interessata dal contatto diretto con l'apparecchio (per lo più orecchio esterno), e che dovrebbe essere assai inferiore all'aumento di temperatura che procura l'esposizione al sole. Il calore si propaga nei tessuti durante l'uso di apparecchi solo per conduzione e non per irraggiamento.

Dal punto di vista del territorio - sempre riferito all'Italia - laddove sono già state posizionate BTS per il 5G (inizio 2019, ma anche dove erano già presenti le precedenti, i rilievi fatti in loco non hanno riportato alcun dato sensibilmente rilevabile di danneggiamento all'ambiente. Pertanto i centri di ricerca e sviluppo, nonché quelli di supervisione e controllo continueranno a monitorare in modo assiduo e permanente le BTS e il territorio limitrofo al fine di vagliare ogni ipotesi e nel caso di sospetto e/o confermato danno, si potrà intervenire in maniera opportuna.

Sulla base di questa sperimentazione, sono apparse diverse fake news, che mostravano foto di interi stormi di volatili deceduti e di pesci deceduti nei laghi e nei fiumi. Or bene, nel primo caso - volatili - sono state condotte indagini accurate ed è stato dimostrato che dove si sono verificate queste morie non vi sono installate BTS 5G ne di altra natura. Infatti le autopsie svolte su campioni di volatili deceduti di diverse zone hanno dimostrato che le morti sono - così l'intero fenomeno di massa - dovute alla presenza di antiparassitari. Ovvero l'uomo sparge fertilizzanti e antiparassitari di origine chimica sulle proprie coltivazioni, questi vengono assorbiti da lombrichi, api, e insetti di genere vario che sono in prevalenza l'alimento dei volatili. La continua assimilazione, quindi di cibo avariato, ha portato al decesso di tutti questi volatili.

Mentre nel mondo ittico, le onde radio cosiddette convenzionali per telecomunicazioni, sono assolutamente inefficaci, in quanto la densità dell'acqua è talmente elevata da essere una barriera impenetrabile. Infatti, si pensi ad un sottomarino in mare... questo utilizza delle frequenze molto basse che si chiamano comunemente ELF (extremely low frequency). Quindi i pesci non possono essere raggiunti dalle onde elettromagnetiche dei sistemi di telecomunicazione. Analisi chimiche sulle acque e autopsie su varie specie di pesci hanno dimostrato che, sia in lagni e fiumi, la colpa è si dell'uomo, ma dell'uso indiscriminato di queste risorse come "discariche" di prodotti chimici, batteriologici, e materiali vari: la più alta concentrazione rilevata è di piombo, e sembra incredibile, cocaina.

L'ultimo studio effettuato sugli effetti da irraggiamento da 5G, in Italia è datato 2018, e anche questa volta i topi si sono dovuti prestare al servizio di una causa superiore. E solo con l'impiego di potenze elevatissime di oltre 1000 watt, fuori da ogni canone armonizzato o normato, si è potuto riscontrare la comparsa di tumori di rara natura al cuore e al cervello.

In sostanza, tutto quanto ciò premesso è molto difficile se non quasi impossibile, poter affermare che il 5G sia dannoso per l'uomo e l'ambiente, ma lo studio e la ricerca non si fermano di certo ai primi passi: continueranno per una sempre migliore funzionalità.

Sicuramente a non giovarne sarà l'impatto estetico per la maggiore presenza di BTS, ma le ultime Direttive del Gennaio 2020 ne impongono l'installazione  in siti già esistenti, e laddove se ne richiedessero di nuove è necessario effettuare uno specifico studio paesaggistico, per ridurne al minimo l'impatto.

L'argomento sarà implementato e aggiornato al variare delle condizioni, degli studi e delle ricerche anche post attivazione totale del sistema, perché se non fosse ancora noto, il 5G è già operativo per la connessione fra BTS e Nodi (punto di commutazione fra comunicazione fissa e mobile), e già marginalmente fruibile dai primi dispositivi immessi sul mercato dai vari produttori di attrezzature Mobile.

 

Il passo successivo

6G (the sixth generation)          torna su

La tecnologia mobile è sempre stata aggiornata con un gap temporale medio di circa 10 anni, ovviamente studi e progettazione sono iniziati prima, ma in questo caso è la prima volta in assoluto che si parla di una tecnologia che ne soppianterà un'altra, ancora prima che la stessa sia immessa sul mercato.

Infatti il 5G è ancora ai blocchi di partenza e già si sente vocifera di un 6G. Assurdo ? In genere si, ma in questo caso il ragionamento è più che giusto. Infatti come abbiamo detto nella disanima sopra esposta il 5G è il prototipo della rete unica, che consente l'integrazione delle cose, e che permetterà a utenti di diverse nazionalità di non utilizzare il roaming come lo conosciamo oggi, e di avere la sua SIM sempre attiva, ovunque. Quindi il primo passo verso una rete globale.

Il 6G essendone la naturale evoluzione, consentirà di unificare ulteriormente la rete mobile globale, oltre ad indubbie migliorie anche sulle prestazioni. Inoltre già col 5G per la gestione delle tipologie di traffico sono state adottate tre bande distinte, e molto probabilmente col 6G ci sarà una implementazione delle bande.

E' importantissimo avere delle piattaforme che possano gestire ogni tipo di congestione della rete, per evitare disservizi, soprattutto laddove questa tecnologia andrà ad operare in "campi minati" come la sanità, la prevenzione, l'infortunistica, e tutti i settori di intervento. Queste trasmissioni lavorano in millesimi di secondo e pertanto l'efficacia della struttura e la sua capillarità, nonché la sua efficienza, sono la base assoluta e indispensabile per il funzionamento.

I processori che gestiranno tutta questa mole di lavoro saranno la naturale evoluzione del figlio dell'ing. Faggin, tanto che saranno una vera e propria AI (Intelligenza Artificiale) di ridottissime dimensioni capace di eseguire calcoli complessi e veloci, che solo pochi computer - che occupano intere server farm - riescono ad elaborare.

Così come la mitica Olivetti Programma 101, fu il primo "personal computer" in grado di mettere nelle mani di tutti un calcolatore - evoluto per il periodo: 1965 - la nuova AI sarà alla portata di tutti con nuovi concetti di smartphone ma soprattutto con nuovi laptop (o computer portatili) sempre più simili a telefoni, o addirittura prodotti semitascabili all-in-one.

Una sola unità AI potrà smistare il traffico che ora viene gestito da decine e decine di n processori, e con una velocità e qualità di gran lunga superiore. Soprattutto andrà a ridurre la latenza (ovvero i tempi di dialogo fra domanda e risposta nell'invio dell'informazione digitale) a valori prossimi allo 0 (zero). Bene inteso che lo 0 (zero) non è fisicamente raggiungibile causa la resistenza della trasmissione del materiale trasmissivo.

Attualmente (2020) si parla di velocità "lampo" che possono toccare persino il Terabit per secondo nella connessione mobile, portando tutto ad una connessione praticamente istantanea.

Immaginiamo come scenario applicativo la sicurezza ferroviaria: tutte le comunicazioni possono arrivare praticamente in tempo reale al macchinista o alla nuova AI che gestisce il convoglio, ed in caso di possibile sinistro poter intervenire in tempi così rapidi da evitare la sciagura. Avere un controllo sempre attivo dello stato del locomotore, delle carrozze e delle linee ferrate, soprattutto con i nuovi treni ad alta velocità.

Queste nuove connessioni, impiegheranno frequenze più alte, ma come abbiamo visto con la limitazione della portata, e quindi con l'implementazione di nuove BTS.

L'installazione di queste nuove BTS e la loro maggiore capillarizzazione farà si che le potenze si abbasseranno ulteriormente e quindi aumenteranno la qualità della vita non solo in termini di servizio, ma anche di sicurezza e salute dell'individuo.

I complottisti, sicuramente inizieranno campagne di disinformazione e avvieranno petizioni per la "non avanzata del processo tecnologico", ma dimenticano un fattore di base: le loro campagne sono immesse in rete, su internet, e senza gli strumenti idonei non vi avranno più accesso. Già, le vecchie reti inizieranno gradualmente ad essere smaltite, e senza apparati in grado di connettersi alle nuove generazioni di tecnologie saranno tagliati fuori automaticamente. Si adegueranno e continueranno la loro attività o si isoleranno definitivamente ???!!! Anche nell'800 "il cavallo di ferro" (treno) vedeva opposte nel Far West le fazioni dei Conservatori e dei Progressisti... eppure il treno c'è !! così come in molti settori tecnologici dal XIX secolo ad oggi.

Sempre ipotizzando un'applicazione in campo ferroviario, queste nuove BTS che dialogano con i treni potrebbero lavorare addirittura con frequenza di Terahertz, ma con il limite fisico di avere una BTS ogni 10/15 metri. Ma dicevamo in campo ferroviario potrebbe non essere un grosso problema (se non di costi) vista la fitta e progressiva palificazione della linea ferrata. Indubbiamente sono dati teorici e molto più verosimilmente si ragionerà su frequenze attorno ai 300 Ghz.

Si presume, che verso il 2030 - quindi torniamo sul salto temporale del decennio - la AI sarà impiegata più o meno ovunque portando a scenari persino avvolti da aloni di fantascienza. Si approccierà la XR (Extended Reality - o realtà aumentata come quella di certi video giochi o applicazioni tecnologiche visive).

Inoltre si parlerà di interfacce sensoriali soprattutto applicate a Industria, Salute e Benessere, Intrattenimento e nuovi concetti sulla archiviazione e la protezione di files e dati.

Nell'applicazione Sanitaria, è stato recuperato un vecchio protocollo di comunicazione di informazioni vitali, per avere un controllo su operai e/o addetti in ambienti particolari e/o pericolosi. Sul finire degli anni '90, primi 2000, infatti, Ericsson brevettò un sistema che grazie ad appositi cordless poteva inviare al posto operatore degli avvisi specifici come "uomo a terra", "uomo svenuto" e "uomo morto". La centrale di gestione aveva costi elevatissimi, e andava interfacciata ad un sistema telefonico privato (centralino) che richiedeva la presenza di uno, o più operatori, sempre in grado di ricevere la comunicazione d'emergenza.

Con il riassetto di Ericsson del 2010, il brevetto è divenuto pubblico e il protocollo "safety" è stato preso e portato allo studio per una nuova applicazione mediante la connessione wi-fi e 5-6G al fine di poter utilizzare un qualsiasi dispositivo mobile, tramite app. Un tale servizio, efficiente già con tecnologie arcaiche, oggi, ma soprattutto in un prossimo futuro potrà permettere di salvare gli individui in caso di malori e/o sinistri sul lavoro.

Su questo concetto esistono anche oggi dispositivi GPS in grado di dare comunicazioni "safety" ma con la sola funzione di "uomo a terra", e di geolocalizzare l'individuo ove vi sia connessione con i satelliti.

 

 

       

 

 

TMA S.r.l.s. unipersonale

CF/P.Iva IT04431900408

Sede Legale: Viale Roma 18 | 47034 Forlimpopoli FC | Italy

Nr. Unico: +39 0543 1796907 | E-mail Peo: tma@tmafc.it | E-mail Pec: tma@pec.tmafc.it

 

Le informazioni di questo sito sono puramente divulgative per l'identificazione dell'azienda e di carattere orientativo, pertanto i prezzi pubblicati devono sempre essere confermati a mezzo ordine.

Ogni eventuale decisione assunta dal lettore in base alle informazioni pubblicate è presa in piena autonomia.

Copyright İ, Info e Policy