|
|
|
|
3)
Sensibilità dei radio-ricevitori usati nelle misure di attenuazione
F. Fedi Note, Recensioni e Notizie, Vol. XIX, n. 5, settembre-ottobre 1970
|
|
6)
Criteria and expected accuracy of the measurements envisaged in the research program underway in Italy
F. Fedi AGARD Symposium on "Telecommunications aspects on frequencies between 10 and 100 GHz", Oslo, settembre 1972. Conference Proceedings n. 107
|
|
8)
Long distance UHF propagation over the Mediterranean Sea
F. Fedi, M. Riccardi, F. Rodinò di Miglione Alta Frequenza , n. 11, Vol. XLII, novembre 1973
|
|
9)
Propagation data for interference probability determinations
F. Fedi Introductory Survey Congresso AGARD "Propagation effects on frequency sharing", Roma, maggio 1973 - Conference Proceedings n. 127
|
|
10)
Atmospheric effects on e.m. wave free propagation at frequencies above 10 GHz
F. Fedi Proceedings "1973 European Microwave Conference", Bruxelles, settembre 1973
|
|
11)
Relazione sul Centro Sperimentale del Fucino e sulle postazioni meteorologiche
F. Fedi, P. Migliorini, U. Mocci, B. Peroni Pubblicazione FUB - 8V2, giugno 1974
|
|
12)
Misure di intensità di precipitazione nell'ambito del programma di ricerca sulla radiopropagazione a frequenze superiori a 10 GHz
F. Fedi, U. Merlo, B. Peroni Pubblicazione FUB - 5V1, settembre 1974
|
|
13)
The calculation of the hop length of digital radio-relay systems at frequencies above 10 GHz
F. Fedi, B. Peroni Alta Frequenza, n. 9, Vol. XLIII, settembre 1974
|
|
14)
Influence of spacing and integration time of the rain-gauges on the attenuation - rain rate relationship
F. Fedi, P. Mandarini Journal de Recherches Atmospheriques, Vol. VIII, n. 1-2, 1974
|
|
15)
Attenuation: theory and measurements
F. Fedi (Chairman) et al. Journal de Recherches Atmospheriques, Vol. VIII, n. 1-2, 1974
|
|
16)
Influenza delle condizioni atmosferiche sulla propagazione delle onde e.m. a frequenze superiori a 10 GHz e criteri di progetto di sistemi di telecomunicazioni terrestri a tali frequenze
F. Fedi, R. Koch, B. Peroni Pubblicazione FUB - 2V4, ottobre 1974
|
|
17)
Analysis of the influence of the various parameters on the attenuation - rain rate relation
F. Fedi, P. Mandarini Proceedings of the Nato Advanced Study Institute on "Modern Topics in Microwave and Air - Sea Interaction", Sorrento, giugno 1975. Pubblicato da D. Reidel Pubblishing Company, Dorderecht - Holland - Vol. 5 Mathematical and Physical Sciences
|
|
18)
Recent advances in radiowave propagation above 10 GHz
F. Fedi Procedings "5th European Microwave Conference". Amburgo, settembre 1975
|
|
19)
Experimental measurements for the evaluation of the accurrancy of tipping - bucket rain gauges used in the research on radiopropagation at frequencies above 10 GHz
F. Barbaliscia, F. Fedi, U. Merlo Pubblicazione FUB - 5y5, aprile 1976
|
|
20)
European research activities on radiowave propagation above 10 GHz in the framework of COST
F. Fedi . International Symposium on "Problems of space and terrestrial microwave propagation", Graz, aprile 1975 Pubblicazione ESA SP-113, maggio 1976
|
|
21)
Method of measurement of rainfall intensity with the combined use of capacitor and tipping - bucket rain gauges
F. Fedi, U. Merlo, B. Peroni Pubblicazione FUB - 5y5, aprile 1976
|
|
22)
Programma di ricerca sulla "Influenza delle condizioni atmosferiche sulla radiopropagazione a frequenze superiori a 10 GHz" - Relazione sullo svolgimento del programma e sullo stato di avanzamento delle ricer
F. Fedi, R. Koch, B. Peroni Pubblicazione FUB - 2y3, aprile 1975
|
|
23)
Effect of the rain rate profile along a path on rain induced attenuation
F. Fedi, U. Merlo, P. Migliorini URSI Commission F Open Symposium, La Baule, 28/4/-6/5, 1977
|
|
24)
Statistical data on point rainfall intensity for the design of radio-relay systems at frequencies above 10 GHz
F. Fedi, U. Merlo URSI, Commission F Open Symposium, La Baule, 28/4/-6/5, 1977
|
|
25)
Programma di ricerca sulla "Influenza delle condizioni atmosferiche sulla radiopropagazione a frequenze superiori a 10 GHz": stato di avanzamento e prime conclusioni
F. Fedi Pubblicazione FUB 1B1377, marzo 1977
|
|
26)
Effect of rain structure on rain induced attenuation
F. Fedi, U. Merlo, P. Migliorini Annales des Télécommunications, Tome 32, n. 11-12, 1977
|
|
27)
Statistical data on point rainfall intensity for radio-relay system design
F. Fedi, U. Merlo Annales des Télécommunications, Tome 32, n. 11-12, 1977
|
|
28)
Prestazioni del sistema di misura dell'attenuazione di tratta a 11 e 17.8 GHz
F. Fedi, P. Migliorini Pubblicazione FUB 1B2078, dicembre 1978
|
|
29)
Radiocomunicazioni a frequenze elevatissime: una nuova utenza dei dati idrometeorologici
F. Barbaliscia, F. Fedi, B. Peroni Convegno CNR "Aggiornamento delle metodologie di raccolta e di elaborazione dei dati idrometeorologici", Roma, 29-30 novembre 1978
|
|
30)
Funzioni di distribuzione cumulativa dell'attenuazione dovuta a pioggia su una tratta di 9.5 km a 11 e 17.8 GHz
F. Fedi, P. Migliorini Pubblicazione FUB 1B2178, dicembre 1978
|
|
31)
Programma di ricerca sulla radiopropagazione a frequenze superiori a 10 GHz: dati idrometeorologici nel territorio nazionale
F. Barbaliscia, F. Fedi Pubblicazione FUB, 1B3178, luglio 1978
|
|
32)
Calcolo dei parametri della relazione tra attenuazione specifica ed intensità di precipitazione
F. Fedi, D. Maggiori Pubblicazione FUB 1B1278, giugno 1978
|
|
33)
Statistiche dell'intensità di precipitazione puntuale nel territorio nazionale
F. Barbaliscia, F. Fedi Pubblicazione FUB 1B3278, ottobre 1978
|
|
34)
Relazione tra attenuazione e fase differenziali specifiche ed intensità di precipitazione
F. Fedi, D. Maggiori Pubblicazione FUB 1B2678, dicembre 1978
|
|
35)
Propagazione di onde e.m. attraverso dispersioni di particelle non sferiche con orientamento casuale: una teoria generale
C. Capsoni, F. Fedi, D. Maggiori, A. Paraboni Pubblicazione FUB 1B1878, ottobre 1978
|
|
36)
The Eurocop-Cost 25/4 project on radiopropagation above 10 GHz
F. Fedi (Editor) Alta Frequenza, Vol. LXVI, n. 4, aprile 1979
|
|
37)
Rainfall characteristics across Europe
F. Fedi Alta Frequenza, Vol. LXVI, n. 4, aprile 1979
|
|
38)
Attenuation due to rain on a terrestrial path
F. Fedi Alta Frequenza, Vol. LXVI, n. 4, aprile 1979
|
|
39)
Radio-Wave propagation and hydrometeors
F. Fedi URSI Review of Radio Science 1972-1974
|
|
40)
Radar
F. Fedi Enciclopedia dell'Ingegneria, Vol. V, parte 29, Arnoldo Mondadori Editore
|
|
41)
Measurement of the mutual coherence function in radio propagation
F. Fedi Dissertation submitted to the Graduate School, Department of Electrical Engineering, University of Notre Dame, Indiana, USA, giugno 1967
|
|
42)
Relazione sullo stato di avanzamento delle ricerche ATC svolte al 31 dicembre 1977
M. Carnevale, G. Cioffi, F. Fedi, F. Valdoni Relazione FUB 5B0376, marzo 1978
|
|
43)
Relazione sullo stato di avanzamento delle ricerche ATC al 30 giugno 1978
M. Calamia, M. Carnevale, G. Cioffi, D. Di Zenobio, F. Fedi, F. Valdoni Relazione FUB 5B1078, ottobre 1978
|
|
44)
Sintesi dei criteri di scelta e dell'impostazione delle metodologie di valutazione degli indici di qualità ATC caratterizzanti le prestazioni dei radar secondari
F. Fedi, P. Neri, M. Pattumelli Relazione FUB 5A0578, giugno 1978
|
|
45)
Metodi di previsione delle statistiche della intensità di precipitazione piovosa sulla base di serie storiche di dati meteorologici
F. Barbaliscia, F. Fedi, W. Merenda Pubblicazione FUB 1B1479, 1979
|
|
46)
Verifica dei metodi di previsione delle statistiche dell'intensità di precipitazione piovosa
F. Barbaliscia, F. Fedi, W. Merenda Pubblicazione FUB 1B15579, 1979
|
|
47)
Prediction of attenuation due to rainfall on terrestrial links
F. Fedi Radio Science, Vol. 16, n. 5, ottobre 1981
|
|
48)
Rainfall intensity statistical properties and prediction techniques
F. Barbaliscia, F. Fedi Annales des Télécommunications, Vol. 35, n. 11-12, 1980
|
|
49)
A systematic comparison of rain attenuation prediction methods for terrestrial paths
E. Damosso, G. De Renzis, F. Fedi, P.G. Migliorini Annales des Télécommunications, Vol. 35, n. 11-12, 1980
|
|
50)
Analytical method to evaluate the effect of multipath fading on long-haul high-capacity digital radio relay systems
F. Andreucci, F. Fedi, P.G. Marchetti Annales des Télécommunications, Vol. 35, n. 11-12, 1980
|
|
51)
Rain attenuation on earth-satellite links: a prediction method based on point rainfall intensity statistics
F. Fedi Annales des Télécommunications, Vol. 36, n. 1-2, 1981
|
|
52)
A model-oriented approach to measure rain-induced cross-polarization
C. Capsoni, F. Fedi, D. Maggiori, A. Paraboni Annales des Télécommunications, Vol. 36, n. 1-2, 1981
|
|
53)
A model-oriented approach to measure rain-induced cross-polarization
C. Capsoni, F. Fedi, D. Maggiori, A. Paraboni Annales des Télécommunications, Vol. 36, n. 1-2, 1981
|
|
54)
Normalization procedures and prediction techniques for rain attenuation on terrestrial and earth-space paths
F. Fedi Proceedings of IEE International Symposium on Antennas and Propagation, York, April 1981
|
|
55)
A simple method for predicting rain-attenuation statistics on terrestrial and earth-space paths
F. Fedi Pubblicazione FUB 1B1081, 1981
|
|
56)
Statistiche dell'attenuazione dovuta a pioggia nelle bande 20-30 GHz per collegamenti via satellite nel territorio nazionale
F. Fedi, E. Bucci, P. Ferrazzoli, A. Paraboni Pubblicazione FUB 1B1481, 1981
|
|
57)
Studio di fattibilità di un programma organico di ricerche di telecomunicazioni spaziali
F. Fedi et al. Pubblicazione FUB 1B2681, 1981
|
|
58)
Tecniche di predizione statistica dell'attenuazione a partire dalle statistiche pluviometriche
F. Fedi, E. Matricciani Programma SIRIO - Edizione CNR - Volume Secondo, 1983
|
|
59)
La partecipazione nazionale ed internazionale agli esperimenti SIRIO: il progetto COST 205
F. Fedi, F. Maffioli, A. Paraboni Programma SIRIO - Edizione CNR - Volume Primo, 1983
|
|
60)
Confronto preliminare tra dati di attenuazione dai satelliti SIRIO ed OTS acquisiti simultaneamente nella piana del Fucino
F. Fedi, P. Ferrazzoli, A. Paraboni, J.P. Pojares Baptista, S. Tirrò Programma SIRIO - Edizione CNR - Volume Secondo, 1983
|
|
61)
Remote sensing and wave propagation
F. Fedi, G. d'Auria, A. Paraboni URSI Review of Radio Science 1981-1983
|
|
62)
A contribution of radiopropagation research to radiocommunications development: prediction of attenuation due to rain
F. Fedi Relazione FUB 1C0384 Pubblicata suIEEE International Conference on Communications, Amsterdam, 1984
|
|
63)
Progetto di partecipazione coordinata a livello nazionale agli esperimenti di propagazione con i satelliti OLYMPUS ed ITALSAT
F. Fedi, A. Paraboni Relazione FUB 1C2784. "L'Elettrotecnica" Vol. LXXII, n. 7, luglio 1985
|
|
64)
Quadro di riferimento per lo sviluppo della Fondazione Bordoni nel quinquennio 1986-1990
F. Fedi Relazione FUB 0A0785
|
|
65)
Italian participation to the Olympus and Italsat propagation experiments: impact on direct broadcasting
F. Fedi, A. Paraboni Relazione FUB 1C0185. 32° RIENA, Congresso Scientifico Internazionale per l'Elettronica Roma, marzo 1985
|
|
66)
Italian participation to the Olympus and Italsat experiments
F. Barbaliscia, E. Damosso, F. Fedi, A. Martinelli, A. Paraboni Relazione FUB 1C3585 Note, Recensioni, Notizie - Vol. 35° n. 1 gennaio-marzo 1986 pp. 23-28
|
|
67)
Project COST 205: Influence of the atmosphere on Earth-satellite radiopropagation at frequencies above 10 GHz
F. Fedi Relazione FUB 1C4585 "Alta Frequenza" (Special issue), Vol. LIV, N. 3, maggio-giugno 1985
|
|
68)
Fondazione "Ugo Bordoni": passato, presente, futuro
F. Fedi Relazione FUB 0A0186
|
|
69)
Research Activities in Europe on Radiopropagation Above 10 GHz
F. Fedi Relazione FUB 0C0586 (Invited paper) Asia-Pacific Microwave Conference, New Delhi, febbraio 1986
|
|
70)
Progetto di partecipazione italiana agli esperimenti di propagazione OLYMPUS-ITALSAT
F. Fedi Relazione FUB 0A0986
|
|
71)
Relazione sull'attività svolta dalla Fondazione "Ugo Bordoni" nel 1985
F. Fedi Relazione FUB 0B1286
|
|
72)
L'elettronica e Marconi: passato, presente e futuro
F. Fedi Relazione FUB 0C1786
|
|
73)
La Fondazione "Ugo Bordoni" e la formazione dei ricercatori
F. Fedi Relazione FUB 0C2186 XXXIV Convegno Internazionale delle Comunicazioni, Genova, ottobre 1986
|
|
74)
Relazione sull"attività svolta dalla Fondazione "Ugo Bordoni" nel 1986
F. Fedi Relazione FUB 0A0487
|
|
75)
European Results on Radiopropagation above 10 GHz for Terrestrial and Satellite Links
F. Fedi Relazione FUB 0D1187 (Invited paper) International Microwave Symposium, Rio de Janeiro, July 1987
|
|
76)
URSI Commission F Scientific Sessions for the XXII General Assembly
F. Fedi Relazione FUB 0A1487 XXII URSI General Assembly, Tel Aviv, 1987
|
|
77)
La propagazione delle onde radio a 50 anni dalla morte di Guglielmo Marconi
F. Fedi Relazione FUB 0D2787 Manifestazioni celebrative 50° anniversario della morte di G. Marconi, Pontecchio Marconi, Luglio 1987
|
|
78)
A new prediction method for attenuation beyond 10 GHz based on a model of raincells characterized by exponential shape"
F. Fedi, A. Paraboni Proc. URSI Comm. F Symposium, Durham, USA, 1986
|
|
79)
Data and theory for a new model of the horizontal structure of rain cells for propagation applications
C. Capsoni, F. Fedi, C. Magistroni, A. Paraboni, A. Pawlina Radio Science, Volume 22, Number 3, Pages 395-404, May-June 1987
|
|
80)
A comprehensive meteorologically oriented methodology for the prediction of wave propagation parameters in telecommunication applications beyond 10 GHz
C. Capsoni, F. Fedi, A. Paraboni Radio Science, Volume 22, Number 3, Pages 387-393, May-June 1987
|
|
81)
Opening address for the 17th European Microwave Conference '87
F. Fedi Relazione FUB OD3387 Poste e Telecomunicazioni, Vol. 6, Novembre-Dicembre 1987, pp. 7-16
|
|
82)
Applications of Microwaves: Present and Future
F. Fedi Relazione FUB 0C3587 Alta Frequenza, Vol. LVI, n. 10, December 1987, pp. 369-372
|
|
83)
La Fondazione Ugo Bordoni
F. Fedi Relazione FUB 0A2788
|
|
84)
Attività 1987
F. Fedi Relazione FUB 0B2988
|
|
85)
Pubblicazioni FUB 1987
F. Fedi Relazione FUB OB3088 "Volumetti" - Raccolta delle pubblicazioni 1987
|
|
86)
La Fondazione Ugo Bordoni: Origine ed evoluzione della sua struttura di ricerca
F. Fedi Poste e Telecomunicazioni N. 5/88 pp. 32-35
|
|
87)
Venti anni di progetti COST
F. Fedi, A. Vighi Poste e Telecomunicazioni n. 6/88 pp. 38-45
|
|
88)
Pubblicazioni FUB 1988
F. Fedi Relazione FUB 0B2289 "Volumetti" - Raccolta delle pubblicazioni 1988
|
|
89)
Attività 1988
F. Fedi Relazione FUB 0A2489
|
|
90)
La propagazione delle onde radio nelle telecomunicazioni intercontinentali
F. Fedi Relazione FUB 0C2689 Poste e Telecomunicazioni n. 5/89, pp. 35-42
|
|
91)
Propagazione delle onde e.m. nelle telecomunicazioni intercontinentali
F. Fedi Relazione FUB 0D3089 Convegno "Telecomunicazioni Intercontinentali" in occasione della Giornata di Marconi - Bologna/Canada, San Marino 1989
|
|
92)
Origini e sviluppo della crittologia
F. Fedi, O. Brugia Relazione FUB 0T3289 Poste e Telecomunicazioni n. 1/1990, pp. 10-13
|
|
93)
Un anno di Ricerca Scientifica
F. Fedi Relazione FUB 0C3389 Poste e Telecomunicazioni n. 4/89, pp. 30-34
|
|
94)
Reti e Servizi a Larga Banda
F. Fedi, W. Maggi Relazione FUB 0C3489 Poste e Telecomunicazioni n. 1/89, pp.31-36
|
|
95)
Pubblicazioni FUB 1989
F. Fedi Relazione FUB 0B1990 "Volumetti" - Raccolta delle pubblicazioni 1989
|
|
96)
Attività 1989
F. Fedi Relazione FUB 0A2290
|
|
97)
Il colloquio uomo-macchina
Fedi F., Paoloni A. Relazione FUB: 0C2690 Poste e Telecomunicazioni n. 2/90, pp. 10-19
|
|
98)
Ricerca scientifica, un anno di attività
Fedi, F. Relazione FUB: 0C2790 Poste e Telecomunicazioni n. 4/90, pp. 12-17
|
|
99)
I Fattori Umani nei sistemi per la comunicazione
Fedi, F., Orlando, A. Relazione FUB: 0C2890 Poste e Telecomunicazioni n. 5/90, pp. 15-24
|
|
100)
L'Unione Internazionale delle Telecomunicazioni: Intervista al Prof. Francesco Fedi
Fedi, F., Alaia, V. Relazione FUB: 0C2990 Poste e Telecomunicazioni n. 3/90, pp. 6-12
|
|
101)
Il programma italiano di esperimenti di propagazione con i satelliti OLYMPUS ed ITALSAT
Fedi, F. Relazione FUB: 0C00191 Poste e Telecomunicazioni n. 1/91 pp 8-17
|
|
102)
Programma ITALSAT: l’esperimento di propagazione
Fedi, F., Paraboni, A., Martinelli, A., Vincenti A. Relazione FUB: 0C00291 Rivista Tecnica Selenia, ultimo numero speciale
|
|
103)
Le tecnologie elettroottiche nelle telecomunicazioni
Fedi, F., Relazione FUB: 0D02891 Tavola Rotonda “Le tecnologie elettroottiche: la ricerca e lo sviluppo in Italia e all’estero”. Convegno CNR su “Sistemi laser per l’Industria, l’Ambiente e la Medicina”; Roma giugno 1991
|
|
104)
L’Unione internazionale delle telecomunicazioni di domani: le sfide del cambiamento
Fedi, F., Relazione FUB: 0C02991 Poste e Telecomunicazioni n. 5/91 pp. 10-18
|
|
105)
Attività 1990
Fedi, F., Relazione FUB: 0A02491
|
|
106)
Pubblicazioni FUB 1990
Fedi, F., Relazione FUB: 0B00391 “Volumetti” - Raccolta delle pubblicazioni 1990
|
|
107)
Attività 1991
Fedi, F., Relazione FUB: 0B00492
|
|
108)
Pubblicazioni FUB 1991
Fedi, F., Relazione FUB: 0B00592 “Volumetti” - Raccolta delle pubblicazioni 1991
|
|
109)
L’Uomo, la macchina, la voce
Fedi, F., Relazione FUB: 0C02692 Poste e Telecomunicazioni, n. 2/92, pp. 24-25
|
|
110)
Un anno di ricerca scientifica alla Fondazione Bordoni
Fedi, F., Relazione FUB: 0C02792 Poste e Telecomunicazioni n. 3/92. pp. 22-28
|
|
111)
Pubblic research in the Telecommunication field in Italy: the Ugo Bordoni Foundation
Fedi, F., Relazione FUB: 0D02992 AEI Seminar on “Research and Development of Telecommunications in Europe”, Palermo, 1-2 giugno 1992
|
|
112)
1952-1992 La Fondazione Ugo Bordoni compie 40 anni
Fedi, F., Relazione FUB 0C03092 Poste e Telecomunicazioni n. 4/92, pp 6-12
|
|
113)
Annual Review 1991
Fedi, F., Relazione FUB 0A03392
|
|
114)
La Fondazione Ugo Bordoni e le Comunicazioni Personali
Fedi, F., Relazione FUB: 0B03592
|
|
115)
COST: Cooperazione europea nella ricerca scientifica e tecnica
Fedi, F., Relazione FUB: 0C03692 Poste e Telecomunicazioni, n. 6/92, pp. 15-22
|
|
116)
Pubblicazioni FUB 1992
Fedi, F., Relazione FUB 0B03892 “Volumetti” - Raccolta delle pubblicazioni 1992
|
|
117)
Attivita' 1992
Fedi, F., Relazione FUB: 0B00493
|
|
118)
Welcome address
Fedi, F., Relazione FUB: 0D00593 Symposium on: State and Progress of Research in Cryptography, Roma, 15-16 February 1993
|
|
119)
Annual Review 1992
Fedi, F., Relazione FUB: 0B00693
|
|
120)
L'UIT di domani
Fedi, F., Relazione FUB: 0B00793 Rivista Radio e DataCommunication n.19/93
|
|
121)
La Fondazione Ugo Bordoni ed il riassetto del settore delle Telecomunicazioni in Italia
Fedi, F., Relazione FUB: 0B00893 Rivista "Modem & Telecomunicazioni" n. 8/1993 pp. 6-11
|
|
122)
programmatiche delle attività di ricerca della Fondazione Ugo Bordoni
Fedi, F., Relazione FUB: 0A00993
|
|
123)
Un anno di ricerca scientifica alla Fondazione Bordoni
Fedi, F., Relazione FUB: 0C01093 Rivista Poste e Telecomunicazioni n. 5/1995 pp 8-16
|
|
124)
Pubblicazioni FUB 1993
Fedi, F., Relazione FUB: 0B01193 "Volumetti" - Raccolta delle pubblicazioni 1993
|
|
125)
Diffusione risultati FUB
Fedi, F., Carnevale, M. Relazione FUB: 0A00394
|
|
126)
Un anno di ricerca scientifica alla Fondazione Bordoni
Fedi, F., Relazione FUB: 0C00694 Poste e Telecomunicazioni n. 3/94 pp 24-32
|
|
127)
Annual Review 1993
Fedi, F., Relazione FUB: 0B00794
|
|
128)
Pubblicazioni FUB 1994
Fedi, F., Relazione FUB: 0B00894 "Volumetti" - Raccolta delle pubblicazioni 1994
|
|
129)
Attivita' 1994
Fedi, F., Relazione FUB: 0B00495
|
|
130)
Annual Review 1994
Fedi, F., Relazione FUB: 0B00595
|
|
131)
L'area di Roma verso la società dell'informazione
Fedi, F. Relazione FUB: 0A00695
|
|
132)
La Fondazione Ugo Bordoni verso il nuovo millennio
Fedi, F., Relazione FUB: 0C00795 TELEMA n. 1,1995 pp. 74-79
|
|
133)
COST - From Television to the Multimedia Environment of the Global Information Society
Fedi, F., Relazione FUB: 0D00895 Conference on "Communication: Technology, Economy, Culture" Engelberg, 21-24 March 1995
|
|
134)
Un laser celebra Guglielmo Marconi
Fedi, F., Relazione FUB: 0D01095 Intervista al Prof. Fedi a "Lineablu - Speciale Marconi" TV-RAI 1 - 30 Marzo 1995
|
|
135)
Networked Multimedia Information Retrieval and Reuse
Fedi, F. Relazione FUB: 0D01195 Intervento alla giornata di studio "Networked Multimedia Information Retrieval and Reuse", Frascati, 14 Marzo 1995
|
|
136)
La ricerca come strumento pubblico per indirizzare verso soluzioni tecnologiche aperte e di mercato
Fedi, F. Relazione FUB: 0D01295 Lezione Marconi "Monopolio legale e monopolio naturale: crisi ed evoluzione di istituti giuridici e presupposti tecnologici", Ministero PT, 26 giugno 1995
|
|
137)
Il contributo dei fattori umani alla diffusione del Telelavoro
Fedi, F. Relazione FUB: 0C01395 TELEMA n. 2, 1995 pp. 55-53
La tecnologia informatica è più veloce della capacità di apprenderla e usarla. Bisogna fare i conti anche con le resistenze al cambiamento, le incompatibilità psicologiche, i disagi ambientali. La Fondazione Bordoni sta compiendo una ricerca per capire come superare queste inerzie strutturali e culturali.
Fino a qualche anno fa l'introduzione delle tecnologie informatiche nelle organizzazioni veniva indicata con il termine generico di automazione d'ufficio. In seguito, ha preso sempre più corpo una prospettiva diversa, sempre fondata sull'automazione delle procedure ma a vantaggio dei sistemi che privilegiano la comunicazione in rete e il lavoro cooperativo, denominati sistemi groupware.
La tecnologia usata da questi nuovi sistemi si prefigge l'obiettivo di salvare e riproporre le dinamiche di gruppi, di solito precostituiti, ma anche dell'organizzazione nel suo complesso, attraverso l'introduzione di nuove modalità di comunicazione. La tecnologia su cui si basa si può definire di supporto alla cooperazione e deve essere inquadrata in un modello concettuale che lega reciprocamente lavoro, persone e strumenti.
Il telelavoro rappresenta uno dei punti di arrivo del processo di introduzione di tecnologie innovative nelle organizzazioni. Rispetto ai sistemi precedenti, può introdurre maggiore flessibilità organizzativa, ridurre sia i costi di spostamento delle persone sia quelli immobiliari delle organizzazioni e può avere ricadute positive su qualità del lavoro, produttività individuale e organizzativa, motivazioni personali e vita familiare. Come per tutte le applicazioni, anche per il telelavoro la sfida principale è rappresentata dal modo di introdurre e pianificare la nuova tecnologia negli ambienti di lavoro. In particolare, si rende necessaria un'azione volta a superare le inerzie culturali di dirigenti, quadri, lavoratori e, più in generale, di tutte le istituzioni centrali e periferiche, di fronte al processo innovativo.
Fra i maggiori ostacoli all'introduzione del telelavoro ha un posto di rilievo la scarsa conoscenza da parte del management delle metodologie di pianificazione e di organizzazione del telelavoro stesso. L'analisi delle modalità con cui scegliere la tecnologia più adeguata, selezionare i telelavoratori e predisporre la loro formazione assume il ruolo di variabile chiave in tutte le sperimentazioni che vengono progettate ed effettuate in questo campo.
E' probabile che i motivi di tutto ciò siano legati a una certa ambiguità della definizione di telelavoro usata nei contesti organizzativi più diversi e con riferimento a tecnologie che vanno dal telefono alle stazioni di lavoro collegate in rete. Se per telelavoro si intende lavoro a distanza svolto con l'ausilio delle tecnologie telematiche1, risulta evidente che vi possono essere differenti configurazioni di telelavoro a partire dai compiti che possono essere svolti a distanza e dalle tecnologie disponibili: dalle soluzioni più semplici basate su personal computer, modem e rete commutata a quelle più evolute basate su stazioni di lavoro e reti di telecomunicazioni a larga banda. Ogni configurazione possibile richiederà pertanto un'analisi particolare per introdurre e utilizzare il telelavoro presso le differenti strutture organizzative.
Occorre tenere ben presenti, inoltre, i rischi che comunque e sempre accompagnano i processi di innovazione tecnologica e organizzativa, tanto più se il mutamento tende a coinvolgere parti consistenti dell'organizzazione sociale nell'ambito della vita di lavoro e di non lavoro. Nel caso del telelavoro, uno dei rischi potrebbe essere la perdita di controllo delle leve che regolano l'equilibrio tra la logica di esternazione appartenente all'imprenditoria e la logica di fare corpo sociale, che è un diritto di tutti perchè crea e conserva valori sociali 2.
Uno strumento essenziale per affrontare i vari aspetti sopra richiamati proviene dall'area disciplinare nota come fattori umani e dalle metodologie e tecniche in essa elaborate. L'origine di questo approccio è legato all'evoluzione tecnologica. Per tutti gli anni Ottanta si pensava che ogni tecnologia informatica avrebbe creato automaticamente il proprio mercato; di conseguenza la ricerca, senza preoccuparsi delle effettive necessità dell'utenza, ha puntato soprattutto al miglioramento tecnologico in quanto tale, creando così un notevole divario tra disponibilità tecnologica e uso effettivo.
Il fallimento di molte esperienze di informatizzazione negli Usa e in Europa ha portato in primo piano la necessità di condurre un esame critico dei metodi con cui le tecnologie vengono scelte e introdotte nelle realtà lavorative. Pertanto, nella comunità scientifica politecnica (ingegneri elettronici, informatici, progettisti) un'attenzione crescente è stata dedicata agli studi sui fattori umani. Questi studi proponevano un approccio interdisciplinare, in cui coesistevano le tre aree di conoscenza: politecnica, bio-medica e sociale. Essi sottolineavano inoltre la necessità di studiare l'usabilità dei prodotti informatici e, più in particolare, i suoi tre aspetti principali:
- gli aspetti legati alle prestazioni umane effettuate con le nuove tecnologie (ad esempio l'accuratezza e l'efficacia nell'eseguire un particolare compito lavorativo, il grado di conoscenza richiesta nell'operare con l'apparato, il tasso di errore nell'utilizzo, ecc);
- gli aspetti connessi con lo stato fisico, affettivo e mentale dell'utilizzatore (come ad esempio la fatica muscolare od oculare, la confidenza con lo strumento utilizzato, lo sforzo mentale richiesto nell'uso degli apparati, il grado di motivazione, le aspettative, ecc);
- gli aspetti comunicativi (ad esempio i protocolli di comunicazione, il ruolo dei messaggi non verbali, il clima organizzativo, ecc).
I risultati di questi studi sono lo strumento più efficace per avvicinare la tecnologia all'utenza; per tenere conto, cioè, dei bisogni del mercato e degli utenti nella progettazione e nella realizzazione di sistemi innovativi basati sull'informatica e sulle telecomunicazioni, contribuendo così al successo delle tecnologie introdotte nelle organizzazioni. Solo introducendo sistemi e servizi usabili da parte dell'utenza finale si può infatti contribuire in modo determinante al loro utilizzo, superando eventuali resistenze e possibili rifiuti. La Fondazione Ugo Bordoni ha condotto una serie di studi sui fattori umani nel campo dell'automazione d'ufficio e in quello dei sistemi groupware e della teleconferenza. Attualmente sta cercando di trasferire le conoscenze così acquisite al campo del telelavoro.
Gli studi sono stati impostati tenendo presente che il processo di introduzione del telelavoro:
- è un processo sociale che investe una pluralità di attori con interessi specifici e rapporti quasi sempre diversi con le realtà imprenditoriali: capi, progettisti interni, utenti diretti e indiretti del sistema, progettisti esterni, società di consulenza, amministrazioni centrali e locali;
- è un processo di mutamento organizzativo, che comporta una rivoluzione culturale di ogni singola cellula delle organizzazioni e delle strutture comunicative complessive;
- è un processo che si avvale della continua evoluzione della tecnologia. L'evoluzione dell'hardware e del software, la sua duttilità, la varietà delle possibili soluzioni offerte sono tali da far superare brillantemente i vari problemi funzionali che si possono presentare;
- produce effetti globali e pervasivi, per cui ogni dimensione del lavoro può risultare modificata, sia pure in misura diversa: quella ergonomica tradizionale (ambiente fisico di lavoro, effetti sulla salute fisica degli operatori, caratteristica della rete di trasmissione), quella relativa alla capacità di risolvere problemi (maggiore o minore chiarezza degli obiettivi e delle alternative, maggiore o minore difficoltà nell'eseguire i compiti), quella del controllo (sugli uomini, sugli oggetti, sui flussi informativi, sulla conflittualità);
- deve essere considerato all'interno di un'ottica complessiva in cui, oltre agli aspetti tecnologici (hardware, software, reti, compatibilità, ecc) devono essere considerati, con crescente attenzione, gli aspetti di ingegneria dell'usabilità (usability engineering), in particolare i contenuti di carattere psicologico e socio-organizzativo (interazioni informali, aspettative, resistenza al cambiamento). In questa nuova ottica, gli aspetti più rilevanti da considerare sono: i compiti del telelavoratore; gli utenti diretti e indiretti del telelavoro; le caratteristiche delle tecnologie introdotte; le unità organizzative in cui vengono introdotte le forme di telelavoro; le strategie di monitoraggio e valutazione delle innovazioni introdotte. Soltanto attraverso un approccio di tipo globale è possibile analizzare gli effetti sulla struttura delle organizzazioni, sulle resistenze al cambiamento (sia dei singoli sia dei gruppi), sui ruoli professionali, sul contenuto del lavoro, sulle capacità decisionali, sulle interazioni tra gruppi, sull'ambiente fisico di lavoro;
- deve avvenire in un contesto di assoluta chiarezza e correttezza di rapporti fra management e lavoratori 3. Infatti, il termine stesso flessibilità, cui si deve in gran parte il successo del telelavoro almeno come numero di iniziative scientifiche e culturali sorte intorno a esso, può essere inteso sia come forma di elasticità dell'organizzazione del lavoro e del suo mercato, sia come pura e semplice deregolamentazione o cancellazione di alcune regole di tutela e sicurezza;
- deve assicurare un adeguato coinvolgimento di tutti gli attori. A questo proposito è di grande importanza, nelle realtà organizzative, la formazione di gruppi di lavoro in grado di fornire assistenza agli utenti e assicurare continui feedback con gli utilizzatori finali delle tecnologie introdotte. Inoltre, l'esistenza nelle organizzazioni di flussi di comunicazioni informali condiziona fortemente il modo in cui sono svolte le procedure lavorative e produce una serie di scostamenti e aggiustamenti rispetto ai consueti iter procedurali che contribuiscono al normale svolgimento dell'attività lavorativa. Questa circostanza incide negativamente sull'effettiva utilizzazione delle tecnologie introdotte nelle organizzazioni, con l'ovvia conseguenza di una serie di sprechi di risorse e di disfunzioni;
- deve partire da un'accurata analisi dei compiti e delle caratteristiche dei telelavoratori sia diretti (che svolgono la loro attività a distanza, a casa o presso un telecentro) sia indiretti (che svolgono la loro attività presso la sede abituale di lavoro e interagiscono con i telelavoratori diretti). La cultura organizzativa dei telelavoratori diretti e indiretti, la loro capacità tecnica di recepire la strumentazione elettronica, la loro precedente esposizione a interazioni formali o informali di tipo burocratico condizionano il successo e gli esiti dei nuovi sistemi informativi;
- deve assicurare un continuo processo di mediazione e contrattazione. Infatti, la resistenza al cambiamento imposto dalla tecnologia sia da parte dei singoli sia dall'organizzazione nel suo complesso può essere vinta solo attraverso una forte azione in questa direzione. Le aspettative, specie quelle socialmente condivise, rappresentano a questo proposito importanti variabili di mediazione capaci di accelerare o di frenare le scelte innovative;
- deve avere la capacità di liberare le potenzialità creative dei lavoratori. Esiste nelle tecnologie informatiche una intrinseca dimensione ludica, trascurata dai "policy makers" ma fondamentale per la sua accettazione e per il suo uso "liberatorio". Questa dimensione presiede alla disalienazione procurata dai processi di informatizzazione e può costituire, se correttamente valorizzata, uno dei suoi punti di forza nel lavoro post- industriale che ha al primo posto l'espressività;
- deve assolutamente evitare che l'esperienza stessa di telelavoro si risolva in un non-evento. Le attese nei confronti delle tecnologie telematiche, il loro fascino quotidianamente esaltato dai mass media come allentamento dei vincoli spazio-temporali, la sensazione di modernità a esse connesse, forniscono una leva preziosa sia per una maggiore efficienza organizzativa dei sistemi sociali sia per il miglioramento complessivo della qualità della vita di lavoro. Perdere questi vantaggi, ridimensionarli con una errata messa in opera, non solo costituisce un inutile spreco economico ma crea nel management e nei lavoratori una diffidenza verso il telelavoro destinata a influire negativamente sull'accettazione dei cambiamenti e sull'introduzione di tecnologie innovative.
La Fondazione Ugo Bordoni ha in corso due sperimentazioni centrate sul processo di introduzione e implementazione del telelavoro.
La prima, denominata TelFUB, è svolta in collaborazione con S3-Acta Srl. Ha l'obiettivo di studiare le modalità di introduzione del telelavoro in un istituto di ricerca come la Fondazione Bordoni. Il progetto nasce per rispondere a una mancanza di dati sperimentali, almeno in Italia, su esperienze di telelavoro in cui si faccia uso congiunto di molte delle tecnologie attualmente disponibili (posta elettronica, file transfer, comunicazione video, software per la condivisione di programmi applicativi, ecc). In particolare, vengono approfonditi i seguenti aspetti, considerati cruciali in vista dell'introduzione operativa del telelavoro:
- l'usabilità della postazione e del sistema telematico configurato ad hoc per ogni telelavoratore;
- la rispondenza dei media di comunicazione adottati rispetto alle esigenze e alle aspettative operative dei telelavoratori;
- l'effetto dell'isolamento, anche se riprodotto per brevi archi temporali in laboratorio;
- l'efficacia della nuova modalità relazionale che si instaura tra telelavoratori diretti e indiretti;
- l'efficacia del sistema di reperimento e scambio delle informazioni;
- l'efficacia del sistema di controllo (management) sull'orientamento e sul raggiungimento degli obiettivi di lavoro o del risultato;
- l'efficacia di strumenti per la cooperazione in rete (tempo reale e tempo differito);
- la soddisfazione del telelavoratore.
La seconda sperimentazione, svolta in collaborazione con Innova International Srl (coordinatore del progetto), DS Graphic & Engineering Srl e S3 Acta Srl all'interno del progetto Rome Trade (Traffic decongestion), rientra nel progetto di decentramento amministrativo che verrà attuato a Roma, come è illustrato nell'articolo di Enrique de la Serna e Alessandra Magrini 4.
La Fondazione collabora agli sviluppi teorici di questo progetto ed è responsabile della parte relativa alla sperimentazione di laboratorio con il compito di:
- valutare la fattibilità e l'efficacia del telelavoro presso alcune unità organizzative del comune di Roma;
- valutare l'usabilità del sistema tecnologico (hardware, software e rete di telecomunicazione) utilizzato nella sperimentazione di telelavoro;
- valutare l'efficacia delle sessioni di telelavoro (ad esempio misurando l'accuratezza nell'eseguire a distanza un certo compito lavorativo);
- individuare la configurazione ottimale, dal punto di vista ergonomico, degli apparati utilizzati dal telelavoratore; - individuare i protocolli di comunicazione più idonei alla situazione di telelavoro.
In entrambe le sperimentazioni le valutazioni dell'usabilità (variabile fondamentale per la decisione di introdurre o meno le nuove tecnologie nelle realtà organizzative) sono effettuate presso i locali della Fondazione, dove è stato allestito un laboratorio per lo studio dei fattori umani in situazioni di teleattività e, più in particolare, per le applicazioni di telelavoro e teledidattica.
Il laboratorio consente, da un lato, di emulare le principali funzioni dell'applicazione oggetto di studio attraverso un sistema flessibile di tipo hardware e software; dall'altro, di valutare l'usabilità dell'applicazione utilizzando un campione di utenti potenziali. Il laboratorio è costituito da sei locali organizzati in stanze contigue isolate acusticamente: una sala principale, tre salette, una sala regia e una sala controllo. In particolare:
- la sala principale e le tre salette corrispondono ad altrettante località remote; da ciascuna di esse è possibile comunicare utilizzando segnali audio e video e una connessione via computer. Ciascuna postazione è dotata sia degli apparati necessari per la comunicazione (telecamere, monitor, tastiera, stampante, opportuno software per la computer conferenza) sia degli apparati necessari per raccogliere i dati sull'usabilità e l'accettabilità (per esempio il software per la raccolta automatica delle opinioni degli utenti e le telecamere per la ripresa del loro comportamento durante le sessioni). La sala principale, dotata di apparati più sofisticati rispetto alle altre, permette alcune funzioni addizionali per il controllo del segnale video in uscita (zoom, brandeggio, fuoco, ecc) e per la trasmissione di documenti, lucidi, diapositive;
- la sala regia ha tre funzioni principali: commutare i segnali audio e video; selezionare la configurazione di sistema da utilizzare durante la sessione in termini di flussi audio e video; permettere la videoregistrazione delle informazioni sul comportamento degli utenti;
- la sala controllo ha, infine, la funzione di gestire il sistema informatico e in particolare le funzioni di posta elettronica e di elaborazione dei dati sulle opinioni degli utenti durante le sessioni. A partire dagli apparati (personal computer, stazioni di lavoro, telecamere, microfoni e monitor) e dai collegamenti disponibili (rete audio, rete video, rete telefonica e rete Ethernet) è possibile emulare e studiare differenti configurazioni di sistemi e di servizi per il telelavoro.
Le sperimentazioni sono orientate allo studio di situazioni di telelavoro in cui si faccia uso di apparati tecnologici evoluti (stazioni di lavoro connesse con rete a larga banda) e che siano in grado di assicurare ai telelavoratori un livello di interattività più elevata di quella sinora ottenibile. Esse sono condotte principalmente in laboratorio dove, in ogni singolo ambiente, i telelavoratori potenziali possono avere a disposizione una stazione di lavoro multimediale con cui è possibile:
- utilizzare la teleconferenza tra due o più interlocutori;
- accedere alle risorse di rete;
- condividere strumenti e programmi applicativi per il lavoro cooperativo anche in tempo reale.
In ogni singola stazione di lavoro, pertanto, sarà possibile svolgere lavoro cooperativo su una lavagna o su un documento condiviso e, allo stesso tempo, essere collegati in audio e video con tutti gli altri interlocutori.
Il laboratorio sarà tra breve dotato di quattro stazioni di lavoro Sun, di una rete Ethernet a 100 Mbit/s e di una rete Isdn interna a tutti gli ambienti. I risultati della ricerca saranno integrati con quelli di esperimenti analoghi in corso in altri Paesi d'Europa e negli Stati Uniti. Ne potranno venire, così, utili indicazioni per la riduzione del traffico e dell'inquinamento a Roma e in qualsiasi altra grande città.
Note
1 La definizione è in sintonia con quella fornita dall'Ufficio internazionale del lavoro (1990) secondo cui «il telelavoro è una forma di lavoro effettuato in luogo distante dall'ufficio centrale o dal centro di produzione e che implichi una nuova tecnologia che permetta la separazione e faciliti le comunicazioni».
2 Sui pericoli che corre la socializzazione di fronte alle possibili applicazioni del telelavoro si veda De Rita: attenzione si rischia l'isolamento. di Andrea Scazzola.
3 Per i problemi legati alla tutela giuridica del telelavoratore si veda E' necessario, subito, un altro (tele)statuto di Gino Giugni.
4 Si veda Roma farà da cavia con un micro-comune di E. de la Serna e A. Magrini.
Riferimenti bibliografici
M. Cornacchia, Setting-up networking environment in human factors laboratory, in Proceedings of the twelfth Iasted international conference - Applied informatics, Annecy, France, May 1994.
C. Ellis e J. Wainer, A conceptual model of groupware, in Proceedings of Acm 1994 conference on computer supported cooperative work, Chapel Hill, North Carolina, Usa, 1994.
L. Gaeta, P. Manacorda e R. Rizzo (a cura di), Telelavoro - L'ufficio a distanza, Ediesse, Roma, 1995.
W.B. Korte, N. Kordey e S. Robinson, Telework in Europe - Penetration, potential and practice, lavoro presentato alla conferenza Teleworking in Europe, Bruxelles, gennaio 1995.
G. Matarazzo, Storia ed attività del Gruppo Fattori Umani della Fondazione Ugo Bordoni, Automazione Energia Informazione, Febbraio 1995.
Metron-Rst, Caratteri e dimensioni del telelavoro. Dalla sperimentazione al mercato, Telecom Italia, dicembre 1994.
A. Nikov, G. Matarazzo e A.Orlando, A Methodology for Human Factors Analysis of Office Automation Systems, "Technological forecasting and social change", 44, 2, 1-xx, 1993.
J. Nilles, Making Telecommuting Happen - A guide for telemanagers and telecommuters, International Thomson publishing, VNR (Van Nostrand Reinhold) computer library, 1994.
A. Orlando (a cura di), Cost 212 - Human factors in Information Services, Final Report, Commission of the european community, Bruxelles, 1992.
G. Scarpitti e D. Zingarelli (a cura di), Il telelavoro - Teorie e applicazioni, F. Angeli, Milano, 1993.
|
|
138)
From Marconi to the Global Information Society
Fedi, F., Relazione FUB: 0D01495 Marconi Symposium on Cooperative Research for Building the Global Information Society, Heinrich Hertz Institute, Berlin 26 October 1995
|
|
139)
The Role of Italy in International Organization in the field of Radiopropagation
Fedi, F., Relazione FUB: 0D01595 Symposium on "Italian Propagation Day", Ministero delle Poste e delle Telecomunicazioni, Roma 9 October 1995
|
|
140)
La Rete Unitaria per la Pubblica Amministrazione: un'occasione per la Regione Campania
Fedi, F., Relazione FUB: 0D01695 Convegno "La Campania verso la Società della Comunicazione Globale", Napoli Castel dell'Ovo, 27 Ottobre 1995
|
|
141)
La sperimentazione sul telelavoro presso la Fondazione Ugo Bordoni
Fedi, F., Relazione FUB: 0B01795
|
|
142)
Le Amministrazioni Pubbliche verso la società multimediale
Fedi, F., Relazione FUB: 0D01895 Conferenza nazionale "Le Amministrazioni Pubbliche verso la società multimediale organizzazione, tecnologie ed opportunità”, Roma, 25-26 maggio 1995
|
|
143)
Dalla Televisione alla Società dell'Informazione
Fedi, F., Relazione FUB: 0C01995 TELEMA, n. 3, 1995 pp. 18-22
Non ci saranno più telespettatori passivi ma utenti interattivi che avranno a disposizione un gran numero di canali e gli strumenti per dialogare . Potremo ricevere fino a cento programmi. Dal teleschermo guarderemo un mondo a tre dimensioni simile a quello reale. Cavo e satellite: questo il futuro della Tv.
Oggi nelle nostre case riceviamo la cosiddetta"televisione standard". In Italia si usa il sistema Pal, ma esistono altri due sistemi utilizzati nel mondo: l'Ntsc negli Usa e il Secam nei Paesi francofoni. Non essere riusciti ad avere un solo sistema in tutto il mondo è stata una delle maggiori sconfitte degli Organismi internazionali di normativa.
Il televisore, che troneggia in una o più stanze delle nostre abitazioni, ha uno schermo più o meno quadrato, con un rapporto tra base e altezza di quattro terzi. Ciò significa che la base è il 30 per cento più lunga dell'altezza. La dimensione dello schermo si misura attraverso la lunghezza della diagonale espressa in pollici. A una distanza di 3 metri l'angolo di visione è di circa 10 gradi. La presentazione dell'immagine avviene attraverso la scansione del pennellino elettronico del tubo a raggi catodici che descrive, nel sistema Pal, 625 linee ogni quadro. Il quadro viene aggiornato ogni 40 millisecondi.
La televisione oggi viene ricevuta sostanzialmente in tre modi. Il primo, attraverso le reti radio terrestri. Il segnale emesso dal ripetitore viene ricevuto con la selva di antenne che vediamo sui nostri palazzi: sono le antenne Yagi-Uda, dal nome dei professori giapponesi che le inventarono negli anni '30 non immaginando che avrebbero, involontariamente, contribuito a deturpare il paesaggio di molte nostre città. Questo è sicuramente il modo in cui in Italia si riceve più diffusamente la televisione. Ma con sempre maggiore frequenza vediamo sulle nostre terrazze le parabole, con cui si può ricevere direttamente la televisione attraverso il satellite: questo è il secondo modo. Il terzo modo per ricevere la televisione è attraverso il cavo, la cosiddetta Catv.
Oggi in Italia la ricezione attraverso le reti radio terrestri è la più diffusa. Non mi soffermerò su questo punto perché tutti i giornali parlano di questo argomento ormai da molto tempo. Vorrei solo sottolineare che attraverso le reti dei concessionari pubblici, le reti dei concessionari privati e le oltre 870 emittenti locali abbiamo in Italia più di 20.000 impianti trasmittenti, che rappresentano oltre il 40% di tutti gli impianti radio trasmittenti esistenti in Europa. Proprio in questo consiste la atipicità italiana, cioè nell' uso massiccio del mezzo radio terrestre e nello scarso uso del cavo e del satellite.
Per quanto riguarda la radiodiffusione diretta da satellite, a tutt'oggi l'Italia non ha un suo satellite per radiodiffusione. Nel giugno del '91 fu costituita, nell'ambito del Consiglio superiore delle poste, telecomunicazioni e automazione, una commissione, che ebbi l'onore di presiedere, per lo studio della diffusione diretta da satellite da introdurre nel nostro Paese. Nel novembre del '91 la Commissione si espresse a favore del satellite italiano Sarit come alternativa al satellite europeo Europsat. Purtroppo questo suggerimento non fu recepito da alcuno. Nel '93 il problema sembrò riemergere: sembrava che si volesse lanciare un satellite italiano con il nome di Guglielmo Marconi, ma anche questa iniziativa non ebbe seguito.
Attualmente in Europa ci sono circa 130 canali via satellite ed il numero degli utenti varia molto da Paese a Paese. In alcuni Paesi sono molto più numerosi che in Italia. Vanno dai 4 milioni in Gran Bretagna ai 6 milioni in Germania: in Italia, alla fine dello scorso anno, erano solo circa 200.000, ma entro due anni si calcola che saranno almeno un milione. E questo per tre motivi sostanziali. Da una parte il costo delle apparecchiature: nel '90 era di circa cinque milioni e oggi è dieci volte minore. Inoltre, dal marzo 1995, è ricevibile l'Hot Bird 1 dell'Eutelsat che fornisce su tutta l'Europa, compresa l'Italia, circa trenta nuovi canali. E da agosto del prossimo anno sarà ricevibile l'Hot Bird 2, sempre dell'Eutelsat, che fornirà circa 250 nuovi canali. Con un'antennina di soli 70 cm di diametro il segnale televisivo si potrà ricevere in tutta Europa. L'Italia ha affittato alcuni ripetitori e l'industria italiana, anche se non ha avuto la soddisfazione di costruire l'intero satellite, parteciperà alla costruzione di questi satelliti europei.
Un discorso importante riguarda la diffusione via cavo. In altri Paesi la penetrazione di questa televisione è notevole: si va dal 92% in Belgio, all'86% in Olanda, al 32% in Germania, al 55% in Usa, e al 72% in Canada. In Italia la Catv non si è diffusa. Molti attribuiscono questa situazione alla legge 103/75 che impose la rete monocanale. Consentì cioè all'imprenditore che voleva installare una rete via cavo di trasmettere un solo programma. Ciò tolse, ovviamente, ogni interesse per la Catv e favorì un uso pressochè indiscriminato dello spettro radio.
Se la domanda su quale sia il futuro della televisione fosse stata posta solo tre anni fa, in Europa e in Giappone la risposta sarebbe stata: l'alta definizione. La televisione ad alta definizione è un sistema che prevede uno schermo diverso da quello che abbiamo attualmente, uno schermo molto più grande e molto più allungato. La base è circa l'80 % più lunga dell'altezza, l'angolo di visione è 30 gradi e le dimensioni sono molto maggiori di quelle dello schermo tradizionale che abbiamo oggi nelle nostre case. Ovviamente, essendo lo schermo così grande, per non vedere le linee di scansione del pennellino elettronico occorre raddoppiarne il numero. I vantaggi della televisione ad alta definizione sono numerosi: la qualità simile a quella del cinema, dovuta all'altissima definizione; la sensazione di essere al cinema, dovuta allo schermo di forma simile a quello cinematografico; la sensazione di partecipazione, dovuta all'angolo di visione di 30 gradi e non più di 10 gradi. Complessivamente una qualità molto migliore rispetto alla televisione convenzionale. Le strategie europee e giapponesi si basavano appunto sul concetto di un'evoluzione graduale per arrivare dalla televisione standard analogica alla televisione ad alta definizione analogica.
Se qualcuno avesse fatto la stessa domanda sul futuro della televisione negli Stati Uniti la risposta sarebbe stata completamente diversa. La risposta americana avrebbe sottolineato il fatto che la vera rivoluzione non era il passaggio da Tv standard a Tv ad alta definizione, ma il passaggio da Tv analogica a Tv numerica o, come altrimenti viene denominata, digitale. Ricordo che nella Conferenza del"Financial Times" di Londra Television of Tomorrow, del febbraio '92, ci fu il confronto tra queste due strategie. Da una parte il Giappone e l'Europa (l'Europa addirittura annunciava la Direttiva Cee del maggio del '92) e, dall'altra, la posizione americana. Nei fatti la strategia Usa è risultata vincente e Giappone ed Europa si sono dovute adeguare.
I motivi di ciò sono molti. Il primo è che schermi di grandi dimensioni di nuova concezione, cioè gli schermi"piatti" da appendere al muro come quadri, non erano e non sono ancora disponibili. Gli schermi di grandi dimensioni basati su tecniche tradizionali, come il tubo a raggi catodici o i sistemi a proiettore, hanno un ingombro, un peso, un costo e un consumo tuttora veramente inaccettabili per l'utente domestico. Il secondo motivo è che l'utente ha reagito in modo diverso dal previsto. La strategia europea e giapponese era basata sulla tecnologia e non teneva conto delle vere esigenze del mercato.
Ma forse i motivi fondamentali sono i vantaggi del mondo numerico. Innanzitutto l'ambiente multimediale: nell'ambito numerico, immagini, suoni e dati diventano numeri, bit, che possono viaggiare insieme. Estremamente importante è poi la possibilità di interazione dell'utente, che non è più passivo, diventa attore delle proprie scelte. Infine, la possibilità di comprimere l'informazione, tenendo conto del fatto che quella contenuta in ogni immagine è ridondante. Con la televisione numerica si può ridurre la ridondanza e trasmettere meno informazione senza apprezzabile degrado della qualità. Intuitivamente, la compressione può essere spiegata facendo riferimento alla trasmissione di due quadri successivi. Se il quadro successivo non è molto cambiato rispetto al precedente, è inutile trasmetterlo in toto. Basta trasmettere le variazioni di un quadro rispetto all'altro. Quindi, con le tecniche di compressione in un canale radio, invece di un solo programma analogico, potranno trovare posto anche da quattro a sei programmi numerici: nel mondo numerico la limitatezza del numero di canali non sarà più un problema.
Con la radiodiffusione attraverso le reti terrestri, la numerizzazione renderà possibile aumentare in modo notevole la quantità dei programmi, sia con la compressione sia con la cosiddetta pianificazione"isofrequenziale". Basterà cioè un solo canale radio per assicurare la copertura di tutto il territorio nazionale. Oggi occorre più di un canale, perché il progettista può usare la stessa frequenza solo su trasmettitori sufficientemente lontani tra loro perché altrimenti si avrebbero fenomeni di interferenza. Il mondo numerico, che è molto più resistente all'interferenza, permette invece la pianificazione isofrequenziale.
Il numero di canali disponibili aumenterà notevolmente grazie alla radiodiffusione diretta da satellite. Con la codifica numerica e le relative tecniche di compressione, con ogni trasponditore del satellite sarà possibile portare all'utente fino a 100 programmi. Tale numero va moltiplicato per il numero dei trasponditori, che in genere è tra dieci e venti. In Europa sarà dunque possibile ricevere, tramite satellite, un elevatissimo numero di programmi senza cambiare ricevitore ma con l'ausilio di un semplice decodificatore. Questo, a un imprenditore di televisione numerica, consentirà una grande flessibilità di programmazione. Un canale di 20 megabit al secondo potrà infatti essere utilizzato per trasmettere un solo programma Tv ad alta definizione, per esempio nel caso di film, partite di calcio, teatro, spettacoli, ecc; oppure quattro programmi Tv a definizione standard; oppure tre programmi Tv a definizione standard e quattro canali radio; oppure, un solo programma Tv standard e il resto per distribuire giornali personalizzati, oppure ... le opzioni sono molto numerose.
La questione che ora si pone è se il futuro della televisione sia nella radio o nel cavo. Non vi è dubbio che il passato della televisione è strettamente legato, specie in Italia, alla radio. E non vi è dubbio che il passato del telefono sia legato al cavo: circa 600 milioni di abbonati sono collegati tra loro attraverso una ragnatela di cavi che copre tutto il globo. Ma nel futuro forse la situazione potrebbe invertirsi.
Molti ritengono, infatti, che il futuro del telefono sia proprio la radio: l'esplosione del numero dei"telefonini" e i progetti di lancio di centinaia di satelliti, che permetteranno a chiunque di comunicare anytime, anywhere with anyone senza bisogno di una rete in cavo, sembrano suffragare tali ipotesi. Altri ritengono invece che il futuro della televisione sia il cavo. Solo attraverso il cavo, infatti, sarà effettivamente possibile fornire non solo l'ambiente multimediale ma l'interattività dell'utente, che è la vera rivoluzione della società dell'informazione. In questo quadro è prevista pertanto una graduale evoluzione dal doppino telefonico alla fibra ottica a casa dell'utente, la cosiddetta fiber to the home. Con la fibra ottica non ci sarà quasi più limite, sarà possibile fornire a ogni utente fino a mille canali.
Questa è la direzione verso cui molti Paesi si stanno avviando. In Giappone si prevede che entro il 2010 la rete in fibra ottica coprirà l'intero territorio nazionale e raggiungerà il cento per cento delle utenze residenziali. Negli Usa, l'Amministrazione Clinton vara il National Information Infrastructure che prevede la realizzazione delle famose information superhighways. In Europa, il Libro bianco di Delors indica nella realizzazione della grandi reti la rinascita competitiva europea: di particolare importanza le reti dell'informazione oggetto del Rapporto Bangemann, dal nome del presidente del gruppo che lo ha preparato.
Attualmente, anche in Italia le fibre ottiche hanno raggiunto the curb (il marciapiede), cioè l'armadio da cui parte la distribuzione a una serie di edifici, ma non ancora la casa dell'utente. Il problema è the last mile cioè l'ultimo chilometro e mezzo, perché richiede notevolissimi investimenti. Quindi, necessariamente, ci sarà un'evoluzione graduale, che porterà dall'umile doppino di rame, attraverso il quale riceviamo attualmente il telefono, fino alla fibra ottica, probabilmente attraverso soluzioni intermedie. Iniziative per fornire all'utente, tramite il doppino, non solo il telefono ma anche il cosiddetto video on demand, sono già in corso anche in Italia: l'utente interagisce scegliendo una serie di programmi televisivi (per esempio film) semplicemente con un decoder aggiunto prima del suo apparecchio televisivo. Il video on demand sarà un sistema pay-per-view, cioè si pagherà soltanto ciò che si vede e non un intero palinsesto preparato da altri come avviene attualmente.
Ma la vera novità è la possibilità di trasmettere contemporaneamente, in un solo sistema di comunicazione a larga banda, dati, suoni e immagini che porterà a tre conseguenze fondamentali: all'integrazione di computer telefono e televisione; alla convergenza delle industrie di computer, telecomunicazioni e produzione di audiovisivi; alla fornitura di servizi multimediali interattivi, cioè alla realizzazione della comunicazione multimediale in cui l'utente potrà navigare in modo interattivo tra informazioni legate a suoni, dati, immagini, testi e grafici.
Dalla situazione di oggi, in cui la televisione è concepita per un utente passivo e soprattutto per svago, si avrà domani un telecomputer per un utente interattivo in un ambiente di servizi multimediali.
I principali servizi multimediali, a parte la televisione interattiva, comprenderanno: il tele-shopping, per fare acquisti da casa; il tele-banking, per fare operazioni bancarie da casa; il giornale multimediale, per ricevere a casa il giornale con aggiornamento in tempo reale e forse composizione personalizzata: ciascuno sceglierà di farsi il giornale che desidera, con le informazioni che a lui più interessano, finanza, sport o quant'altro. Sarà possibile la telefruizione di basi dati (Internet che si è sviluppato in modo così vertiginoso è già un esempio in questo senso) e la telefruizione di beni culturali, come ad esempio visitare i musei stando a casa.
Tutto questo è guardato da molti come una vera e propria rivoluzione epocale che dovrebbe portare alla cosiddetta Società dell'informazione. Questa, a detta degli studiosi della Comunità europea, dovrebbe costituire una nuova frontiera per la società e l'economia, consentire il rilancio strutturale della competitività delle imprese, la creazione di nuove opportunità di occupazione, la trasformazione delle modalità e dell'organizzazione del lavoro, l'aumento dell'efficienza delle amministrazioni e delle istituzioni, in una parola, il miglioramento della qualità di vita dei cittadini europei.
Questa rivoluzione epocale è possibile grazie al progresso della tecnologia e alla rivoluzione numerica. Essa nasce dal basso, dal mercato, dalla domanda, che a detta di molti, dovranno essere i veri motori del cambiamento. L'utente non investe in tecnologie, l'alta definizione è un esempio lampante, ma in servizi, se sono offerti a prezzi competitivi. Per ridurre i costi è necessaria l'abolizione dei monopoli, dei mercati chiusi, delle aree protette e dei prezzi politici. La regola deve essere il mercato e la concorrenza.
Secondo la strategia dell'Unione europea gli ingenti investimenti necessari dovranno essere reperiti nel privato e mossi dal mercato. Da qui nasce la necessità di diminuire l'attrito di primo distacco per andare verso questa società dell'informazione. Vi è un Progetto Europa a cui far seguire un Progetto Paese per molti dei Paesi dell'Unione europea. Bisognerà aumentare la cultura informatica. Oggi c'è una dicotomia tra le persone che sanno usare il computer e quelli che non lo sanno usare. Molto spesso questa dicotomia è generazionale, i giovanissimi usano il computer come le persone attempate usano la penna. E, infine, noi tecnologi dovremo migliorare l'interfaccia uomo-macchina, renderla sempre più semplice: questa è la strada verso cui si sta andando, con gli studi di riconoscimento della voce o gli studi di riconoscimento della scrittura. Dicevo che c'è un Progetto Europa; esso è condensato nell'ormai famoso Rapporto Bangeman che prevede dieci importanti applicazioni pilota.
Il futuro ancora più lontano, a mio avviso, si baserà sull'evoluzione di tre tecnologie vitali. La prima evoluzione riguarda le fibre ottiche. Già oggi esse possono trasmettere a elevatissime velocità, fino a 10 gigabit al secondo, cioè 10 miliardi di informazioni al secondo. Per superare l'inevitabile allargamento dell'impulso all'interno della fibra, si sta studiando la possibilità di utilizzare gli effetti non lineari delle fibre e trasmettere impulsi, detti"solitoni", che non subiscono distorsioni neanche su lunghe distanze e che consentono velocità fino e oltre a 100 gigabit al secondo, il che significa più di 5.000 canali Hdtv su una sola fibra.
L'altra importante evoluzione tecnologica riguarda il computer. E' noto che maggiore è il numero dei transistor che costituiscono le parti logiche del microprocessore del computer e maggiore è la sua capacità di calcolo. In questo senso il ritmo di evoluzione è stato notevolissimo. Si è passati dagli anni '70, in cui si aveva l'Intel 4400, con 2300 transistor, alla situazione attuale, in cui nei processori Pentium o Power Pc vi sono 3 milioni e mezzo di transistor. C'è qualcuno che prevede che, entro un decennio, vi saranno 100 milioni di transistor su un solo microprocessore. Mantenendo l'attuale ritmo evolutivo, un ordine di grandezza ogni 15-20 anni, sarà possibile arrivare, intorno al 2020, a componenti elementari di dimensioni inferiori al miliardesimo di metro, cioè dimensioni paragonabili a quelle degli enzimi delle cellule biologiche. A questo punto la computer technology si confonderà con la biotechnology con conseguenze che è difficile prevedere.
La terza evoluzione riguarderà la televisione. Molto probabilmente si tenderà verso la cosiddetta televisione tridimensionale, cioè quella che consente la riproduzione della sensazione della profondità e in cui gli oggetti sembrano avere volume con estensione virtuale al di fuori dello schermo. Essa si basa sull'emulazione del meccanismo della visione binoculare umana. Attualmente, i sistemi prevedono due telecamere, poste a una distanza interassiale di circa 65 mm. Le metodologie per restituire le due immagini proiettate sullo schermo hanno avuto una notevole evoluzione. Il primo passo fu la discriminazione in colore, cioè si introdusse una colorazione artificiale per le due immagini: rosso e verde. In questo caso si aveva bisogno di occhiali conlenti colorate e ovviamente l'informazione del colore andava perduta. Il secondo passo fu la discriminazione per polarizzazione che prevedeva l'introduzione di una diversità di polarizzazione nelle due immagini: si ha sempre bisogno di occhiali con lenti polarizzate ma i colori originali sono preservati. Il terzo passo è il sistema studiato attualmente, l'autostereoscopia, con il quale si può avere la sensazione della profondità senza bisogno di occhiali.
In un futuro ancora più lontano si possono immaginare più di due telecamere che, equispaziate e a coppie, costituiscono diverse immagini stereoscopiche della stessa scena vista da diverse posizioni. La restituzione potrebbe avvenire con un sistema a multiproiezione su schermo lenticolare. È da prevedere un'elevatissima complessità degli apparati e dello schermo e un'enorme quantità di informazioni da trasmettere. L'obiettivo è però affascinante e si chiama realtà virtuale. Vi sono molti che non considerano questo fantascienza. Charles W. Smith, uno studioso di questo settore, ha recentemente affermato che «le future generazioni si meraviglieranno del fatto che per alcuni decenni nel ventesimo secolo ci contentavamo delle odierne immagini piatte per rappresentare un mondo tridimensionale».
Quale sarà il futuro? Nessuno è in grado di rispondere con certezze assolute. Vi sono però molti che ritengono che l'Europa dovrebbe fare, comunque, ogni sforzo per entrare nella nuova società senza esitazioni. Questa è la filosofia del Rapporto Bangemann, che così conclude: «I Paesi che, per primi, entreranno nella società dell'informazione otterranno i maggiori vantaggi. I Paesi che, al contrario, ritarderanno il loro ingresso nella società dell'informazione, in meno di un decennio dovranno affrontare una disastrosa diminuzione di investimenti e di posti di lavoro».
Riferimenti bibliografici
F. Fedi, Telecomunicazioni e multimedialità, Globalità Plus '95, Scenario Tecnologico, SSI Gruppo Ambrosetti, luglio 1995.
World Telecommunications Development Report, International Telecommunication Union, 1994.
A. Chiari, F. Fedi, P. Migliorini, La televisione tridimensionale,"Alta Frequenza", vol 7, n 5, settembre-ottobre, 1995.
Television of Tomorrow, atti del convegno del"Financial Times", London, 1992.
Interactive Television: the market opportunity, Ovum, 1994.
M. Adamson, E. Males, European Multimedia: Business perspectives and potential for growth,"Financial Times", 1994.
G. Lionel Franco (a cura di), World Communications: new horizon, new power, new hope,"Le Monde Economique",1994.
L'Europa e la società dell'informazione globale, Commissione Europea, 1994.
Osservatorio sull'Information and Communications Technology, SMAU, 1994.
|
|
144)
Pubblicazioni FUB 1995
Fedi, F., Relazione FUB: 0B02095 “Volumetti” Raccolta delle pubblicazioni FUB 1995
|
|
145)
Attività 1995
Fedi, F., Relazione FUB: 0B00696
|
|
146)
La struttura di ricerca FUB
Fedi, F., Relazione FUB: 0A00896
|
|
147)
Pagine di storia contemporanea: Guglielmo Marconi
Fedi, F., Relazione FUB: 0A00996 Registrata negli studi RAI il 15/1/96
|
|
148)
Il Colloquio Uomo-Computer
Fedi, F., Paoloni, A. Relazione FUB: 0D01096 TELEMA n. 4, 1996 pp. 78-83
Il riconoscimento dell'identità attraverso la voce offre affascinanti applicazioni: dalla possibilità di impartire disposizioni per telefono alla soluzione di inchieste giudiziarie. La "serratura vocale" porta finalmente nella realtà quotidiana la favola di un nuovo "apriti sesamo". L'attività e gli studi della Fondazione Bordoni nel campo delle ricerche sulla capacità del computer di distinguere e trascrivere le parole.
Il computer, la tua voce. E non soltanto la tua: anche quella del vicino di casa, dell'amico, del signore che non hai mai conosciuto; dello straniero che abita (e parla) al di là dell'Oceano. E anche la sua, la voce del computer. Il computer, insomma, (più che mai "cervello elettronico") deve saper ascoltaree parlare. Ma non basta: deve anche capire, ragionare e rispondere. Ecco perché uno degli obiettivi principali delle ricerche in questo settore è quello di facilitare il "colloquio" tra l'uomo e il computer, interpretando il termine nel suo significato letterale di "parlare insieme" e facendo sì che questo colloquio avvenga nella forma più naturale per l'uomo, appunto per mezzo della voce. Dunque parlare non in "gergo", con linguaggi del tipo Fortran e Basic, ma con linguaggio vero, quello più vicino all'utente, e preferibilmente nella sua lingua madre.
Nella definizione di questo nuovo rapporto con la macchina sono stati già raggiunti risultati di grande rilievo, altri sono in vista: si va dai servizi più semplici (per esempio il segnale orario telefonico) a quelli più complessi (gli orari dei treni e degli aerei con l'indicazione dei percorsi e delle fermate), alle funzioni più "difficili", come la traduzione in un'altra lingua.
Un importante obiettivo è il riconoscimento, attraverso la voce, dell'identità personale. Questa tecnologia ha due diverse applicazioni: la verifica dell'identità del parlatore, per consentirgli l'accesso a luoghi o a dati riservati, e l'identificazione di un parlatore anonimo, generalmente al fine di scoprire l'autore di un crimine. Sono aspetti affascinanti di una raffinatissima tecnica che porta (o in qualche caso porterà) a risultati entusiasmanti e, per usare un termine di moda, intriganti. Si pensi, per esempio, alle varie applicazioni del riconoscimento del parlatore. Una è quella che si riferisce alla trasmissione di ordini per telefono (a una banca perché accrediti una somma su un conto corrente o esegua certi versamenti; a un agente di borsa perché proceda ad acquisti o vendite di azioni): è ovviamente indispensabile che non sussistano dubbi sull'identità della persona che impartisce le istruzioni. Un'altra applicazione di grande utilità è l'accesso a un luogo riservato: per esempio, una "serratura a voce" che funzioni con il semplice ordine dato dalla persona autorizzata a farlo. La favola dell'"apriti sesamo" che diventa realtà.
L'identificazione di un parlatore anonimo può essere determinante in una indagine giudiziaria. Il confronto del testo "incriminato" (una telefonata minatoria, una richiesta di riscatto dopo un sequestro di persona, un messaggio di insulti o di frasi oscene, la registrazione di una conversazione di cui sia noto uno solo degli interlocutori) con la voce di uno o più indiziati è utilissimo, proprio come da moltissimo tempo il conronto con le impronte digitali. Questa tecnica è stata già molte volte applicata. E' noto a chi si occupa di vicende giudiziarie, e agli esperti, che la Fondazione Ugo Bordoni (della cui attività in questo campo parleremo più avanti) è stata interessata a indagini su diversi casi clamorosi: come le inchieste sul presunto coinvolgimento di Toni Negri nel caso Moro, su "Gladio", sulla tragedia di Ustica. Durante le indagini per il sequestro e l'uccisione dello statista democristiano furono proprio le perizie effettuate dagli esperti della Fondazione Bordoni, in contrasto con quelle di alcuni tecnici americani, a stabilire che la voce di Toni Negri non era una di quelle che avevano comunicato al telefono i messaggi delle Brigate Rosse. La magistratura accetta come prove o indizi seri i risultati dei confronti, eseguiti con i nuovissimi sistemi, e li tiene comunque in gran conto.
Per il colloquio uomo-calcolatore sono necessari sistemi computerizzati "conversazionali" cioè, in parole povere, calcolatori che parlino (problema della sintesi), calcolatori che ascoltino e comprendano (problema del riconoscimento e della comprensione del parlato), calcolatori che identifichino (problema del riconoscimento del parlatore), calcolatori che "comprimano ed espandano" la voce (problema della codifica e successiva decodifica del segnale).
Il Computer che parla.
Il problema della sintesi della voce (cioè i calcolatori che parlano) ha già trovato diverse soluzioni. Una prima soluzione è la "codifica di frasi" (store and forward) in cui il calcolatore si limita a costruire un messaggio a partire da segnali vocali preregistrati sotto forma di parole o gruppi di parole. Applicazioni tipiche sono, come si è accennato prima, il segnale orario telefonico e i messaggi vocali da testo registrato. La qualità della voce ottenuta con questa tecnica è in genere soddisfacente, quindi il problema della sintesi per codifica di frasi può considerarsi risolto.
Una seconda soluzione è la "sintesi da testo" (text-to-speech) con cui si vuole riprodurre acusticamente un testo scritto, come è necessario fare quando il messaggio da trasmettere è contenuto in una grande base di dati continuamente aggiornata, per esempio l'elenco telefonico. In tal caso per generare il segnale vocale, non è sufficiente unire, in modo opportuno, sillabe o fonemi preregistrati, ma occorre introdurre anche la "prosodia" cioè gli accenti e le tonalità con cui la frase deve essere pronunciata. Applicazioni tipiche sono la lettura di giornali o di libri per i non vedenti, o la lettura dei messaggi da calcolatore.
Alcune applicazioni, come il sistema "Reverse directory assistance", sono già in funzione anche in Italia: l'utente può avere nome e indirizzo dell'abbonato a partire dal suo numero telefonico. Si forma il numero 1412, si ascoltano le istruzioni trasmesse da una gentile voce femminile, si compone poi il numerodel quale si vuol conoscere il titolare (con prefisso). Subito una voce "artificiale" vi darà le informazioni richieste.
La qualità della voce generata dai sistemi di sintesi non è sempre del tutto soddisfacente: la pronuncia dei nomi propri qualche volta non è perfettamente intelligibile, la lettura di un testo risulta incolore e noiosa, e la voce sintetica somiglia simpaticamente a quella di Paolo Panelli.
Gli studi in corso tendono, appunto, a conferire alla voce sintetica un accettabile grado di naturalezza e di gradevolezza. Per raggiungere questo risultato è necessario che la macchina possieda informazioni circa il significato del testo da riprodurre. Anche uno speaker umano deve farlo: si sente benissimo quando qualcuno legge senza capire ciò che va dicendo. Si ricade pertanto nel problema della "comprensione", analogo a quello che si incontra nei sistemi di riconoscimento, la cui soluzione completa è ancora lontana. Un'applicazione di dialogo vocale con il computer, in via di avanzata sperimentazione, è il sistema Raitel in cui le informazioni sull'orario ferroviario sono fornite con la sintesi vocale e le richieste sono "comprese" con un sistema di riconoscimento del tipo a parole isolate.
Altro obiettivo è quello che riguarda la "generazione" del messaggio; ossia il passaggio dalla trasformazione testo-voce alla trasformazione concetto-voce. E' un passaggio che richiede "intelligenza" da parte del calcolatore perché non si tratta più di trasformare in voce un testo già scritto, ma di "preparare" la risposta prima di trasformarla in voce. E' il caso di un utente che richieda la migliore connessione via aerea per andare da un luogo a un altro con una fermata intermedia, per esempio da Roma a Los Angeles facendo sosta a Toronto. In queste applicazioni le tecniche di intelligenza artificiale hanno un ruolo di fondamentale importanza e possono rendere possibile la realizzazione di servizi personalizzati estremamente sofisticati in grado di soddisfare una straordinaria gamma di esigenze particolari.
Il Computer che ascolta e comprende.
Il problema del riconoscimento e della comprensione del parlato (calcolatori che ascoltano e comprendono) si presenta assai complesso, soprattutto per la difficoltà da parte della macchina di "comprendere" il parlato continuo prodotto da un parlatore qualsiasi. Va detto che una certa comprensione è comunque necessaria anche per migliorare le prestazioni dei sistemi che operano solamente la trascrizione della voce in forma grafica e per i quali, apparentemente, sarebbe sufficiente il semplice "riconoscimento" della voce stessa come, per esempio, nel caso della macchina per scrivere comandata dalla voce umana.
E' stato necessario limitarsi, in una fase iniziale, al riconoscimento dipendente dal parlatore su un piccolo vocabolario (da 20 a 100 parole) e introducendo pause tra le parole (parole isolate). Queste prime ipotesi semplificative hanno consentito di realizzare i primi sistemi di riconoscimento vocale, come il Vip 100 della Threshold technology inc. realizzato nel 1972 con un vocabolario di circa un centinaio di parole.
Per ora si è scelto di "costruire" sistemi su misura tenendo presenti i particolari compiti assegnati a ciascuno di essi. E questo perché non è sufficiente distinguere tra un sistema addestrato per un particolare parlatore (speaker dependent), da utilizzare come macchina per scrivere vocale con un vasto vocabolario, e un sistema indipendente dal parlatore (speaker independent), ma limitato nella dimensione del vocabolario (poche decine di parole). Oppure tra sistemi di uso locale, che possono utilizzare voce di alta qualità (come i già citati sistemi di dettatura) e possono anche essere dipendenti dal parlatore che li addestra, e quelli di uso remoto a cui si accede tramite rete telefonica, che debbono utilizzare segnale di minore qualità acustica e che richiedono anche assoluta indipendenza dal parlatore (sistemi centralizzati di interrogazione di basi dati o trasmissione via telefono di numeri, come avviene per la trasmissione del numero della carta di credito). E' necessario precisare, infatti, anche l'argomento del testo che sarà dettato (lettere commerciali o rapporti medici), nel caso delle macchine per scrivere vocali, o il contenuto del "corpus" da interrogare via telefono (orario ferroviario o di voli aerei), nel caso dei sistemi di interfaccia di utente. Con questi accorgimenti sono stati realizzati numerosi sistemi di dettatura per le applicazioni in cui l'uso della tastiera è difficile, come nella lettura diagnostica delle radiografie o nel controllo di qualità dei prodotti. Sono stati inoltre resi disponibili vari servizi che fanno uso della tecnologia del riconoscimento vocale, accessibili tramite rete telefonica. Tra i sistemi più significativi, compaiono sia sistemi di origine statunitense, sia sistemi europei e italiani. Il nostro Paese ha una posizione veramente preminente in questo campo.
Il computer che identifica.
Nel riconoscimento del parlatore il sistema deve ovviamente identificare colui che parla. Lo abbiamo già detto: si tratta di utilizzare la voce come, in altri casi, si fa con le impronte digitali. I problemi sono tuttavia estremamente diversi. L'impronta digitale non si modifica nel tempo, mentre la voce può variare per molti motivi, tra i quali l'età e lo stato di salute.
Un primo obiettivo è la "verifica" dell'identità del parlatore. Tipiche applicazioni sono i sistemi di sicurezza per l'accesso a dati riservati (home banking); a luoghi riservati (serratura vocale); a beni protetti (bancomat vocale). Un'applicazione recente è l'identificazione del lavoratore in condizione di telelavoro per controllare che non si ricorra a forme di subappalto; cioè per assicurarsi che la prestazione venga effettivamente fornita dal lavoratore che ha firmato il contratto, e non da altri.
Un secondo obiettivo, come abbiamo anticipato, è il "riconoscimento" dell'identità del parlatore, cioè l'attribuzione di un'identità alla voce di un anonimo, in genere per scoprire l'autore di un crimine. La differenza principale tra i due obiettivi sta in una ovvia considerazione: nel primo caso, il parlatore ha interesse a cooperare per essere correttamente identificato; nel secondo, il colpevole farà invece di tutto per dissimulare la propria identità. Inoltre, nel primo caso il sistema deve fornire la risposta in tempo reale; mentre nel secondo non vi sono vincoli così stringenti per quanto riguarda il tempo di risposta, salvo casi eccezionali.
Le tecniche di verifica dell'identità fanno uso di metodi oggettivi, del tutto simili a quelli utilizzati nel riconoscimento del parlato: descrizione matematica della voce e confronto statistico con campioni di riferimento. Nel riconoscimento dell'identità, invece, oltre ai metodi oggettivi, vengono anche usati metodi soggettivi basati sulla valutazione, da parte di un esperto, della somiglianza tra le voci con un ascolto comparato e un esame di sonogrammi.
Il Computer che codifica.
Per codifica della voce si intende non tanto e non solo la trasformazione del segnale analogico in numerico, ma soprattutto la compressione della banda di frequenza necessaria alla trascrizione o alla memorizzazione attraverso la riduzione di ridondanza.
Si tratta cioè di ridurre il numero di bit con cui viene trasmesso un segnale vocale (pari a 64.000 bit per un secondo di segnale nelle normali digitalizzazioni Pcm) in un numero inferiore, ad esempio 32.000 o 16.000 bit, mantenendo inalterata la sua qualità acustica.
La soluzione del problema sfrutta le regolarità del segnale acustico: con varie tecniche viene predetto il valore del campione di voce successivo sulla base del valore del campione o dei campioni precedentemente trasmessi. Gli algoritmi attualmente disponibili sono in grado di fornire segnali di ottima qualità a 16.000 bit al secondo e segnali comprensibili a 1.000 bit al secondo.
All'aumentare dell'efficienza del sistema, ossia della riduzione di ridondanza ottenibile, corrisponde l'aumento della complessità dell'algoritmo e, conseguentemente, la potenza di calcolo necessaria a implementarlo. Obiettivo degli studi in corso è quello di perfezionare gli algoritmi e rendere disponibili tecnologie in grado di implementarli in tempo reale, in modo da ottenere codifica di alta qualità a basso numero di bit/s per tutte le applicazioni, come per esempio il radiomobile, per le quali la disponibilità di bande di frequenza è, al momento, ancora molto limitata.
Problemi di valutazione.
Le prime raccolte di segnali vocali furono effettuate negli Stati Uniti presso la Texas instruments (Ti), in collaborazione con il Massachusetts institute of technology (Mit), e hanno portato alla Base dati Timit (da Ti e Mit). Analogo interesse si è sviluppato in Europa dando origine al progetto Greco in Francia, ai progetti Spin in Olanda, Sid in Gran Bretagna, agli studi condotti nell'ambito del progetto Cost 209 da 9 nazioni europee (tra cui l'Italia), nonché al varo di un progetto italiano per la realizzazione di una base di dati nella nostra lingua, denominato Aida (Acoustic italian database) e coordinato dall'Istituto superiore poste e telecomunicazioni in collaborazione con la Fondazione Ugo Bordoni.
Attualmente sono operative due diverse organizzazioni impegnate a collazionare e distribuire banche dati vocali (corpora) per lo studio e la valutazione dei sistemi. Una, denominata Ldc (Linguistic data consortium), opera negli Stati Uniti e vede coinvolte organizzazioni governative e realtà industriali; l'altra è nata nell'ambito dell'Unione Europea ed è denominata Elra (European language resource application).
Un ulteriore importante contributo alla valutazione dei sistemi di sintesi e di riconoscimento vocale è venuto dal progetto europeo Esprit Sam (Speech assessment methodology) guidato dall'University college di Londra al quale hanno partecipato, per l'Italia, il Centro di fonetica del Cnr, lo Cselt e la Fondazione Ugo Bordoni. Il Sam ha realizzato una base dati in sei lingue europee denominata Eurom 1 e ha posto le premesse per la definizione degli standard di valutazione.
La ricerca in Europa e in Italia.
La partecipazione italiana a tali progetti è significativa. Nel nostro Paese sono numerosi i Centri di ricerca attivi in questo settore: il Centro di fonetica del Cnr di Padova, lo Cselt di Torino, la Fondazione Ugo Bordoni di Roma, l'Iroe del Cnr di Firenze, l'Irst di Trento, il dipartimento Infocom dell'Università "La Sapienza" di Roma e il Politecnico di Torino. L'industria manifatturiera, un tempo assai attiva, ha invece praticamente abbandonato questo settore, a eccezione dell'Ibm-Italia, e di qualche piccola realtà minore che si limita a implementare al meglio prodotti stranieri.
Si può valutare il contributo della comunità scientifica europea e italiana considerando il numero dei lavori accettati dai più importanti Congressi internazionali in questo settore. Sino al 1989 l'Icassp (International conference on Acoustic speech signal processing), organizzato dall'Ieee (Institute of electrical and electronic engineers) alternativamente due anni negli Stati Uniti e un anno in Europa o in Asia, rappresentava l'unico banco di prova di indiscusso prestigio. A partire dal 1989, è stato organizzato dall'Esca (European speech communication association) un altro Congresso internazionale, l'Eurospeech, a cadenza biennale, che va assumendo sempre maggior prestigio. A questi congressi se ne è recentemente affiancato un altro, l'Icspl (International conference on speech and language), di matrice asiatica, e già ben qualificatosi, che si svolge negli anni pari.
La ricerca presso la Fondazione Ugo Bordoni.
La nascita della tradizione culturale della Fondazione Bordoni nel campo delle ricerche sul colloquio uomo-computer può essere fatta risalire agli anni 80, allorché la Fondazione ha avviato studi sul tema del riconoscimento del parlatore, cioè sulla possibilità di identificare un individuo attraverso l'analisi di un suo campione di voce. I risultati delle ricerche hanno posto la Fondazione in una posizione di leader di questa disciplina in campo nazionale ed europeo. Come si è detto prima, la magistratura italiana ha riconosciuto la validità di questi esperimenti e ha affidato agli studiosi della Fondazione numerose indagini peritali, spesso di natura assai delicata per l'importanza o la risonanza del caso. In questo settore la Fondazione ha realizzato un sistema prototipale, denominato Idem, che ha suscitato vivo interesse negli ambienti accademici e da parte degli organismi di polizia giudiziaria.
L'esperienza maturata nel campo del riconoscimento del parlatore, volta prevalentemente a scopo di identificazione in ambito forense, è stata estesa alla verifica del parlatore per gli impieghi commerciali, come l'accesso a servizi protetti che richiedono l'autenticazione dell'identità personale. La Fondazione Bordoni si è fatta promotrice, insieme con la British Telecom, di un interessante progetto europeo in ambito Cost denominato "Speaker recognition in telephony"; i lavori hanno avuto inizio l'anno scorso.
Per quanto riguarda il riconoscimento e la comprensione del parlato, si tratta di una ricerca difficile e complessa; per questo gli studiosi della Ugo Bordoni hanno deciso fin dall'inizio di procedere "a piccoli passi", ponendosi ogni volta obiettivi parziali nel cammino verso il risultato finale. Da principio l'indagine è stata indirizzata verso la realizzazione di una macchina di tipo monolocutore capace di riconoscere un vocabolario di 15 parole (le cifre da 0 a 9 più cinque parole di comando). Questa prima fase si è conclusa, verso la fine del 1983, con la realizzazione di una seconda macchina, denominata "Demo", con un vocabolario di 60 parole e un tasso di riconoscimento dell'84%. Nel 1985 è stato avviato un programma quinquennale in cui furono individuate alcune particolari problematiche legate alla realizzazione di un sistema di riconoscimento e comprensione del parlato continuo.
In questo quadro sono stati studiati e realizzati un analizzatore morfologico e due analizzatori sintattici che sono stati sperimentati con una fraseologia adatta all'interrogazione di un centralino telefonico: si è fatto ricorso a un lessico di quasi seicento "entrate morfologiche" per un vocabolario complessivo di circa ottomila parole.
Questo primo sistema costituisce una parte già funzionante di un sistema di riconoscimento del parlato continuo, denominato Devil (Device for elaborating vocal italian language), che come si è detto rappresenta l'obiettivo finale della ricerca. Per la realizzazione del modulo di riconoscimento di questo sistema l'attenzione è stata concentrata su un nuovo approccio per la classificazione e l'elaborazione dei segnali basato su un modello dell'elaborazione del cervello umano (conosciuto con le varie denominazioni di reti neurali o approccio connessionista) che si è rivelato particolarmente adatto per l'analisi del parlato.
Il tema della valutazione dei sistemi di colloquio uomo-computer ha visto la Fondazione particolarmente impegnata nell'ambito della tradizionale collaborazione con l'Istituto superiore delle Poste e telecomunicazioni. Le metodologie di valutazione sono fondamentali sia per stabilire criteri standard di riferimento che consentano una reale comparazione dei sistemi sviluppati nelle varie parti del mondo, sia per il progresso della tecnologia. Elemento fondamentale per le implementazioni di nuovi e più perfezionati sistemi è infatti la disponibilità di basi di dati ad hoc, con le quali addestrare i nuovi sistemi e calcolare le statistiche indispensabili alla loro realizzazione. Compito centrale della valutazione è la realizzazione di queste basi di dati, ovviamente nella lingua nella quale il sistema deve essere usato.
La Fondazione ha partecipato alla realizzazione di tutte le basi di dati pubbliche attualmente disponibili sia in Europa sia in Italia e ha raccolto proprie basi di dati tra le quali una che è orientata alla verifica e al riconoscimento del parlatore.
Gli studi tendono anche a definire le metodologie per la valutazione dei sistemi, sia per la misura delle prestazioni (benchmark) sia per la stima dell'accettabilità nelle applicazioni (field test). Queste ricerche sono state avviate in ambito europeo, nel quadro del progetto Cost 209 (Man machine communications by means of speech signals), e sono proseguite nell'ambito nel progetto Sam (Speech assessment methodology) del primo programma quadro della Comunità europea.
La Fondazione è inoltre da tempo presente nelle attività dell'Itu (International telecommunication union) che è l'organo addetto alla standardizzazione in campo internazionale. La presenza negli organismi di standardizzazione è essenziale per garantire che nella stesura della normativa siano tenute nel giusto conto le esigenze delle singole nazioni e, nel caso specifico, siano garantite le pluralità linguistiche della comunicazione uomo-computer.
Le tendenze evolutive.
Lo stato dell'arte consente già oggi alcune importanti applicazioni e altre sono prevedibili per il futuro. Molte sono le ragioni che hanno consentito questa nuova realtà; tra di esse deve certamente includersi il progresso della tecnologia di calcolo che ha messo a disposizione, a costi accettabili, sufficiente potenza di calcolo e disponibilità di memoria. Una rassegna delle applicazioni, seppure incompleta, può essere utile per intravedere ciò che la tecnologia renderà disponibile nel breve, medio e lungo periodo.
La macchina per scrivere a comando vocale è già una realtà e comincia a trovare varie applicazioni: diversi modelli sono disponibili sul mercato a costi accessibili. Applicazioni importanti sono previste negli ambienti cosiddetti "ostili" dove l'uso della tastiera risulta difficoltoso essendo le mani già occupate (come si è già accennato: controllo di qualità di prodotti, diagnosi radiologiche).
L'uso della rete telefonica renderà possibile una serie di servizi "in voce", in cui la macchina ascolta, comprende e risponde. La consultazione dell'elenco abbonati o delle pagine gialle, la richiesta di informazioni su orari aerei o ferroviari, l'autorizzazione ai pagamenti con carta di credito con la semplice trasmissione vocale del numero della carta, la registrazione di messaggi vocali su periferiche di calcolatore (posta vocale), il traduttore simultaneo per mezzo di un computer in grado di riprodurre immediatamente il discorso in un'altra lingua con la stessa intonazione e lo stesso timbro di voce di chi parla: sono tutte applicazioni estremamente allettanti, alcune più vicine altre molto più lontane.
Altre applicazioni importanti dal punto di vista sociale riguardano l'aiuto ai disabili (tra queste la lettura di giornali o di libri per non vedenti e il comando vocale di robot per disabili motori).
Orientamenti delle ricerche.
Le ricerche attualmente in corso in Italia, in Europa e nel resto del mondo seguono due diversi orientamenti.
Il primo, di tipo ingegneristico-statistico, cerca una soluzione tecnica al problema in modo globale: per esempio trovare la parola che più probabilmente è stata pronunciata stante un determinato segnale acustico in ingresso, mediante il riconoscimento del modello (pattern recognition) o, più recentemente, con l'impiego dei "modelli di Marcov".
Il secondo, di tradizione fonetico-linguistica, studia le modalità con cui il processo di comprensione e generazione della voce viene svolto dall'uomo, identificando le varie regole che portano alla comprensione e alla generazione della voce.
A questi due approcci fondamentali si è affiancato l'orientamento cibernetico che si rifà più direttamente al modello di funzionamento del cervello umano: si tratta delle reti neurali (pertinenti cioè al sistema nervoso centrale), disciplina scientifica verso la quale si sono indirizzati numerosi sforzi di ricerca e che sembra essere particolarmente adatta a risolvere i problemi complessi del riconoscimento della voce.
E' convinzione comune che ogni ipotesi di concorrenza o di sovrapposizione tra i tre approcci ora indicati sia da ritenersi fittizia, in quanto l'integrazione delle discipline è fondamentale per realizzare una più efficiente comunicazione tra l'uomo e il computer. Il problema di quando le limitazioni al dialogo saranno sufficientemente ridotte da consentire di avvicinarsi alla realizzazione di un calcolatore in grado di conversare liberamente con l'uomo rimane perciò ancora aperto. E' proprio il dialogo uomo-macchina l'obiettivo strategico delle ricerche in corso in Italia e nel mondo.
|
|
149)
Annual Review 1995
Fedi, F., Relazione FUB: 0B01196
|
|
150)
Linee Programmatiche delle attività di ricerca della Fondazione Ugo Bordoni per il 1997
Fedi, F., Relazione FUB: 0A01296
|
|
151)
EPI - SP 2000: Sportello Postale Telematico
Fedi, F., Petrioli, R. Relazione FUB: 0A01396
|
|
152)
Pubblicazioni FUB 1996
Fedi, F., Relazione FUB: 0B01496 “Volumetti” Raccolta delle pubblicazioni FUB 1996
|
|
153)
Da Guglielmo Marconi alla società dell’informazione
Fedi, F., Centro Alti Studi Difesa, Marzo 1996
Dedicare all’inizio del 1996 una Conferenza a Guglielmo Marconi ci è sembrato molto appropriato. E' appena terminato, infatti, il 1995 cioè l'anno in cui è stato celebrato in tutto il mondo il primo centenario dell'invenzione della radio. Invenzione che portò Marconi nel 1909, a soli 35 anni, a ricevere il premio Nobel per la Fisica.
In questo mio intervento, cercherò di mostrare quanto geniali siano state le intuizioni di Marconi e come queste intuizioni siano state la premessa di un’evoluzione che, in soli 100 anni, ci ha condotto dall'invenzione della radio alle soglie della futura società dell'informazione.
In cosa è consistita la genialità di Marconi e cosa successe di veramente notevole cento anni fa, nel 1895 .
Per spiegarlo, dobbiamo andare indietro di circa 20 anni rispetto a questa data. Al 1873 , un anno prima della nascita di Marconi, quando il fisico inglese James Clerk Maxwell nel suo "Trattato di elettricità e magnetismo" pubblica le sue famose equazioni e dimostra in via teorica l'esistenza delle onde elettromagnetiche e che esse si propagano rettilinearmente con la velocità della luce.
Quattordici anni più tardi, nel 1887, il fisico tedesco Heinrich Hertz dimostra sperimentalmente l'esistenza di queste onde e ne determina le proprietà (rifrazione, riflessione e diffrazione) che, in accordo con le previsioni teoriche, risultano simili a quelle delle onde luminose.
Otto anni dopo Marconi mette in pratica le sue geniali intuizioni. La prima è quella di utilizzare le onde elettromagnetiche a fini pratici, per trasmettere informazioni a distanza, informazioni che, in quel caso, erano segnali telegrafici. Nasce il telegrafo "senza fili". Il telegrafo, fino ad allora, aveva avuto bisogno di un cavo per connettere un punto ad un altro. Nessuno aveva mai pensato che ciò sarebbe stato possibile senza il cavo con l'utilizzazione delle onde radio.
La seconda geniale intuizione è quella di pensare che le onde radio potessero superare gli ostacoli , in contrasto con le teorie dell'epoca secondo le quali le onde radio, come le onde luminose, sarebbero state fermate da essi.
E nel primo famoso esperimento del 1895, effettuato a Villa Griffone vicino Bologna, Egli realizza ambedue queste geniali intuizioni: trasmette un segnale telegrafico con le onde radio (i tre punti della lettera "S" dell'alfabeto Morse) e lo trasmette al di là della famosa collina dei Celestini, ad una distanza di circa 2 Km.
Come si propagano le onde radio.
Per seguire l'evolversi degli esperimenti di Marconi è bene spiegare brevemente, alla luce delle conoscenze di oggi, come si propagano le onde radio.
La propagazione delle onde radio dipende dalla frequenza che viene utilizzata, frequenza che risulta inversamente proporzionale, tramite la velocità della luce, alla cosiddetta “lunghezza d'onda”. Più grande è la frequenza e più è piccola la lunghezza d'onda.
La propagazione delle onde è rettilinea, ma può essere influenzata dagli ostacoli che esse trovano sul loro cammino. L'influenza è tanto maggiore quanto maggiori sono le dimensioni degli ostacoli rispetto alla lunghezza d'onda.
Accade un po’ quello che succede ad un essere umano quando cammina. Se egli trova un terreno pianeggiante, procede rettilinearmente. Se trova ostacoli di piccole dimensioni, li può facilmente superare. Se gli ostacoli sono di dimensioni maggiori, il suo cammino rettilineo non può proseguire. E tutto è relativo. Se lo stesso cammino lo deve percorrere, invece che un essere umano, una piccola formica, quello che era pianeggiante per l'uomo diventa accidentato per la formica.
Alla luce di quanto detto, si possono distinguere tre modalità di propagazione.
A frequenze inferiori a circa 3MHz, le lunghezze d'onda sono superiori a 100 m: le onde radio riescono a propagarsi contornando gli ostacoli e possono essere ricevute a distanze notevoli, fino a parecchie centinaia di chilometri dal trasmettitore. Questo tanto meglio quanto minore è la loro frequenza, cioè maggiore è la lunghezza d'onda. Prevale in questo caso il meccanismo di propagazione cosiddetto per "onda di suolo", nel senso che le caratteristiche di propagazione dipendono in modo rilevante dalle caratteristiche elettriche del suolo.
Per frequenze comprese tra circa 3 e 30 MHz (cioè per lunghezze d'onda comprese tra 100 m e 10 m) prevale invece il meccanismo di propagazione per via ionosferica. Le onde radio emesse dal trasmettitore vengono rifratte dalle regioni ionizzate dell'atmosfera che circondano la terra a quote superiori a circa 50 Km. Tali onde partono pertanto con propagazione rettilinea ma, nell'incontrare la ionosfera, incurvano verso il basso la loro traiettoria e possono così giungere anche a distanze di qualche migliaio di chilometri dal trasmettitore.
Per frequenze superiori a circa 30 MHz (lunghezze d'onda inferiori a 10 m, le cosiddette microonde) l'onda di suolo è fortemente attenuata già a piccole distanze dal trasmettitore e cessa il fenomeno della rifrazione da parte della ionosfera. Per tali frequenze prevale pertanto il meccanismo di propagazione rettilinea in "visibilità", nel senso che le due stazioni devono "vedersi" otticamente. Questa è la ragione per la quale, ad esempio, per collegare via radio a queste frequenze due stazioni poste sulla terra distanti centinaia di chilometri occorre prevedere dei ripetitori che siano in visibilità l'uno dell'altro. Rispetto alle frequenze più basse, si perde il vantaggio di raggiungere punti non in visibilità ottica. Si acquistano però altri vantaggi. Uno è quello di poter usare antenne di dimensioni molto minori e l'altro quello di avere ampie bande di frequenza disponibili per le radiocomunicazioni.
Marconi andò contro le teorie dell'epoca.
Nel suo primo esperimento di Pontecchio nel 1895, Marconi dimostrò sperimentalmente che le onde radio potevano propagarsi al di là degli ostacoli e non necessariamente dovevano propagarsi rettilinearmente come le onde luminose. Oggi si direbbe che il meccanismo di propagazione preponderante fu quello per onda di suolo. E Marconi fu veramente un precursore. Per la sistematizzazione di un modello teorico valido per il calcolo del campo elettromagnetico nella propagazione a grandi distanze per onda di suolo occorreva aspettare parecchi anni. Sommerfeld nel 1909 risolse il problema ipotizzando la terra piana. Vander Pol e Bremmer, intorno al 1937, migliorarono il modello supponendo la terra sferica. Solo da non più di dieci anni si sono messi a punto programmi al calcolatore con i quali si sono rese disponibili curve di propagazione che consentono il calcolo del campo e. m., con un modello più realistico, che tiene conto anche della rifrazione negli strati bassi dell'atmosfera.
Anche nei successivi esperimenti, in particolare nel primo esperimento di collegamento transoceanico a oltre 3000 Km, nel 1901, Marconi andò contro le teorie dell'epoca. Illustri matematici come il Poincarè avevano calcolato che il collegamento non sarebbe stato possibile e che, al massimo, si sarebbe potuta coprire una distanza di 300 Km. Non era nota infatti l'esistenza della ionosfera. Solo un anno dopo l'esperimento transoceanico di Marconi, cioè nel 1902, Arthur Kennelly ed Oliver Heaviside cercarono di spiegare l'esperimento ipotizzando l'esistenza di uno strato elettrizzato dell'alta atmosfera, generato dalla ionizzazione dovuta ai raggi solari che, provocando la rifrazione delle onde radio, permetteva a queste di raggiungere località altrimenti in ombra. Occorreva però attendere più di 20 anni prima che il fisico inglese Sir Appleton dimostrasse sperimentalmente, nel 1925, l'esistenza della ionosfera.
Anche per alcuni aspetti della propagazione a frequenze più elevate gli esperimenti di Marconi, hanno preceduto la teoria. Intorno al 1930 era comunemente accettato che onde di lunghezza inferiore al metro, cioè frequenze superiori a 30 MHz, non potessero propagarsi al di là dell'orizzonte ottico. Marconi, con i suoi esperimenti sulla nave Elettra nel 1932, ricevette segnali a distanze ben superiori alla portata ottica. Alla luce delle leggi di propagazione in atmosfera omogenea (cioè un'atmosfera che in tutti i punti ha gli stessi valori di temperatura, pressione e umidità) tali risultati apparivano inspiegabili. Fu necessario migliorare il modello dell'atmosfera e tenere conto del fatto che essa è ben lungi dall'essere omogenea. Variazioni di temperatura pressione ed umidità possono infatti provocare le variazioni dell'indice di rifrazione dell'atmosfera che possono spiegare, ad esempio con gli "effetti condotto", la propagazione delle onde al di là dell'orizzonte ottico.
Lo sviluppo dei servizi radio
Lo sviluppo delle radio comunicazioni e degli altri servizi radio si è accompagnato, in genere, con l'utilizzazione di frequenze sempre più elevate. Basti pensare che nella Conferenza Mondiale, tenutasi a Berlino nel 1906, lo spettro radio fu pianificato fino alla frequenza di 1 MHz e che oggi esso è pianificato fino a 400 GHz cioè fino ad una frequenza 400 mila volte più elevata.
Fino alla seconda guerra mondiale furono impiegate soprattutto frequenze inferiori a circa 30 MHz, dapprima con l'utilizzo massiccio delle "onde lunghe", cioè frequenze inferiori a 3 MHz, e poi con il passaggio alle cosiddette "onde corte", cioè frequenze comprese tra 3 e 30 MHz
E' da sottolineare che, prima dell'avvento dei satelliti per telecomunicazioni, le onde corte, che come abbiamo visto si propagano per via ionosferica, ebbero un ruolo importantissimo perché erano le sole che consentivano comunicazioni radio a grandissime distanze, ed in particolare, le comunicazioni transoceaniche.
Durante questi anni il telegrafo senza fili si sviluppò in maniera considerevole. L'importanza di effettuare collegamenti con le navi fu messa in drammatica evidenza in occasione dell'affondamento del Titanic nel 1912. E' di quegli anni la nascita del famoso messaggio S.O.S. (save our souls). La Conferenza internazionale convocata a Londra nello stesso anno impose che le navi di linea fossero tutte equipaggiate con apparecchiature radiotelegrafiche.
La prima guerra mondiale stimolò notevolmente lo sviluppo delle radiocomunicazioni. Con il triodo, realizzato da Lee de Forest nel 1908, divenne possibile l'amplificazione di segnali molto deboli e la trasmissione oltre che dei segnali telegrafici anche della voce umana. Nascono la radiotelefonia e la radiodiffusione. Nel 1916 l'ingegnere David Sarnoff, direttore commerciale dell'American Marconi Company, fa pervenire al suo Consiglio di Amministrazione la sua idea "fare della radio uno strumento domestico come il grammofono o il pianoforte. Il ricevitore sarà progettato nella forma di una scatola adatta a ricevere, tramite opportuni bottoni, diverse lunghezze d'onda e contenente al suo interno un amplificatore ed un altoparlante telefonico. Essa potrà essere sistemata in salotto per ascoltare musica, conferenze, concerti". Nasce la radio così come la conosciamo oggi. Insieme ad essa nasce uno dei problemi più spinosi a livello internazionale, quello delle interferenze. Basti pensare che nel 1923 esistevano in America più di 500 stazioni che operavano tutte sulla stessa frequenza. Il caos che cominciava a farsi insopportabile mise in luce l'esigenza di un coordinamento su base mondiale. La Conferenza dell’Unione Internazionale delle Telecomunicazioni del 1927 fu dedicata interamente a questo problema e portò all'assegnazione di bande di frequenza diverse ai vari servizi radio. Allora erano solo tre: il servizio tra punti fissi, il servizio mobile marittimo e la radiodiffusione.
Durante e dopo la seconda guerra mondiale si ebbe uno sviluppo impetuoso dei sistemi radio, dovuto all'utilizzazione di frequenze più elevate, le cosiddette microonde. Grazie a ciò e grazie al progresso della tecnologia il numero dei “servizi” che chiedono di utilizzare sempre più massicciamente quella risorsa comune, purtroppo limitata, che è lo spettro radio è andato progressivamente aumentando. Data la brevità del tempo a disposizione ne potrò citare solo i principali.
Determinante per l’esito della 2a guerra mondiale fu il radar, cioè il sistema che, come dicono le parole inglesi da cui deriva "radio detection and ranging", consente di determinare, via radio e anche in completa assenza di visibilità, la presenza e la distanza di oggetti. Il radar era stato preconizzato da Marconi il quale, in una famosa conferenza tenuta a New York nel 1922, commentando la ricezione di "echi" radio aveva affermato che "da ciò sembra possibile disegnare apparati per mezzo dei quali una nave potrebbe irradiare nella direzione che più le conviene. I raggi, incontrando un ostacolo metallico, col venire riflessi verso un ricevitore posto sulla nave che esegue l'emissione, svelerebbero immediatamente la presenza dell'ostacolo colpito dal fascio, fornendone il rilevamento anche con nebbia o comunque in condizioni di scarsa visibilità". Durante la guerra in Italia il principio del radar era perciò noto e alcuni esperimenti furono fatti a Livorno sotto la guida del Prof. Tiberio. L'ostacolo insormontabile, però, era quello di non possedere oscillatori di frequenza abbastanza elevata da consentire l'uso di antenne di dimensioni non eccessive. Gli anglo-americani riuscirono invece a costruire il radar avendo sviluppato il "magnetron", cioè il generatore di impulsi di elevata potenza di picco e lunghezza d'onda dell'ordine del centimetro. All'inizio, le applicazioni del radar furono soprattutto militari, per cui gli "oggetti" erano aerei nemici, ma in seguito le applicazioni civili sono diventate numerosissime: oggi non c'è aeroporto o nave o aereo che non sia dotato di radar. I primi per il controllo del traffico aereo; i secondi come radioaiuti alla navigazione.
In quegli stessi anni nacque la radioastronomia. Essa fu scoperta, per caso, da Karl Guthe Jansky il quale, studiando il rumore atmosferico presso i laboratori Bell negli Stati Uniti, si accorse che i corpi celesti emettevano onde radio. Prima di ciò gli astronomi potevano utilizzare solo una piccolissima parte dello spettro elettromagnetico, cioè quella nel "visibile". All'indagine celeste si era aperta la "finestra radio" che offriva possibilità prima insperate. La radioastronomia è uno dei servizi radio più "sensibili" e che più, quindi, vanno tutelati in tutte le sedi dalle interferenze causate da altri servizi.
L’uso delle onde radio è stato poi determinante per l’esplorazione della terra e l’esplorazione dello spazio.
I sistemi di telerilevamento per l'esplorazione della terra sono divenuti sempre più sofisticati fino a consentire oggi, da un satellite, di tenere ad esempio sotto controllo la crescita del grano in una certa zona o di scoprire giacimenti minerari.
Per quanto riguarda l'esplorazione dello spazio da parte dell'uomo, tutti noi abbiamo ancora negli occhi le immagini televisive che, mediante uno sforzo tecnologico senza eguali, mostravano l'astronauta Amstrong posare il piede sulla superficie lunare nel luglio 1969. Si è appreso recentemente che è molto probabile che tra alcuni anni la stessa impresa sia tentata su Marte.
Ma è nello sviluppo delle comunicazioni a distanza quello in cui le onde radio hanno giocato un ruolo fondamentale contribuendo a diffondere in modo sempre più capillare i due strumenti che hanno influito in modo così determinante sulla nostra vita: il telefono e la televisione.
Il telefono
Il telefono nasce circa 20 anni prima della radio. L’aneddotica vuole che al suo apparire il successo del telefono sia stato messo in dubbio dalle maggiori compagnie telegrafiche che non vedevano alcun futuro per quel “giocattolo elettrico”.
All’inizio il cavo è il mezzo attraverso il quale il telefono ha il suo grande sviluppo. All’inizio degli anni ‘50, l’uso delle microonde fa sì che nasca una seria competizione tra radio e cavi.
Per collegare punti sulla superficie terrestre distanti anche centinaia di chilometri, nascono infatti in quegli anni, ad opera dei famosi laboratori americani Bell, i cosiddetti "ponti radio": la distanza totale viene divisa in una serie di "tratte" simili alle "campate" di un ponte, in modo da assicurare che le due stazioni consecutive siano in visibilità.
E i ponti radio entrano in competizione, per ragioni di costo e di semplicità di installazione, con i già affermati “cavi coassiali”. La ricostruzione della rete telefonica italiana, attuata subito dopo la seconda guerra mondiale, si basò su entrambi i sistemi.
Tuttavia, con l’avvento delle fibre ottiche agli inizi degli anni ‘70, la cosiddetta rete di giunzione si avvia ad essere gradatamente basata sostanzialmente su cavi in fibra ottica.
Per quanto riguarda i collegamenti transoceanici, invece, questi furono, all’inizio, appannaggio della radio. Dagli inizi degli anni ‘30 fino alla posa del primo cavo telefonico transatlantico nel ‘56, i collegamenti transoceanici erano affidati infatti ai pochi canali consentiti dall’uso delle onde corte.
A partire dal 1956 i cavi telefonici transatlantici ebbero larga diffusione consentendo la trasmissione di un numero di canali telefonici ben maggiore di quello consentito dai collegamenti in onde corte.
Ma in quegli stessi anni la radio cominciò a prendersi una nuova rivincita con i collegamenti tramite i satelliti cosiddetti geostazionari. Essi, situati in un’orbita equatoriale a circa 36.000 Km di distanza dalla terra, risultano fissi rispetto alla terra stessa e quindi in visibilità costante rispetto alle stazioni terrene. E' interessante sottolineare che l'idea di poter collegare due stazioni a terra a grandissima distanza tramite un satellite artificiale, fisso rispetto alla terra, era venuta per la prima volta ad un famoso scrittore di fantascienza Arthur C. Clarke intorno al 1945. Allora sembrò veramente fantascienza. Bisognava infatti risolvere una serie di problemi. Innanzitutto razzi capaci di portare il satellite a 36.000 Km di distanza dalla terra. Poi realizzare satelliti con antenne e componenti adatti a sopportare le temperature e le condizioni di stress a cui sarebbero stati sottoposti. Ed infine, a terra, realizzare ricevitori così sensibili da captare i segnali debolissimi provenienti dal satellite. I primi esperimenti furono realizzati con il satellite russo Sputnik nel 1957 e con l'americano Explorer l'anno dopo. I satelliti erano molto semplici e i ricevitori a terra dotati di antenne molto grandi. Gradatamente il progresso tecnologico ha permesso di lanciare satelliti sempre più pesanti e complicati e quindi di semplificare i ricevitori a terra. Oggi, con un'antennina di soli 70 cm di diametro e televisori commerciali, si possono ricevere i programmi della televisione direttamente dal satellite.
Nel 1965 il consorzio INTELSAT lancia il primo satellite INTELSAT I (denominato Early Bird) che fornisce 240 circuiti telefonici e 1 canale TV tra Europa e Nord America.
Da quella data il numero dei canali telefonici forniti sia dai cavi sottomarini che dai satelliti geostazionari è andato costantemente aumentando ed il costo per circuito costantemente diminuendo, in entrambi i casi.
Per quanto riguarda la rete di distribuzione, cioè i collegamenti con il singolo utente, essa si è sviluppata invece via cavo con il famoso doppino telefonico. Circa 600 milioni di abbonati sono oggi collegati tra loro tramite una “ragnatela” di cavi che copre l’intero globo.
Ma, nel futuro, la situazione potrebbe invertirsi a favore della radio. E questo soprattutto per assicurare il dono della “mobilità”. Molti ritengono infatti che il futuro del telefono siano proprio le onde radio e vi sono già diversi segnali in questa direzione. Basti pensare allo sviluppo dei sistemi “cordless” (senza cavo) all’interno delle nostre case, all’esplosione del numero dei telefoni cellulari, i cosiddetti “telefonini”, o ai progetti di lanciare centinaia di satelliti su orbite basse che dovrebbero dare la possibilità a chiunque di comunicare “anytime, anywhere with anyone” senza bisogno di alcun collegamento in cavo.
La televisione.
Al contrario del telefono, la televisione è nata invece via radio. Innanzitutto attraverso le reti radio terrestri. Il segnale emesso dal ripetitore viene ricevuto con la selva di antenne che vediamo sui nostri palazzi: sono le antenne Yagi-Uda, dal nome dei professori giapponesi che le inventarono negli anni '30 non immaginando che avrebbero, involontariamente, contribuito così a deturpare il paesaggio di molte nostre città.
In Italia il modo in cui si riceve più diffusamente la televisione è proprio attraverso le reti radio terrestri. Non mi soffermerò su questo punto perché tutti i giornali parlano di questo argomento ormai da molto tempo. Vorrei solo sottolineare che attraverso le reti dei concessionari pubblici, le reti dei concessionari privati e le oltre 870 emittenti locali, abbiamo in Italia più di 20.000 impianti trasmittenti, che rappresentano più del 40 per cento di tutti gli impianti radio trasmittenti esistenti in Europa. E in questo consiste la atipicità italiana, cioè un uso massiccio del mezzo radio terrestre ed uno scarso uso del cavo e del satellite.
Un altro modo per ricevere la televisione è direttamente dal satellite mediante le piccole parabole che vediamo sempre più frequentemente sulle terrazze delle nostre case. Per quanto riguarda la radiodiffusione diretta da satellite occorre dire che, a tutt'oggi, l'Italia non ha ancora un suo satellite per radiodiffusione. Nel giugno del '91 fu costituita, nell'ambito del Consiglio Superiore delle Poste Telecomunicazioni e Automazione, una Commissione, che ebbi l'onore di presiedere, per lo studio della diffusione diretta da satellite da introdurre nel nostro Paese. Nel novembre del '91 la Commissione si espresse a favore del satellite italiano SARIT come alternativa al satellite europeo EUROPSAT. Purtroppo questo suggerimento non fu recepito da alcuno. Nel '93 il problema sembrò riemergere: sembrava che si volesse lanciare un satellite italiano con il nome di Guglielmo Marconi, ma anche questa iniziativa non ebbe seguito.
Attualmente in Europa ci sono circa 130 canali via satellite ed il numero degli utenti varia molto da Paese a Paese. In altri Paesi sono molto più numerosi che non in Italia. Vanno dai 4 milioni in Gran Bretagna ai 6 milioni in Germania: in Italia, alla fine del ‘93 erano solo circa 200.000 ma si calcola che entro breve tempo saranno almeno un milione. E questo per tre motivi sostanziali. Da una parte il costo delle apparecchiature: nel '90 era di circa 5 milioni e oggi è dieci volte minore. Inoltre, da marzo del '95, è ricevibile l'HOT BIRD 1 dell'Eutelsat che fornisce su tutta l'Europa, compresa l'Italia, circa 30 nuovi canali. E da agosto del prossimo anno sarà ricevibile l'HOT BIRD 2, sempre dell'Eutelsat, che fornirà circa 250 nuovi canali. Con un'antennina di soli 70 cm di diametro il segnale televisivo si potrà ricevere in tutta Europa. L'Italia ha affittato alcuni ripetitori e l'industria italiana, anche se non ha avuto la soddisfazione di costruire l'intero satellite, parteciperà alla costruzione di questi satelliti europei.
Il terzo modo per ricevere la televisione è attraverso il cavo la cosiddetta CATV. In altri Paesi la penetrazione della televisione via cavo è certamente notevole: si va dal 92 per cento in Belgio, all'86 per cento in Olanda, al 32 per cento in Germania, al 55 per cento in USA e al 72 per cento in Canada. In Italia la CATV non si è diffusa. Molti attribuiscono questo alla legge 103/75 che impose la rete monocanale. Cioè impose all'imprenditore che voleva installare una rete via cavo di poter trasmettere un solo programma. Ciò tolse, ovviamente, ogni interesse per la CATV e favorì un uso indiscriminato dello spettro radio.
La televisione domani
Oggi nelle nostre case riceviamo la cosiddetta "televisione standard". In Italia si usa il sistema PAL, ma sappiamo che esistono altri due sistemi in altre parti del mondo: l'NTSC negli USA ed il SECAM nei paesi francofoni. Il non essere riusciti ad avere un solo sistema in tutto il mondo è stata una delle maggiori sconfitte degli Organismi Internazionali di normativa.
Il televisore, che troneggia in una o più stanze delle nostre abitazioni, ha uno schermo all'incirca quadrato, con un rapporto tra base e altezza di quattro terzi. Ciò significa che la base è soltanto circa il 30 per cento più lunga dell'altezza. La dimensione dello schermo si misura attraverso la lunghezza della diagonale espressa, ahimé, in pollici. Ad una distanza di circa 3 metri l'angolo di visione è di circa 10 gradi. La presentazione dell'immagine avviene attraverso la scansione del pennellino elettronico del tubo a raggi catodici che descrive, nel sistema PAL, 625 linee ogni "quadro". Il quadro viene "aggiornato" ogni 40 millisecondi.
Ma qual'è il futuro della televisione? Se questa domanda fosse stata rivolta solo tre anni fa, in Europa e in Giappone la risposta sarebbe stata: la televisione ad alta definizione.
Che cos'è la televisione ad alta definizione? E' una televisione che prevede uno schermo diverso da quello che abbiamo attualmente, uno schermo molto più grande e molto più allungato. La base è questa volta circa l'80 per cento più lunga dell'altezza, l'angolo di visione è circa 30 gradi e le dimensioni sono molto maggiori di quelle dello schermo tradizionale che abbiamo oggi nelle nostre case. Ovviamente, essendo lo schermo così grande, per non vedere le linee di scansione del pennellino elettronico occorre raddoppiarne il numero. I vantaggi della televisione ad alta definizione sono numerosi: la qualità simile a quella del cinema, dovuta all'altissima definizione; la sensazione del cinema, dovuta allo schermo di forma simile a quello del cinematografo; la sensazione di partecipazione, dovuta all'angolo di visione di 30 gradi e non più 10 gradi e una qualità molto migliore rispetto alla televisione convenzionale. Le strategie europee e giapponesi si basavano appunto sul concetto di un'evoluzione graduale dalla televisione standard analogica alla televisione ad alta definizione analogica.
Se qualcuno avesse fatto la stessa domanda sul futuro della televisione, negli Stati Uniti la risposta sarebbe stata completamente diversa. La risposta americana avrebbe sottolineato il fatto che la vera rivoluzione non era il passaggio da TV standard a TV ad alta definizione, ma il passaggio da TV analogica a TV numerica.
Ricordo che nella Conferenza del "Financial Times" di Londra "Television of Tomorrow" del febbraio '92, ci fu il confronto tra queste due strategie. Da una parte il Giappone e l'Europa (l'Europa addirittura annunciava la Direttiva CEE del maggio del '92) e, dall'altra, la posizione americana.
Il realtà la strategia USA è risultata vincente e Giappone ed Europa si sono dovute adeguare.
I motivi di ciò sono molti. Il primo è che schermi di grandi dimensioni, di nuova concezione, cioè gli schermi "piatti" da appendere al muro come dei quadri, non erano e non sono ancora disponibili. Gli schermi di grandi dimensioni basati su tecniche tradizionali, come il tubo a raggi catodici o i sistemi a proiettore, hanno un ingombro, un peso un costo e un consumo inaccettabili per l'utente domestico.
Il secondo motivo è che l'utente ha reagito in modo diverso da quello previsto. La strategia europea e giapponese era basata sulla "tecnologia" e non teneva conto delle vere esigenze del "mercato".
Ma forse i motivi fondamentali sono i vantaggi del mondo numerico. Innanzitutto l'ambiente multimediale: nell'ambiente numerico, immagini, suoni e dati diventano numeri, diventano "bits", che possono viaggiare insieme. Un altro motivo estremamente importante è quello dell'interattività dell'utente: l'utente non è più passivo ma diventa attore delle proprie scelte. Il terzo, la possibilità di poter "comprimere" l'informazione. Con la compressione si tiene conto del fatto che l'informazione contenuta nell'immagine è "ridondante". Con la televisione numerica si può ridurre questa ridondanza e trasmettere meno informazione senza apprezzabile degrado della qualità. Intuitivamente, la "compressione" può essere spiegata facendo riferimento alla trasmissione di due quadri successivi. Se il quadro successivo non è molto cambiato rispetto al precedente, è inutile trasmetterlo "in toto". Basta trasmettere le variazioni di un quadro rispetto all'altro. E quindi con le tecniche di compressione, in un canale radio, invece di un solo programma analogico, potranno trovare posto fino a quattro-sei programmi numerici.
Nel mondo numerico, quindi, la limitatezza del numero di canali disponibili non sarà più un problema.
Con la radiodiffusione con reti terrestri, la numerizzazione renderà possibile aumentare in modo notevole la quantità dei programmi, sia con la compressione di cui sopra e sia con la cosiddetta pianificazione "isofrequenziale". Basterà cioè un solo canale radio per assicurare la copertura nazionale. Oggi, per coprire tutto il territorio nazionale occorre più di un canale, perché il progettista può usare la stessa frequenza solo su trasmettitori sufficientemente lontani tra loro perché si avrebbero altrimenti fenomeni di interferenza. Il mondo numerico, che è molto più resistente all'interferenza, permette invece la pianificazione isofrequenziale.
Il numero di canali disponibili aumenterà inoltre e in modo estremamente notevole anche con la radiodiffusione diretta da satellite. Con la codifica numerica e le relative tecniche di compressione con ogni trasponditore del satellite sarà possibile portare all'utente fino a circa 100 programmi. Tale numero va moltiplicato per il numero dei trasponditori, che in genere è tra dieci e venti. In Europa sarà dunque possibile ricevere, tramite satellite, un elevatissimo numero di programmi senza cambiare ricevitore ma con l'ausilio di un semplice decodificatore. Questo, ad un imprenditore di televisione numerica consentirà una grande flessibilità di programmazione. Un canale di 20 megabit al secondo potrà infatti essere utilizzato per trasmettere: un solo programma TV ad alta definizione, per esempio nel caso di film, partite di calcio, teatro, spettacoli, ecc.; oppure, quattro programmi TV a definizione standard; oppure, tre programmi TV a definizione standard e quattro canali radio; oppure, un solo programma TV standard e il resto per distribuire giornali personalizzati; oppure ... certamente le opzioni sono molto numerose.
Ma è nella radio o nel cavo il futuro della televisione?
Non vi è dubbio che il "passato" della televisione sia strettamente legato, specie in Italia, alla radio, così come il "passato" del telefono è legato al cavo.
Nel futuro però la situazione potrebbe invertirsi.
Molti ritengono infatti che il futuro della televisione sia il cavo. Solo attraverso il cavo infatti sarà effettivamente possibile fornire all’utente non solo l'ambiente multimediale ma l'interattività che è la vera rivoluzione della società dell'informazione.
In questo quadro è prevista pertanto una graduale evoluzione dal doppino telefonico alla fibra ottica a casa dell'utente, la cosiddetta "fiber to the home". Con la fibra ottica che raggiunge le abitazioni residenziali non ci sarà quasi più limite, sarà possibile fornire a ogni utente da 500 a 1.000 canali.
Questa è la direzione verso cui molti Paesi si stanno avviando. In Giappone si prevede che entro il 2010 la rete in fibra ottica coprirà l'intero territorio nazionale e raggiungerà il 100 per cento delle utenze residenziali. Negli Stati Uniti, l'Amministrazione Clinton vara il "National Information Infrastructure" che prevede la realizzazione delle famose "information superhighways". In Europa, il Libro Bianco di Delors indica nella realizzazione della grandi reti la rinascita competitiva europea: di particolare importanza le reti dell'informazione oggetto dell'ormai famoso Rapporto Bangemann, dal nome del Presidente del gruppo che lo ha preparato.
Attualmente, anche in Italia le fibre ottiche hanno raggiunto the "curb" (il marciapiede) cioè l'armadio da cui parte la distribuzione a una serie di edifici, ma non ancora la casa dell'utente. Il problema è "the last mile" cioè l'ultimo chilometro e mezzo, perché questo necessita notevolissimi investimenti. E quindi, necessariamente, ci sarà un'evoluzione graduale, che porterà dall'umile doppino di rame, attraverso il quale riceviamo attualmente il telefono, fino alla fibra ottica, probabilmente attraverso soluzioni intermedie. Iniziative per fornire all'utente, tramite il doppino, non solo il telefono ma anche la cosiddetta "video-on-demand", sono già in corso anche in Italia: l'utente è interattivo e può scegliere una serie di programmi televisivi (ad esempio films) semplicemente aggiungendo un decoder prima del suo apparecchio televisivo. Il video-on-demand sarà un sistema pay-per-view; cioè si pagherà solamente ciò che si vede e non un intero palinsesto preparato da altri come avviene attualmente.
Il computer e la comunicazione tra computer
Ma a questo punto interviene un terzo attore che si aggiunge nelle nostre case al telefono e al televisore: il computer.
Il primo grande calcolatore elettronico nacque circa 50 anni fà. Si chiamava ENIAC (Electronic Numerical Integrator and Computer), conteneva 18.000 valvole termoioniche, consumava diversi KW ed aveva una capacità di calcolo che oggi farebbe sorridere i piccoli calcolatori con cui giocano i nostri bambini.
L’evoluzione della tecnica dei microprocessori, dei programmi software e delle interfacce amichevoli ha gradatamente portato dal calcolatore — strumento ingombrante, situato in stanze apposite, per pochi addetti ai lavori in camice bianco — al “personal computer” di facile uso, di capacità di calcolo sempre crescente e di larga diffusione.
Ma i personal computer, la cui nascita si può far risalire a circa 20 anni fa, non rimangono a lungo “isolati”. Ben presto si sente il bisogno di farli colloquiare tra loro. Intorno al 1986 nasce Internet, la rete delle reti, dalla rete ARPANET sviluppata alla fine degli anni ‘60 negli Stati Uniti per il Dipartimento della Difesa. Nel 1992 il CERN di Ginevra introduce il sistema multimediale World-Wide-Web (la ragnatela a dimensione mondiale). Internet si espande in modo vertiginoso: dai 200.000 computer del 1990 ai circa 5.000.000 computer , che si stima siano collegati oggi.
Sembra che la popolazione di Internet stia aumentando al ritmo del 10% al mese. Se questo tasso dovesse continuare, nel 2003 ogni abitante della terra sarebbe connesso a Internet. L’ipotesi , anche se improbabile, lascia però intravedere le dimensioni del fenomeno.
La società dell’informazione
La vera rivoluzione deriva dunque dal passaggio dal mondo analogico al mondo “numerico”, o come si dice comunemente “digitale”. Essa è determinata dalla trasformazione di dati, suoni e immagini in numeri, in “bits” che possono essere trasmessi contemporaneamente, in un solo sistema di comunicazione a larga banda. Ciò porterà a tre conseguenze fondamentali: all'integrazione di computer telefono e televisione; alla convergenza delle industrie di computer, telecomunicazioni e produzione di audiovisivi; alla fornitura di servizi multimediali interattivi, cioè alla realizzazione della comunicazione multimediale in cui l'utente potrà "navigare" in modo interattivo tra informazioni legate a suoni, dati, immagini, testi e grafici.
Dalla situazione di oggi in cui la televisione è concepita per un utente passivo e soprattutto per svago si avrà domani un telecomputer per un utente interattivo in un ambiente di servizi multimediali.
I principali servizi multimediali, a parte la televisione interattiva, comprenderanno: il tele-shopping, per fare acquisti da casa; il tele-banking, per fare operazioni bancarie da casa; il giornale multimediale, per ricevere a casa il giornale con aggiornamento in tempo reale e composizione personalizzata: ciascuno sceglierà di farsi il giornale che lui desidera, con le informazioni che a lui più interessano, finanza, sport o quant'altro. Sarà possibile la telefruizione di basi dati - Internet che si è sviluppato in modo così vertiginoso è già un esempio in questo senso - e la telefruizione di beni culturali: si potranno ad esempio visitare i musei stando a casa.
Tutto questo è guardato da molti come una vera e propria rivoluzione epocale che dovrebbe portare alla cosiddetta "società dell'informazione". Questa - a detta degli studiosi della Comunità Europea - dovrebbe costituire una nuova frontiera per la società e l'economia, consentire il rilancio strutturale della competitività delle imprese, la creazione di nuove opportunità di occupazione, la trasformazione delle modalità e dell'organizzazione del lavoro, l'aumento dell'efficienza delle amministrazioni e delle istituzioni, in una parola, il miglioramento della qualità di vita dei cittadini europei.
Questa rivoluzione epocale, possibile grazie al progresso della tecnologia e alla rivoluzione numerica, nasce dal basso, dal mercato, dalla domanda, che a detta di molti, dovranno essere i veri motori del cambiamento. L'utente non investe in tecnologie - l'alta definizione è un esempio lampante - ma in servizi, se questi servizi sono offerti a prezzi competitivi. Per ridurre i costi dei servizi è necessaria l'abolizione dei monopoli, dei mercati chiusi, delle aree protette e dei prezzi politici. La regola deve essere il mercato e la concorrenza.
Secondo la strategia dell'Unione Europea gli ingenti investimenti necessari dovranno essere reperiti nel privato e mossi dal mercato. Da qui nasce la necessità di diminuire l'attrito di primo distacco per andare verso questa società dell'informazione. Vi è un Progetto Europa a cui far seguire un Progetto Paese per molti dei Paesi dell'Unione Europea. Bisognerà aumentare la cultura informatica. Oggi c'è una dicotomia tra le persone che sanno usare il computer e quelli che non lo sanno usare. Molto spesso questa dicotomia è generazionale, i giovanissimi usano il computer come le persone attempate usano la penna.
E, infine, noi tecnologi dovremo migliorare l'interfaccia uomo-macchina, renderla sempre più semplice. Questa è la strada verso cui si sta andando, con gli studi di riconoscimento della voce o gli studi di riconoscimento della scrittura - rendere sempre più semplice l'interfaccia uomo-macchina.
Dicevo che c'è un Progetto Europa e questo Progetto Europa è condensato nell'ormai famoso Rapporto Bangeman che prevede dieci importanti "applicazioni pilota".
Il tempo a disposizione non mi consente di esaminarle tutte in dettaglio. Mi soffermerò solo sulla prima che è quello del telelavoro. L’obiettivo indicato nel Rapporto è quello di creare, entro il ‘96, esperienze di telelavoro in 20 città europee in modo tale che si abbiano 20.000 lavoratori e portare a 10 milioni il numero di telelavoratori in Europa entro il 2000. I vantaggi sono molti: innanzi tutto il miglioramento della circolazione urbana, la riduzione del pendolarismo e il miglioramento ecologico. Uno studio che è stato fatto sulla zona di Milano, con applicazione ai 100.000 possibili telelavoratori nella provincia di Milano, ha portato a un calcolo di riduzioni di ambienti inquinanti estremamente elevato e a un risparmio energetico di migliaia di litri di benzina all’anno. Con il telelavoro si potranno cercare di sviluppare le aree rurali o depresse, si potranno recuperare alcuni lavoratori che attualmente la società rende svantaggiati, ad esempio le donne che devono accudire le faccende domestiche o i disabili. Sono molti coloro che pensano che esso potrà migliorare la competitività delle imprese. Gli ostacoli però sono molti e questi non sono tecnologici, in quanto la tecnologia è già disponibile. Gli ostacoli vengono dalla società. Vi sono ostacoli giuridici: il telelavoro deve essere ancora recepito nel diritto del lavoro. Il telelavoratore è un lavoratore subordinato o autonomo? L’articolo 4 dello Statuto dei lavoratori si può applicare o no? Vi sono ostacoli sindacali: il sindacato è nato con la rivoluzione industriale e teme in qualche modo la diminuzione del suo potere. Il telelavoro lascia prevedere più una associazione tra liberi professionisti che non tra lavoratori dipendenti iscritti ad un sindacato. Vi sono ostacoli manageriali: la necessità di valutare le prestazioni non più in termini di tempo ma di quantità e qualità di lavoro svolto incontra una certa contrarietà psicologica del management intermedio.
Come per gli altri aspetti della società dell’informazione, così il telelavoro suscita alcuni spunti di riflessione circa l’impatto sulla società. Il telelavoro ha certamente dei vantaggi. Si abbatte il concetto tayloristico dell’unità di luogo e di tempo per la produzione industriale. La Rivoluzione Industriale aveva strappato l’uomo dal suo ambiente di vita che, prima della rivoluzione, coincideva con l’ambiente di lavoro. Il telelavoro fa di nuovo coincidere l’ambiente di vita con l’ambiente di lavoro. Potrebbe però creare altri problemi, come la diminuzione dei contatti sociali o la sensazione di solitudine. E vi sono tanti altri aspetti su cui forse andrebbe fatta una profonda riflessione.
Aspetti di grande interesse per gli studiosi di sociologia. Da parte mia, preferisco ritornare sul campo della tecnologia che mi è più familiare e domandarmi cosa possiamo aspettarci dalla tecnologia per un futuro ancora più lontano.
Il futuro ancora più lontano si baserà, a mio avviso, sull'evoluzione di tre tecnologie fondamentali.
La prima evoluzione riguarda le fibre ottiche. Già oggi esse possono trasmettere ad elevatissime velocità, fino a 10 gigabit al secondo, cioè 10 miliardi di informazioni al secondo. Per superare l'inevitabile allargamento dell'impulso all'interno della fibra, si sta studiando la possibilità di utilizzare gli effetti non lineari delle fibre e trasmettere impulsi, detti "solitoni", che non subiscono distorsioni anche su lunghe distanze e che consentono velocità fino ed oltre a 100 gigabit al secondo, il che significa più di 5.000 canali HDTV su una sola fibra.
L'altra importante evoluzione tecnologica riguarda il computer. E' noto che maggiore è il numero dei transistor che costituiscono le parti logiche del microprocessore del computer e maggiore è la sua capacità di calcolo. E in questo senso il ritmo di evoluzione è stato notevolissimo. Si è passati dagli anni '70, in cui si aveva l'Intel 4400, con 2300 transistor, alla situazione attuale, anni '95, in cui nei processori Pentium o Power PC vi sono 3 milioni e mezzo di transistor. C'è qualcuno che prevede che, entro un decennio, vi saranno 100 milioni di transistor su un solo microprocessore. E mantenendo l'attuale ritmo evolutivo, un ordine di grandezza ogni 15-20 anni, sarà possibile arrivare, intorno al 2020, a componenti elementari di dimensioni inferiori al miliardesimo di metro, cioè dimensioni paragonabili a quelle degli enzimi delle cellule biologiche. A questo punto la "computer technology" si confonderà con la "biotechnology" con conseguenze che è difficile prevedere.
La terza evoluzione riguarderà la televisione. Molto probabilmente si tenderà verso la cosiddetta televisione tridimensionale, cioè quella che consente la riproduzione della sensazione della profondità ed in cui gli oggetti sembrano avere volume con estensione virtuale al di fuori dello schermo. La televisione tridimensionale si basa sull'emulazione del meccanismo della visione binoculare umana. Attualmente, i sistemi prevedono due telecamere, poste ad una distanza interassiale di circa 65 mm. Le metodologie per restituire le due immagini proiettate sullo schermo hanno avuto una notevole evoluzione. Il primo passo fu la discriminazione in colore, cioè si introdusse una colorazione artificiale per le due immagini: rosso e verde. In questo caso si aveva bisogno di occhiali con lenti colorate e ovviamente l'informazione del colore andava perduta. Il secondo passo fu la discriminazione per polarizzazione che prevedeva l'introduzione di una diversità di polarizzazione nelle due immagini: si ha sempre bisogno di occhiali con lenti polarizzate ma i colori originali sono preservati. Il terzo passo è il sistema studiato attualmente, che è quello della autostereoscopia, con il quale si può avere la sensazione della profondità senza bisogno di occhiali.
In un futuro ancora più lontano si possono immaginare più di due telecamere che, equispaziate e a coppie, costituiscono diverse immagini stereoscopiche della stessa scena vista da diverse posizioni. La restituzione potrebbe avvenire con un sistema a multiproiezione su schermo lenticolare. E' da prevedere un'elevatissima complessità degli apparati e dello schermo e un'enorme quantità di informazioni da trasmettere. L'obiettivo è però affascinante e si chiama "realtà virtuale". Vi sono molti che non considerano questo fantascienza. Charles W Smith, uno studioso di questo settore, ha recentemente affermato che "le future generazioni si meraviglieranno del fatto che per alcuni decenni nel 20° secolo ci contentavamo delle odierne immagini piatte per rappresentare un mondo tridimensionale".
Con queste premesse, alla domanda: "quale sarà il futuro?" è certamente difficilissimo rispondere. E' però illuminante ripercorrere brevemente le grandi tappe dell'evoluzione della comunicazione umana e constatare quale ritmo vertiginoso lo sviluppo tecnologico abbia avuto.
Molti concordano nel ritenere che la prima tappa fondamentale della comunicazione umana si ebbe 3000 anni fa, quando l'uomo inventò la scrittura e l'alfabeto moderno. Si passò dalla comunicazione orale alla comunicazione scritta. Un salto epocale: non più Omero che raccontava oralmente l' "Iliade" e l' "Odissea" ma lo scritto come memoria della cultura.
Dovevano passare 2500 anni per avere la seconda fondamentale rivoluzione epocale, allorchè 500 anni fa nacque la stampa a caratteri mobili. Guttenberg, nel suo laboratorio di Magonza, stampa la prima "Bibbia": esplode la comunicazione, che non è più solo nelle mani degli amanuensi, e si attua quello che i comunicatori di massa chiamano la prima democratizzazione del sapere.
Ancora 400 anni devono passare per avere la terza rivoluzione epocale: 400 anni, molto meno dei 2500 anni precedenti. Ciò quando, 100 anni fa, a breve distanza di tempo l'uno dall'altro, nascono il telefono, la radio e il cinema. Tutti noi sappiamo che nel 1995 si è celebrato oltre al primo centenario della radio anche il primo centenario del cinematografo.
Da quel momento il ritmo del progresso è andato aumentando con un'incredibile accelerazione. Sessanta anni fa nasce la televisione; quaranta anni fa nasce il transistor; trent'anni fa nascono le comunicazioni via satellite, il microprocessore e le fibre ottiche. Negli ultimi venti anni si sviluppa il personal computer, con l'influenza sulla vita domestica e di lavoro che tutti noi conosciamo; si sviluppa il disco ottico, che si presenta come possibile sostituzione di enciclopedie e testi; si sviluppa il telefono mobile. Domani, si intravede la società dell'informazione multimediale interattiva.
Quale sarà il futuro? Nessuno è in grado, purtroppo, di rispondere con certezze assolute. Desidero però concludere con due osservazioni.
La prima è che molti, ed io tra questi, ritengono che l'Europa dovrebbe fare, comunque, ogni sforzo per entrare nella "nuova società" senza esitazioni. Questa è la filosofia del Rapporto Bangemann che conclude: "I Paesi che, per primi, entreranno nella società dell'informazione otterranno i maggiori vantaggi. I Paesi che, al contrario, ritarderanno il loro ingresso nella società dell'informazione, in meno di un decennio, dovranno affrontare una disastrosa diminuzione di investimenti e di posti di lavoro".
La seconda, che come Italiani certamente ci inorgoglisce, è che le premesse per dischiudere di fronte all’umanità questa nuova affascinante frontiera furono gettate da quell’esperimento compiuto cento anni fa a Villa Griffone, vicino a Bologna, dal nostro Guglielmo Marconi.
|
|
154)
Ruolo della Fondazione Ugo Bordoni nel contesto della ricerca nazionale
Fedi, F., Relazione FUB: 0B00497
|
|
155)
Compito della ricerca
Fedi, F., TELEMA n. 11, 1997
La ricerca ha un nuovo compito, essenziale
"Anytime, anywhere with anyone". Comunicare in qualunque momento, in qualunque luogo e con chiunque. Nella foresta dell'Amazzonia, sulle montagne del Tibet o nelle pianure dell'Argentina avere la possibilità di telefonare o di collegarsi a Internet attraverso piccoli terminali satellitari. Oppure viaggiare con una "scheda intelligente" per essere in qualunque punto del globo sempre virtualmente come nel nostro ufficio e ricevere tutti i servizi di comunicazione che ci sono necessari.
Questa futura società dell'informazione globale con i suoi benefici indotti sulle attività economiche si scontra però con l'attuale panorama delle grandi diseguaglianze tra i vari paesi. La densità telefonica di 43 telefoni su 100 abitanti nel Nord America, di 38 su 100 in Giappone e di 32 su 100 in Europa decresce notevolmente nei paesi in via di sviluppo: un rapporto della Banca mondiale del 1996 mostra che in più di 13 di questi paesi vi è meno di un telefono ogni 100 abitanti. Il divario peggiora se si considerano gli "Internet hosts" del 1997: su un totale di circa 16 milioni quasi il 90% è concentrato nel Nord America e in Europa.
La situazione potrebbe evolversi positivamente per tre motivi fondamentali.
Lo sviluppo delle telecomunicazioni nei paesi meno industrializzati è uno dei principali obiettivi di enti internazionali come l'Unione internazionale delle telecomunicazioni, la Banca mondiale e l'organizzazione delle Nazioni unite.
Il non disporre di infrastrutture che hanno causato grandi investimenti ma che, data la rapidità del progresso tecnologico, diventano rapidamente obsolete potrebbe essere un secondo fattore positivo per i paesi in via di sviluppo in quanto consente loro, dovendo effettuare investimenti in questo settore, di utilizzare i sistemi più moderni.
Un terzo aspetto positivo potrebbe derivare dalla cosiddetta "globalizzazione della ricerca" che si propone come un fattore essenziale ai fini di una più rapida diffusione dei processi di innovazione tecnologica. Gli investimenti in ricerca al di fuori dei confini nazionali sono un fenomeno molto rilevante sotto il profilo quantitativo e in continua crescita. Ciò contrasta con le strategie industriali del passato che spingevano a installare processi manifatturieri in paesi in via di sviluppo per i bassi costi di impianto e di esecuzione, ma di mantenere nei paesi di origine l'ideazione di tecnologie innovative. Si fa sempre più strada la convinzione che lo scambio e l'integrazione in materia di ricerca scientifica e tecnologica siano per quei paesi veicolo di innovazione, sviluppo e stimolo a un'immensa potenziale domanda di servizi.
Da più parti si auspicano interventi che controllino questo processo, ne favoriscano l'attuazione e indirizzino lo sviluppo verso obiettivi di riduzione degli squilibri, in modo che esso possa tradursi in un fattore realmente "globale" di crescita dell'economia mondiale.
|
|
156)
Lo schermo è sempre piatto ma la scena ha tre dimensioni
Chiari , A., Fedi, F. Relazione FUB: 0D00897 TELEMA n. 10, 1997 pp 56-59
I sistemi televisivi di nuova concezione hanno un obiettivo molto ambizioso: promuovere lo spettatore ad attore di un teatro virtuale. Ciò sarà possibile con la diffusione della tv tridimensionale, che esce dallo schermo e mediante display "intelligenti" consente un'interattività prima inimmaginabile.
Digitale, ad alta definizione, interattiva e tridimensionale (3D). Il paradigma della televisione si è arricchito di un nuovo modo di riprodurre le immagini, proiettate in uno spazio virtuale tridimensionale. Non nel senso convenzionale delle viste prospettiche esaltate da linee di fuga accentuate, contrasti di luci e ombre, colori sfumati, su cui fa leva la computer-grafica cosiddetta tridimensionale. Si tratta invece di una vera e propria ricostruzione spaziale delle (pur sempre) immagini, che l'osservatore percepisce come materializzate in parte al di qua, in parte al di là dello schermo. Può sorprendere che il principio di base che consente questo prodigio virtuale fosse noto già nel secolo scorso, quando grazie a una prima implementazione con la tecnica fotografica ha prodotto immagini d'epoca tuttora esposte nelle mostre sulla cultura del 3D. La particolarità di tali immagini era duplice, per il fatto di presentarsi in coppie, sempre molto simili, quasi indistinguibili, e per il poter essere riviste "a tre dimensioni" per mezzo di uno speciale visore, lo stereoscopio. La stessa tecnica, detta appunto stereoscopia1, è ai giorni nostri oggetto di un interesse rinnovato, con la motivazione ambiziosa di una possibile estensione al campo televisivo2. Grazie anche alla crescente disponibilità delle tecniche digitali e multimediali, nell'ultimo decennio la comunità scientifica internazionale ha cominciato a inseguire questo obiettivo con studi sistematici e coordinati: si può anticipare che il passaggio alle immagini elettroniche si è rivelato tutt'altro che immediato, soprattutto per il contenuto di movimento, che introduce nuove questioni nel dominio dei fattori umani studiati dall'ingegneria televisiva3.
Quale che sia la forma di implementazione (alle due tecniche fotografica e televisiva per completezza dovremmo aggiungerne una terza, quella meno diffusa della cinematografia stereoscopica), si cerca di riprodurre la percezione delle tre dimensioni spaziali mediante l'emulazione del meccanismo della visione naturale, cioè con un approccio binoculare. Ciò si traduce nell'impiego di una coppia di dispositivi di ripresa uguali (fotocamere, cineprese, videocamere), disposti come gli occhi di una persona, cioè distanziati di circa 60-65 mm su una linea orizzontale, e coordinati nel movimento. Inoltre, nel caso di una videocamera stereoscopica i due segnali elettrici devono essere anche allineati a un riferimento temporale comune, cioè la scansione nei due trasduttori di ripresa deve essere cadenzata da un unico segnale di sincronismo4. Con questa configurazione i due dispositivi "vedono" una stessa scena da due punti di osservazione distinti, anche se ravvicinati, e perciò generano due immagini (stereo-coppia) diverse, anche se apparentemente simili. Tralasciando i problemi legati al trasporto a distanza di queste informazioni, la restituzione su uno schermo tridimensionale avviene in modo complementare alla ripresa, mediante una opportuna tecnica di separazione ottica delle due immagini (sinistra e destra). A questo proposito i ricercatori hanno messo a punto una vasta serie di soluzioni, diversificate per tecnologie, complessità e prestazioni, che probabilmente sono destinate a giocare un ruolo chiave negli scenari futuri della televisione tridimensionale; di seguito tenteremo di tracciarne la linea evolutiva che si sta affermando.
1. Lo schermo: un componente "passivo".
Gli schermi stereoscopici di prima generazione5 erano composti di due monitor convenzionali disposti ad angolo retto e di uno specchio semi-trasparente; le due immagini venivano risolte con l'ausilio di filtri ottici polarizzati, di cui veniva dotato anche l'osservatore (occhiali). Nonostante si tratti di un'aggregazione piuttosto ingombrante di componenti tradizionali per diverse applicazioni televisive, questa soluzione ha mantenuto per decenni il primato della qualità delle immagini, rispetto ai numerosi ritrovati di ben altra complessità tecnologica, portati avanti in nome dell'eliminazione degli occhiali; ancora oggi lo stesso arrangiamento, mutatis mutandis (una coppia di video-proiettori convenzionali convergenti su uno schermo non depolarizzante) viene trasposto con successo ai sistemi di proiezione di immagini 3Dtv destinate a un pubblico più numeroso.
Soprattutto in queste ultime applicazioni, gli occhiali polarizzati (trasparenti, leggeri, economici) sembrano un "disagio" ben accettabile, in cambio della rappresentazione tridimensionale di una realtà fantasiosa in cui sembra di essere immersi. Del resto, all'ovvia critica sugli occhiali polarizzati si può opporre l'argomentazione della popolarità delle cuffie stereofoniche! Un problema forse più concreto è invece la complessità del display. In questo senso va interpretato il tentativo di riportare le dimensioni dei display stereoscopici a quelle più abituali dei monitor per applicazioni televisive o multimediali mediante la scansione cosiddetta tempo-sequenziale6: la filosofia che ispira questa tecnica è di commutare la multiplazione dei segnali dallo spazio al tempo, mediante l'alternanza delle immagini sinistra e destra in un segnale composito. In sincronismo con le immagini che scorrono sul display, gli occhi vengono oscurati alternativamente, per mezzo di opportuni occhiali otturatori ("shutters") attivi; l'assenza di una vera e propria simultaneità delle due immagini tuttavia non preclude la visione stereoscopica, che si verifica ancora una volta per il fenomeno della persistenza delle immagini sulla retina.
I metodi per rivedere le immagini 3D senza occhiali speciali si basano sulla separazione ottica al livello dello schermo (detto "autostereoscopico"); nelle realizzazioni più semplici viene sfruttata una tecnologia di deposizione di una schiera di lenti cilindriche, di diametro dell'ordine di grandezza di 1 mm ("pitch" dello schermo). Per poter essere rilette in formato tridimensionale, le immagini devono essere scritte sullo schermo interallacciate pixel a pixel: la separazione ottica delle due immagini avviene a carico delle microlenti7. Tuttavia, anche se più evoluti, gli schermi di questa tipologia sono ancora "passivi", cioè incapaci di interagire con l'osservatore.
2. Il display 3D diventa intelligente.
Una caratteristica comune ai sistemi stereoscopici descritti è che l'osservatore può vedere la scena riprodotta con l'unica prospettiva trascritta al momento della ripresa, indipendentemente dalla sua posizione rispetto allo schermo. Questa limitazione può essere superata se si incrementa il numero delle immagini riprese simultaneamente (con una schiera di telecamere) e quindi si rende disponibile una molteplicità di prospettive. In questo modo si riesce ad approssimare localmente, per piccoli spostamenti del punto di ripresa, un effetto tridimensionale più naturale. Applicato inizialmente ai display lenticolari, questo principio ha riscosso ampi consensi presso la comunità scientifica internazionale, pur essendo tale implementazione suscettibile di miglioramenti soprattutto nella miniaturizzazione dei relativi componenti.
Proprio questo obiettivo ha portato in tempi più recenti al progetto di schermi dotati di dispositivi elettro-ottici in grado di dirigere dinamicamente verso l'osservatore la coppia di immagini più rispondente alla sua posizione. Questo comportamento adattativo viene ottenuto chiudendo il segmento display-utente della classica catena televisiva in un anello controreazionato da un rilevatore automatico della posizione dell'osservatore (la linea di feedback include l'elaborazione in tempo reale dei dati raccolti con un sistema di ripresa telemetrico, naturalmente stereoscopico). Integrato in questo sistema di controllo automatico, il display possiede tutti i requisiti che sono necessari per accedere a forme di interazione più intelligenti, anche al di là del tradizionale ambito televisivo.
3. Verso la multimedialità.
Opportunamente accoppiati a tecniche innovative di interazione, gli schermi tridimensionali stanno contribuendo all'implementazione di interfacce d'utente di nuova concezione all'interno delle applicazioni multimediali. Considerando la crescente varietà dell'informazione multimediale, come documenti, archivi audio e video, programmi applicativi, la dimensione-profondità contribuisce a ricreare una struttura di presentazione dell'informazione più intuitiva e immediata. Sembra infatti più naturale organizzare la disposizione e la visualizzazione delle informazioni multimediali con una interfaccia grafica (Gui, Graphic user interface) che prevede la gestione di modelli spaziali.
Tra le soluzioni ancora più avanzate che cominciano ad affacciarsi sul panorama affollato della multimedialità, quella di un Sistema operativo visivo (Vos, Visual operating system) promette un ambiente integrato per gestire interazioni basate su comandi di tipo sia esplicito (lanciati mediante tastiera o dispositivi di puntamento tipo mouse) sia implicito (comunicati mediante il semplice sguardo). Il supporto hardware/software di una piattaforma multimediale dotata di simili automatismi comprende i componenti tipici della televisione stereoscopica: non soltanto lo schermo 3D per la presentazione delle informazioni, ma anche, e questa è la novità più significativa, un sistema di ripresa stereoscopico integrato per il rilevamento automatico della posizione della testa dell'osservatore e della linea del suo sguardo. Questo comporta la possibilità di definire dinamicamente la prospettiva di osservazione, e anche di poter attivare un oggetto sensibile (ad esempio, un documento) semplicemente con lo sguardo.
Un'applicazione molto interessante è un lettore di pagine web: in questo caso i collegamenti ipertestuali (hyper-links) vengono attivati semplicemente guardando una parola "sensibilizzata" per un certo lasso di tempo: il documento fissato verrà portato dal sistema in primo piano sullo schermo, mentre gli altri saranno allontanati sullo sfondo. Allo stesso modo, gli altri documenti disposti ovunque nello spazio virtuale potranno essere richiamati e visualizzati semplicemente guardandone l'icona sullo schermo.
4. Realtà virtuale o virtualizzata?
Nello scenario della cosiddetta Itc (Information and communications technology), presso la Carnegie Mellon University (Usa) è stata avviata una sperimentazione molto promettente sulla possibilità di coniugare le tecniche di realtà virtuale con la naturalezza delle immagini televisive. Il concetto di realtà virtualizzata8 nasce nel tentativo di superare due limitazioni connaturate con la televisione tradizionale: l'angolo di ripresa deciso univocamente dal regista e la visione bidimensionale dei (tele)visori attuali. Come la più nota realtà virtuale, anche la realtà virtualizzata riproduce un ambiente virtuale attorno allo spettatore; dove però i due metodi differiscono è nel modo in cui i rispettivi modelli matematici vengono generati: il primo si basa su modelli relativamente semplici e schematici degli oggetti, del tutto sintetici, che si vogliono rappresentare; diversamente il secondo costruisce automaticamente i modelli virtuali a partire dalle riprese del mondo reale, mantenendo tutti i dettagli visibili nelle immagini originali. La realtà virtualizzata realizza un mezzo visivo immersivo che permette all'osservatore di personalizzare dinamicamente una prospettiva secondo le proprie preferenze del momento, come se potesse riprendere la scena (realtà) con una propria telecamera mobile (virtuale), liberamente posizionabile all'interno della scena.
La potenza espressiva di un tale mezzo va anche ben al di là delle possibilità effettive di collocare una telecamera reale in una posizione preferita: come si potrebbe collocare una telecamera reale al centro di un campo di calcio, o, come è stato dimostrato, su una palla da baseball che "vede" il battitore dapprima avvicinarsi progressivamente, e poi allontanarsi dopo esserne stata respinta, o ancora nella stessa posizione fisicamente occupata da un chirurgo impegnato in un intervento operatorio destinato anche a essere visto in diretta a fini didattici? Tali questioni trovano una risposta affermativa se affrontate nel dominio virtuale, anzi virtualizzato, con gli strumenti di (post-)produzione finora riservati esclusivamente alle animazioni di computer-grafica.
5. Europa e Giappone: competizione o cooperazione?
In Europa in questo ultimo decennio sono stati attivati alcuni Progetti di ricerca coordinati sulla televisione stereoscopica: il primo è stato avviato nel Programma di ricerca Cost, con l'obiettivo di definire un sistema televisivo che attraverso l'innovazione della tridimensionalità potesse migliorare la qualità delle immagini ad alta definizione. Il Progetto Cost 230 (Stereoscopic television) grazie a una larga partecipazione internazionale ha svolto ricerche fondamentali nelle aree della psico-ottica, delle tecniche di elaborazione dei segnali video e delle tecnologie dei componenti. Tra le funzioni strategiche del Progetto Cost 230 va segnalata quella di avere originato alcuni Progetti di tipo applicativo che, supportati dai Programmi di ricerca europei Race e Acts, hanno potuto sviluppare alcuni argomenti tematici fino all'implementazione.
Alcuni fattori, tra cui la molteplicità delle applicazioni suscettibili di un trattamento mediante immagini tridimensionali (applicazioni professionali e di intrattenimento) e la mancanza del primato di qualità di un sistema rispetto a tutti gli altri (sistemi stereoscopici a polarizzazione o autostereoscopici?) frenano le proposte di standard video 3Dtv ancora all'interno dei laboratori di ricerca. In questo scenario l'assenza di un vero e proprio gap tecnologico tra Europa e Giappone (diversamente dalle pregresse esperienze sull'Hdtv) favorisce un clima di crescente cooperazione, in cui sono tutt'altro che rare iniziative di ricerca comuni.
Si stima che attualmente in Giappone oltre duecento ricercatori (tra accademia e industria) siano impegnati nelle ricerche sulla 3Dtv, sia nella forma della stereoscopia, sia in quella decisamente più impegnativa dell'olografia9.
In questo scenario, la produzione 3Dtv è stata prevalentemente orientata alle applicazioni specifiche per gruppi di utenza professionale: telemedicina, chirurgia endoscopica, servizi di teledidattica, video-conferenza, ma anche la manipolazione remota di oggetti in ambienti inaccessibili o ostili mediante robot (come nella recente missione spaziale Usa sul pianeta Marte). Tuttavia, più recentemente anche sul piano dell'intrattenimento televisivo sono stati registrati risultati promettenti, tanto da indurre l'Nhk giapponese ad arricchire la proposta dell'home-theatre con la cosiddetta 3D-HDtv, che produce immagini televisive spettacolari, dotate, oltre che di rilievo, dei dettagli propri dell'alta definizione10.
6. Il contributo della Fub.
La Fondazione Ugo Bordoni, che ha una specifica riconosciuta competenza in questo campo, da anni partecipa attivamente agli studi sul tema della 3Dtv, con particolare attenzione alle tecniche di codifica dei segnali video stereoscopici. L'interesse verso questo tema è motivato dalla duplice finalità di adattare un segnale televisivo stereoscopico al trasporto attraverso i canali di telecomunicazione convenzionali e di memorizzarlo su un supporto di memoria di massa. La ricerca di uno schema di codifica idoneo ad applicazioni di elevata qualità è stato affrontato con l'atteggiamento di generalizzare i sistemi di codifica disponibili per i sistemi video convenzionali, possibilmente mantenendo la compatibilità verso la televisione monoscopica. L'approccio Fub alla compatibilità è articolato su un doppio livello di codifica, realizzata con metodi interamente numerici: compressione dei dati di una delle due immagini con una tecnica convenzionale (canale compatibile), descrizione della seconda immagine mediante le variazioni rispetto alla prima.
Su questa piattaforma è stato innestato un codificatore "intelligente" di concezione Fub, in grado di differenziare la qualità degli oggetti all'interno delle singole immagini in funzione del loro "peso" visivo. Anche in questo caso, l'architettura del codec (codificatore-decodificatore) prevede una struttura ad anello chiuso, che include uno stimatore della posizione degli "oggetti" all'interno delle immagini. I blocchi funzionali più critici del sistema sono tuttora oggetto di uno studio di ottimizzazione condotto in collaborazione con il Dipartimento di Informatica e Sistemistica dell'Università degli Studi di Roma "La Sapienza".
Una recente attività di sperimentazione sui display ha portato allo sviluppo di un driver per gli schermi tempo-sequenziali, a partire dall'osservazione che la risoluzione verticale in questo tipo di display risulta degradata se viene utilizzato il tipo di interallacciamento usato nella televisione monoscopica. Questo artefatto è stato neutralizzato con una nuova organizzazione dei segnali di sincronismo video, rispondente a un fattore di interallacciamento alternativo. Il recupero completo della risoluzione verticale nelle immagini è stato dimostrato mediante un circuito integrato digitale (processore di sincronismo video) ideato e realizzato all'interno della Fondazione. Si prevede che nel breve termine il dispositivo potrà essere utilizzato nei laboratori degli Istituti di ricerca consorziati con la Fub, naturalmente motivati a privilegiare soluzioni tecnologiche basate su schermi sempre più compatti e luminosi, quali i display stereoscopici a scansione sequenziale.
I risultati di queste ricerche vengono regolarmente diffusi nella comunità scientifica internazionale, particolarmente in ambito europeo, dove la Fub ha contribuito fin dal primo momento ai lavori del Progetto Cost 230, di cui ha recentemente assunto il coordinamento.
Il Progetto Cost per la stereoscopia ha un numero: 230
I progetti di ricerca Cost (European cooperation in the scientific and technical field) nascono nei primi anni '70 e rappresentano la prima forma di collaborazione scientifica sistematica a livello europeo. La Fondazione Ugo Bordoni che è stata fin dall'inizio uno dei più strenui sostenitori della collaborazione Cost, ha detenuto la Presidenza di più di un quinto dei circa 60 progetti varati nell'area delle telecomunicazioni e rappresenta l'Italia nel Technical committee telecommunications.
Il Progetto Cost 230 (Stereoscopic television - standards, technologies and signal processing) è stato avviato nel 1991 con l'obiettivo di coordinare le attività di ricerca e sviluppo in ambito europeo sulle tecnologie dei sistemi televisivi tridimensionali (3Dtv), in particolare stereoscopici. Alla stesura del piano di ricerca (in origine quinquennale, recentemente prolungato di altri due anni) hanno partecipato esperti di Istituti di ricerca di Belgio, Francia, Germania, Italia e Regno Unito, ai quali si sono aggiunti negli anni successivi Grecia, Portogallo e Spagna. Attualmente gli otto paesi membri contribuiscono al progetto con oltre venticinque enti di ricerca.
Il progetto si sviluppa in tre filoni principali per ciascuno dei quali opera uno specifico gruppo di lavoro:
1) Fattori umani nella 3Dtv: psico-ottica della visione binoculare, grammatica di produzione 3Dtv e metodologie di valutazione della qualità delle immagini 3D.
2) Tecnologie 3Dtv: dispositivi di ripresa, dispositivi di video-registrazione, schermi stereoscopici con occhiali e schermi autostereoscopici senza occhiali.
3) Elaborazione e trasmissione del segnale 3Dtv: tecniche di codifica di sorgente, interpolazione e sintesi di immagini virtuali.
Non essendo possibile citare le numerose attività specifiche di ricerca svolte dagli Istituti europei membri del Progetto Cost 230, chi desideri informazioni più approfondite può visitare il sito Web di indirizzo http://europa.eu.int/en/comm/dg12/cost-h.html, che raccoglie più in generale le presentazioni di tutti i progetti attivati. Gli autori di questo articolo possono essere contattati agli indirizzi e-mail: {chiari,fedi}@ fub.it.
Note
1 N.A. Valyus, Stereoscopy, The Focal Press, London, 1962.
2 Si veda in proposito R. Sand, New aspects and experiences in stereoscopic television, SMPTE J. 93, 1984 e A. Chiari, F. Fedi, M. Migliorini, La televisione tridimensionale, "Alta frequenza - Rivista di elettronica", vol 7, n 5, sett.-ott. 1995.
3 S. Pastoor, Human factors of 3D displays in advanced image communications, "Displays", vol 14, n 3, 1993.
4 P. Scheiwiller, C. Guerin, J.C. Guerin, A. Dumbreck, An advanced 3DTV studio camera, Proc. of the International workshop on Stereoscopic and three dimensional imaging, Santorini (Gr), sett. 1995.
5 R. Sand, op. cit.
6 H. Isono, M. Yasuda, Flicker-free field sequential stereoscopic tv system and measurement of human depth perception, "Smpte Journal", feb. 1990.
7 R. Boerner, Autostereoscopic 3D systems by lenticular methods, Proc. of the 1-st International Festival on 3-D Images, Paris, sett. 1991.
8 T. Kanade, P.J. Narayanan, P. Rander, Virtualized (Not Virtual) Reality, Proc. of Asia Display '95, Hamamatsu (J), ottobre 1995.
9 T. Honda, Holographic display for movie and video, Proc. of the Itec '91, Tokyo (J), luglio 1991.
10 I. Yuyama, Present works of 3-D in Nhk labs, Proc. of the 4-th European workshop on three-dimensional television, Roma, ottobre 1993.
|
|
157)
Fondazione Ugo Bordoni: passato, presente, futuro
Fedi, F., Relazione FUB: 0A00997
Origine ed evoluzione
Nel 1952 l’Amministrazione delle Poste e delle Telecomunicazioni, le Società Concessionarie dei pubblici servizi di telecomunicazioni e le più importanti industrie manifatturiere del settore, decidono di costituire, erigendola in Ente Morale, una Fondazione senza scopo di lucro in grado di operare autonomamente nel campo della ricerca tecnico-scientifica avanzata nei settori delle telecomunicazioni, dell’elettronica e dell’informatica e nel settore postale e di caratterizzare in senso sociale e pubblico tale ricerca pur avendo, al tempo stesso, l’indispensabile flessibilità ed elasticità propria di una struttura a carattere privato.
La Fondazione viene intitolata a “Ugo Bordoni”, in memoria dell’esimio Professore della Facoltà di Ingegneria dell’Università di Roma, illustre Scienziato nei campi della Termotecnica, della Termodinamica e dell’Acustica, propulsore dello sviluppo telefonico italiano e Presidente della STET fin dalla sua costituzione, scomparso nello stesso anno 1952.
Dal 1952 al 1970 gli obiettivi raggiunti dall’attività della Fondazione possono essere così sintetizzati:
- creazione e consolidamento di un contesto estremamente stimolante di ricerca scientifica con “unità di lavoro” articolate ed autonome;
- continua qualificazione professionale, raggiunta attraverso il livello stesso delle ricerche in atto, di un’intera classe di ricercatori scientifici.
Il secondo obiettivo si rivela particolarmente importante per la formazione di personale altamente qualificato. Dalla Fondazione Bordoni provengono, infatti, più di 40 docenti delle Facoltà di Ingegneria di varie Università Italiane ed un gran numero di funzionari e dirigenti delle Società Concessionarie e del mondo industriale. Basti citare solo alcuni dei tanti nomi: il Prof. Antonio Ruberti, già Ministro della Ricerca e Commissario CEE, Ing. Umberto De Julio, Direttore Generale Telecom Italia, ; il Prof. Aldo Roveri, Presidente del Consiglio Superiore delle Poste e delle Telecomunicazioni; il Prof. Maurizio Decina, Membro del Consiglio di Amministrazione di Telecom Italia; Il Prof. Gianni Orlandi, Preside della Facoltà di Ingegneria dell’Università di Roma “La Sapienza”; il Prof. Francesco Valdoni, dell’Università di Roma “Tor Vergata”; il Prof. Gabriele Falciasecca, dell’Università di Bologna.
Agli inizi degli anni ‘70 diminuisce l’esigenza da parte dell’Università di reperire personale docente formato, al di fuori di essa, in enti quali la Fondazione. Si rafforza invece l’esigenza di attuare nel Paese una ricerca applicata di ampio respiro che possa portare un contributo decisivo allo sviluppo delle telecomunicazioni e che sia orientata a colmare il divario esistente tra la ricerca di tipo universitario e quella di tipo industriale.
La Fondazione Bordoni avverte questa esigenza e modifica di conseguenza la sua struttura. Nascono così, negli anni ‘70, i Settori della Fondazione che consentono di condurre impegnativi programmi di ricerca pluriennali che hanno vasta risonanza in ambito nazionale ed internazionale e che anticipano di circa dieci anni i progetti finalizzati del Consiglio Nazionale delle Ricerche. Tra questi vanno citati i programmi di ricerca a lungo termine tendenti a studiare le caratteristiche di mezzi di trasmissione a grande capacità: la guida d’onda circolare ed il canale hertziano a frequenze superiori a 10 GHz.
Nel 1984 l’Amministrazione delle Poste e delle Telecomunicazioni e le Società Concessionarie dei servizi pubblici di telecomunicazioni riconoscono la validità dell’intuizione avuta, più di trent’anni prima, nell’individuare l’esigenza di un ente di ricerca con le caratteristiche della Fondazione Bordoni e decidono di rafforzare il suo ruolo. Le Società Concessionarie SIP, Italcable e Telespazio, nel rinnovare le Convenzioni con l’Amministrazione P.T., assumono infatti formalmente l’impegno di partecipare con un contributo annuale pari a circa l’uno per mille del loro fatturato “all’attuazione dei programmi di ricerca di interesse generale affidati dall’Amministrazione P.T. alla Fondazione Bordoni”.
Anche in conseguenza di ciò, dal 1984 al 1992, le attività della Fondazione hanno un notevole incremento con una completa ristrutturazione dell’organizzazione scientifica ed operativa. Si adegua lo Statuto alle nuove esigenze. Si acquisisce la nuova sede. Si attua un notevole potenziamento dell’organico e si inizia una attenta politica del personale mediante l’introduzione del primo contratto integrativo aziendale. Si introducono criteri di contabilità industriale per le attività di ricerca e si affinano quelli di conduzione gestionale. Si imposta una completa documentazione delle attività programmate e svolte annualmente. Si cura, attraverso pubblicazioni e seminari, la diffusione capillare dei risultati ottenuti dalla Fondazione presso l’Amministrazione P.T., le società concessionarie, il mondo industriale e la comunità scientifica nazionale ed internazionale. Si incrementa notevolmente la partecipazione della Fondazione a progetti di ricerca europei e nazionali. Si ottiene un aumento considerevole della quantità e qualità della produzione scientifica e del numero dei riconoscimenti e degli incarichi di esponenti della Fondazione negli organismi scientifici e di normativa nazionali ed internazionali. La Fondazione Bordoni si afferma gradualmente come uno dei principali centri di ricerca italiani nel settore delle telecomunicazioni.
Nel periodo 1992-1997 si consolidano le basi per il futuro della Fondazione. Si attua una completa revisione delle procedure amministrative e dell’impostazione dei bilanci. Si rafforzano i rapporti con gli enti che emergono come i protagonisti delle telecomunicazioni italiane nell'ambito del riassetto del settore. Da una parte, si rinnova la Convenzione con il Ministero delle Poste e delle Telecomunicazioni e, dall'altra, si stipula una nuova Convenzione con la Società TELECOM Italia, in cui sono confluite le Società Concessionarie SIP, Italcable e Telespazio. Comincia così un nuovo capitolo della storia della Fondazione che la vede tra i maggiori protagonisti italiani della ricerca scientifica del nuovo millennio.
Missione
La Fondazione Ugo Bordoni è un ente di ricerca con sede in Roma eretto in Ente Morale con D.P.R. 2472 del 2/8/1952 con lo scopo di "...facilitare e promuovere ricerche e studi scientifici ed applicativi nel campo postale, delle Telecomunicazioni, dell'Informatica e dell'Elettronica...".
Organizzazione
Organo tutore della Fondazione è il Ministro delle Poste e Telecomunicazioni.
Sono Soci della Fondazione sia le Società Concessionarie dei servizi pubblici di telecomunicazioni che hanno l’obbligo di contribuire all’attività della Fondazione in base alle relative convenzioni con il Ministero P.T. (Telecom Italia) e sia le Società che contribuiscono all’attività della Fondazione con contributi volontari (RAI e varie società manifatturiere e di servizi: Ericsson Telecomunicazioni, Cavi Pirelli, Italtel, Alenia, Alcatel Italia, Nuova Telespazio e Sirti).
La Fondazione è retta da un Consiglio di Amministrazione composto da 11 membri di cui 3 nominati dal Ministro delle Poste e Telecomunicazioni, 5 dalle Società Concessionarie dei servizi pubblici di telecomunicazioni che hanno l’obbligo di contribuire all’attività della Fondazione in base alle relative convenzioni con il Ministero P.T. (Telecom Italia) e 3 dagli altri Soci.
Il Presidente della Fondazione è il responsabile della gestione dell’Ente ed è affiancato da un Direttore delle Ricerche e da un Segretario Generale responsabili, rispettivamente, delle attività di ricerca e della gestione amministrativa.
Finanziamenti
I finanziamenti provengono prevalentemente dagli impegni contenuti nelle due Convenzioni tra la Fondazione, il Ministero P.T. e Telecom Italia, la cui validità è attualmente prevista fino all'anno 2000.
Nel quadro della prima Convenzione, l'Istituto Superiore P.T. si impegna a mettere a disposizione della Fondazione la strumentazione necessaria, il cui costo annuale si aggira in media intorno ai 10 miliardi di lire e, ove possibile, locali e laboratori.
Nel quadro della seconda Convenzione Telecom Italia si impegna ad erogare alla Fondazione un contributo annuo pari all'uno per mille dei propri introiti: nel 1996 tale contributo è risultato di circa 30 miliardi di lire.
Gli altri Soci della Fondazione contribuiscono alle sue attività con un importo pari a circa 0.3 miliardi all’anno.
La Fondazione ha svolto e svolge attività di ricerca anche per altri Organismi internazionali e nazionali (Unione Europea, Agenzia Spaziale Europea, Consiglio Nazionale delle Ricerche, Ministero della Difesa, Ministero Beni Culturali e Ambientali, etc.) mediante appositi contratti o convenzioni dai quali ricava ulteriori introiti pari a circa 2 miliardi di lire all’anno.
Nella Fig. 1 sono riportati i proventi della Fondazione dal 1985 al 1996.
Fig. 1 - Proventi
Spese
Nella Fig. 2 sono riportate le spese relative al personale dipendente, le spese generali e le spese accessorie di ricerca.
La spesa per il personale dipendente rappresenta la voce principale delle spese della Fondazione.
Per quanto riguarda le spese generali, queste sono sostanzialmente connesse alla sede della Fondazione. Come è noto la Fondazione opera nella propria sede di Via B. Castiglione (Laurentina) con il 70% circa del proprio personale e nella sede dell’ISPT di Viale Europa (EUR) con il restante 30% circa: il poter operare in un’unica sede migliorerebbe l’efficienza della gestione dell’ente. Una terza sede dove opera un Gruppo di ricerca della Fondazione nell’ambito di una Convenzione in atto tra Fondazione Bordoni e Fondazione Marconi, è la storica Villa Griffone a Pontecchio Marconi.
Fig. 2 - Spese
Le spese accessorie di ricerca, oltre che quelle per strumentazione ed apparecchiature, comprendono le spese per trasferte, borse di studio, consulenze ed incarichi. Per quanto riguarda la strumentazione e le apparecchiature occorre distinguere tra quelle necessarie per le attività svolte nell’ambito della Convenzione con l’Amministrazione PT (ISPT) e quelle necessarie per le altre attività. Le prime, a termini di Convenzione, sono fornite dall’ISPT: in realtà, negli ultimi tre anni, a causa di blocchi alle spese o all’accresciuta complicazione delle procedure di acquisto, la strumentazione non è stata fornita e la Fondazione ha provveduto, almeno parzialmente, a proprie spese. Questa circostanza, insieme con la necessità di reperire la strumentazione per le altre attività di ricerca, in particolare per quelle svolte nell’ambito della Convenzione con Telecom Italia e di potenziare il sistema informativo della Fondazione, ha fatto lievitare negli ultimi anni l’entità delle spese accessorie di ricerca.
Un accenno specifico merita il sistema informativo della Fondazione. L'impiego di mezzi informatici acquisiti in proprio si accentua sensibilmente a partire dal 1985, anno del parziale trasferimento della Fondazione nella propria sede e del suo rilancio organizzativo e manageriale. Si decide allora l'introduzione di personal computer Macintosh della Apple per attivare servizi per la videoscrittura (word processing), la stampa e la gestione di archivi elettronici. Parallelamente, molti Gruppi di ricerca si dotano progressivamente di stazioni elaborative all'avanguardia nell'elaborazione scientifica (Microvax Digital, Hewlett-Packard 9000, LispMachine Symbolics) e si realizza sia un centro di calcolo dipartimentale (VAX 6310 Digital) sia un centro di supercalcolo (Convex C220). Nel 1993 la Fondazione provvede a realizzare con mezzi propri un sistema di mezzi informatici idoneo a soddisfare le esigenze sia di elaborazione scientifica sia di office automation. Gli elaboratori sono connessi tramite una rete locale Ethernet (con 5 sottoreti) nella sede di Via Castiglione, collegata con la rete locale (con 2 sottoreti) della sede EUR e con Internet (tramite la rete nazionale della ricerca GARR - Gruppo di Armonizzazione delle Reti della Ricerca). Sono in fase di installazione e collaudo nuovi cablaggi e apparati per l’ulteriore sviluppo del sistema mediante l’estensione della rete ethernet e il suo parziale passaggio a fast-ethernet, l’introduzione di una sotto-rete in tecnologia ATM, l’attivazione di canali per l’accesso remoto al sistema. E’ in corso di approvvigionamento l’acquisizione di un canale di accesso ad Internet, tramite il servizio Interbusiness di Telecom, con prestazioni più elevate (512 kbps) rispetto a quelle dell’attuale canale GARR (54 kbps). E’ prevista anche la progressiva attivazione di nuovi servizi di office automation (videocomunicazione, intranet).
Personale interno
L’organico della Fondazione conta circa 180 dipendenti, l’80% dei quali è addetto alla ricerca. I dipendenti hanno un contratto di lavoro privato basato sul contratto CONFAPI per la piccola e media industria integrato da norme che lo rendono simile a quelli vigenti nel settore telecomunicazioni.
Dalla Fig. 3 si vede che il numero dei Ricercatori negli anni ‘85-’87 è aumentato rapidamente passando da circa 60 a circa 100 unità e si è poi mantenuto all’incirca costante negli anni successivi. All’incirca costante negli anni si è anche mantenuto il numero dei Tecnici e del personale amministrativo attestandosi, nei due casi, a circa 40 unità.
Fig. 3 - Consistenza numerica del personale dipendente
Fig. 4 - Proventi totali e spese per personale dipendente
La considerazione che, nel caso della Fondazione, i proventi sono sostanzialmente assorbiti dalle spese per il personale dipendente (Fig. 4) e i conseguenti motivi di giustificata prudenza hanno indotto a mantenere costante il numero dei Ricercatori. La favorevole situazione economica verificatasi dopo il 1994, a seguito della stipula della Convenzione con Telecom Italia, potrebbe permettere il moderato aumento di circa il 15% della consistenza numerica del personale di ricerca, previsto nella presente relazione.
Personale esterno
Nei passati dieci anni i contatti con i giovani, indispensabili per un ente di ricerca, sono stati mantenuti mediante personale esterno. Le affermazioni scientifiche della Fondazione hanno infatti attratto verso di essa un crescente numero di laureandi e di giovani laureati: i primi a svolgere la propria tesi di laurea ed i secondi a passare un periodo di tempo variabile da sei mesi a due anni come borsisti, come incaricati di ricerca o con un contratto a termine. A questi si aggiungono un certo numero di ricercatori stranieri che ogni anno frequentano la Fondazione in base a borse di studio concesse da vari enti (NATO, Unione Europea, ITCP di Trieste, etc.). Complessivamente, il numero di giovani che frequentano la Fondazione è cresciuto negli anni ed ha raggiunto nel ‘96 circa 100 unità.
Fig. 5 - Consistenza numerica del personale esterno
Come si vede dalla Fig. 5, a partire dall’87, il numero dei laureandi che hanno svolto la loro tesi di laurea presso la Fondazione è andato progressivamente aumentando ed ha raggiunto nel ‘96 circa 50 unità.
Il numero dei borsisti negli anni ‘85-’87 è stato volutamente particolarmente elevato e ciò perché, tra questi, si contava di reperire i Ricercatori necessari per aumentare l’organico come programmato. Successivamente tale numero è andato progressivamente diminuendo e si è attestato intorno alle 20 unità. I motivi di questa diminuzione sono sostanzialmente i seguenti:
- le prospettive di assunzione in Fondazione al termine della borsa sono praticamente svanite;
- la crisi dei posti di lavoro all’esterno ha determinato una tale ansietà nei giovani che la borsa non viene più vista come un periodo di formazione che migliori i loro titoli ai fini di future assunzioni ma come periodo transitorio in attesa di una qualunque proposta;
- limitata al solo periodo di un anno, la borsa non è molto produttiva per la Fondazione in quanto richiede l’impegno di un “tutor’ per i primi mesi della formazione ed il tempo residuo non consente di avere un ritorno. Ciò in particolare, se si tiene conto che la Fondazione ha adottato la politica di non inserire i borsisti in attività relative a commesse esterne al contrario di altri Enti, tra i quali le Università, che non si pongono questo problema.
Ai laureandi ed ai borsisti vanno aggiunti gli incarichi di ricerca, di durata in genere semestrale, conferiti a giovani laureati che hanno svolto la tesi presso la Fondazione (nel caso in cui i risultati delle tesi siano meritevoli di pubblicazione) e un certo numero di contratti a tempo determinato, necessari a fare fronte a picchi di attività derivanti da commesse esterne particolarmente impegnative.
Particolarmente interessante per il futuro si presenta la possibilità di stabilire convenzioni con le Università, con eventuale concessione di borse di studio, per lo svolgimento dei dottorati di ricerca presso la Fondazione, in quanto questo assicurerebbe la permanenza dei giovani laureati per un periodo di due o tre anni o la possibilità di accordi con società manifatturiere e di servizi per lo svolgimento di “stages” presso la Fondazione di giovani laureati appena assunti.
Ai laureandi e ai giovani laureati vanno aggiunti i collaboratori esterni che la Fondazione, in linea con i propri fini statutari, reperisce attraverso gli stretti contatti con il mondo scientifico e con le Università alle quali la Fondazione è particolarmente legata in quanto una gran parte del corpo docente, specie nel caso delle tre Università di Roma, proviene dalla Fondazione. La collaborazione con i Professori Universitari o con Studiosi di chiara fama avviene tramite contratti di consulenza o incarichi di ricerca. I contratti di consulenza, in numero estremamente limitato e in genere di durata pluriennale, da un lato assicurano alla Fondazione un apporto scientifico costante di elevato livello, necessario per meglio inquadrare le attività di ricerca in un settore in rapidissima evoluzione e, dall’altro, facilitano i contatti con i laureandi e con i giovani laureati. Gli incarichi di ricerca sono invece conferiti in tutti quei casi nei quali, per lo svolgimento delle attività di ricerca, si richiedono competenze specifiche non reperibili in Fondazione. Il numero complessivo di consulenti e incaricati di ricerca ha avuto un massimo negli anni ‘85-’87, derivante dalla necessità di formazione del nuovo personale di ricerca appena assunto, ed è poi andato gradualmente decrescendo fino ad attestarsi intorno alle 30 unità all’anno.
Struttura di ricerca
Negli anni ‘85-’87 la struttura di ricerca della Fondazione Bordoni fu completamente rivista ed organizzata in Settori e Gruppi [1] [2]. A distanza di circa dieci anni il Consiglio di Amministrazione della Fondazione ha ritenuto opportuno verificare la validità e l’attualità di tale struttura ed adottare quelle modifiche che l’evolversi della tecnologia nel settore delle telecomunicazioni suggerivano necessarie[3].
Le considerazioni che sono state alla base dell’ultima revisione della struttura della ricerca della Fondazione possono essere così sintetizzate:
* La “formula Fondazione” è il suo vero carattere distintivo che le consente: in quanto Ente senza scopo di lucro e al di sopra delle parti, di perseguire scopi di pubblica utilità per l’intera comunità nazionale e di caratterizzare le proprie ricerche con obiettivi di medio-lungo termine; in quanto Ente a carattere privato, di avere la flessibilità e l’agilità indispensabili per svolgere attività di ricerca di elevato livello.
* L’attività della Fondazione è svolta nell’ambito della Convenzione con l’Amministrazione PT (ISPT); della Convenzione con Telecom Italia; di Convenzioni con Ministeri ed Enti (Ministero della Difesa, Autorità Informatica per la Pubblica Amministrazione, Ente Poste Italiano, etc.); di commesse esterne nell’ambito di programmi di ricerca europei e nazionali o con realtà industriali; di commesse interne a fronte di particolari temi giudicati dalla Fondazione di rilevante importanza.
* La struttura di ricerca organizzata in Settori e Gruppi di competenza si è dimostrata estremamente efficace e atta a coltivare la cultura di base indispensabile per svolgere attività di ricerca a medio-lungo termine e per costituire la premessa ad attività di ricerca finalizzate organizzate coinvolgendo trasversalmente i vari Settori della Fondazione.
* Il ruolo della Fondazione in ambito nazionale è da ricercare sia nella valorizzazione delle tematiche divenute tradizioni culturali della Fondazione sia nelle collaborazioni con altri Enti di ricerca su obiettivi comuni. In questo ambito va segnalata la proficua collaborazione con lo CSELT perseguita, dapprima, attraverso la conoscenza approfondita delle attività svolte nei due enti e, successivamente, nella partecipazione comune ad attività di ricerca finalizzate.
* Il livello delle ricerche svolte dai singoli Gruppi deve essere rilevante almeno a livello nazionale e le dimensioni dei Gruppi devono essere sufficienti ad assicurare una massa critica adeguata.
Alla luce della recente ristrutturazione, la Fondazione Bordoni è attualmente organizzata in sei Settori di ricerca ciascuno dei quali, a sua volta, è articolato in tre Gruppi di ricerca, così come mostrato in Fig. 6. La consistenza numerica dei vari Settori è riportata nella Tabella 1.
Nei capitoli che seguono, per ogni Settore, sono illustrate la matrice culturale, i principali risultati ottenuti e gli obiettivi di ricerca futuri per ogni singolo Gruppo di ricerca.
Programmi di ricerca
Programma ISPT-FUB. La parte preminente delle attività di ricerca della Fondazione ha caratteristiche di medio-lungo termine ed è svolta nell’ambito del programma ISPT-FUB nelle tradizionali aree culturali della Fondazione corrispondenti ai sei Settori:
• Radiocomunicazioni
• Comunicazioni Ottiche
• Protezione dell’informazione
• Reti di telecomunicazione
• Comunicazioni multimediali
• Evoluzione delle telecomunicazioni.
Fig. 6 - Struttura di Ricerca
Tab. 1 - Struttura di ricerca
Direttore delle Ricerche: FEDI Francesco
Vice Direttore delle Ricerche: CARNEVALE Mario (Vedi Settore 6)
Segreteria di Direzione: CORRADETTI Luigina
SAMARINI Barbara
Settori Ricercatori Tecnici Ammini-strativi Totale
Direzione (1) 1 - 2 3
1 Radiocomunicazioni 15 + 3 10 2 27 + 3
2 Comunicazioni ottiche 23 6 1 30
3 Protezione dell’informazione 13 + 8 3 1 17 + 8
4 Reti di telecomunicazioni 13 + 5 2 1 16 + 5
5 Comunicazioni multimediali 22 5 1 28
6 Evoluzione delle telecomunicazioni (2) 14 + 3 4 + 2 1 19 + 5
Totale(3) 101 + 19
120 30 + 2
32 9
9 140 + 21
161
____________________________
(1) E’ compreso il Direttore delle Ricerche
(2) E’ compreso il Vice Direttore delle Ricerche
(3) Il totale è composto da 140 unità presenti + 21 unità da assumere
Ogni anno, tenendo conto delle indicazioni provenienti dall’Istituto Superiore P.T., la Fondazione Bordoni prepara una bozza di programma che viene, dapprima, esaminata in una riunione congiunta ISPT - Telecom Italia - FUB e poi dal Comitato Tecnico-Scientifico ISPT - FUB previsto dalla Convenzione Amministrazione P.T. - FUB.
Programma TELECOM ITALIA-FUB. La stipula nel ‘94 della Convenzione con Telecom Italia ha fatto affiancare all’attività di ricerca a medio-lungo termine svolta nell’ambito della Convenzione con l’Amministrazione P.T. un’attività con obiettivi più finalizzati perseguiti coinvolgendo trasversalmente i vari Settori della Fondazione.
Ogni anno, tenendo conto delle indicazioni provenienti da Telecom Italia, la Fondazione prepara una bozza di programma che viene esaminata dal Comitato Tecnico previsto nella Convenzione Telecom Italia - Fondazione. Nel 1997 il programma ha riguardato quattro progetti:
* Progetto A: Rete Ottica di Transito a Multilunghezza d’onda
* Progetto B: Architetture di rete per l’Accesso Multiutente
* Progetto C: Servizi ed Infrastrutture per la Multimedialità Interattiva
* Progetto E: Normativa per Comunicazioni Personali.
Commesse esterne.In linea con la strategia decisa dal Consiglio di Amministrazione della Fondazione (19/4/90) si è dato notevole sviluppo alle attività relative a commesse esterne i cui proventi risultano aumentati nel ‘96 più di 10 volte rispetto al quelli relativi al 1985. Secondo le linee strategiche indicate dal Consiglio si è fatta in modo che tale attività:
- fosse contenuta entro un limite del 10%;
- non compromettesse e fosse congruente con le attività di ricerca a lungo-termine tradizionali per la Fondazione;
- fosse svolta nell’ambito di programmi di ricerca europei e nazionali, per Ministeri, Enti Pubblici, Organizzazioni Internazionali, Società Concessionarie;
- se svolta per industrie riguardasse esclusivamente: attività didattica, formazione di personale, collaborazione in programmi di ricerca, attività scientifica con diffusione libera dei risultati.
In armonia con quanto sopra esposto è stata attuata una decisa politica di inserimento nei principali programmi di ricerca a livello europeo e nazionale.
Presente nelle azioni di ricerca COST (European Cooperation and Technical Field) fin dalla fase preparatoria dei primi anni ‘70, la Fondazione è stata tra i maggiori protagonisti della collaborazione europea, ha detenuto la Presidenza di più di un quinto dei circa 60 progetti varati nell’area delle Telecomunicazioni, partecipa attualmente a numerosi progetti COST e rappresenta l’Italia nel “Technical Committee Telecommunications”.
Particolarmente importanti sono anche le attività svolte nel passato nei progetti di ricerca europei RACE (Research and Development in Advanced Communication Technology in Europe), DRIVE (Dedicated Road Infrastructure for Vehicle Safety in Europe), ESPRIT (European Strategic Project for Research in Information Technology). Attualmente la Fondazione è inserita nei seguenti progetti ACTS (Advanced Communication Technologies and Services):
- AC036 “DOLMEN” (Service Machine Development for an Open Long-term Mobile and Fixed Network Environment);
- AC056 “QUOVADIS” (Quality of Video an Audio for Digital Television Services);
- AC045 “UPGRADE” (High Bitrate 1300nm Upgrade of the European Standard Single-Mode Fibre Network);
- AC063 “ESTHER” (Exploitation of Soliton Transmission Highways for the European Ring);
- AC068 “INSIGNIA” (IN and B-ISDN Signalling Integration on ATM Platforms);
- AC236 “CABSINET” (Cellular Access to Broadband Services and Interactive Television);
- AC215 “CRABS” (Cellular Radio Access for Broadband Services)
Nell’ambito dei progetti finalizzati a livello nazionale, la Fondazione ha una lunga tradizione di collaborazione con il Consiglio Nazionale delle Ricerche. Verso la metà degli anni ‘70 alla Fondazione fu affidata la Direzione tecnica del progetto finalizzato “Aiuti alla Navigazione e Controllo del Traffico Aereo”. Negli anni ‘80 la Fondazione condusse a termine, per conto del CNR, lo studio di fattibilità di un “Progetto organico di ricerche di telecomunicazioni spaziali”. Nell’ambito del progetto “Telecomunicazioni”, recentemente conclusosi, la Fondazione ha coordinato il sottoprogetto sulle comunicazioni ottiche ed ha partecipato alle attività di ricerca con numerose unità operative.
Per quanto riguarda la collaborazione con Ministeri ed Enti, sono particolarmente rilevanti quelle stabilite con il Ministero della Difesa (Crittografia e riconoscimento del parlatore), con l’AIPA (problemi di sicurezza per la rete unitaria) e con l’EPI per il quale è stata predisposta nel ‘97 una bozza di Convenzione per un programma quinquennale di attività.
Risultati scientifici
L’affermazione scientifica della Fondazione è testimoniata dagli oltre 200 lavori pubblicati ogni anno sulle più autorevoli riviste scientifiche o presentati ai più prestigiosi Congressi internazionali.
E’ ormai infatti ampiamente riconosciuto che uno dei parametri più usati per valutare l’efficienza e la produttività di un ente di ricerca è il numero dei lavori scientifici pubblicati in un determinato anno. In un’indagine svolta dal Consiglio Superiore delle Poste, Telecomunicazioni e Automazione sullo stato della ricerca in Italia [4] il parametro usato per valutare l’efficienza delle Università e degli Enti di ricerca nel settore delle Telecomunicazioni è stato appunto il numero dei lavori pubblicati su riviste scientifiche o negli atti di Congressi particolarmente qualificati ed il parametro usato per valutarne la produttività scientifica è stato il rapporto tra il numero dei lavori pubblicati e il numero
Fig. 7- Pubblicazioni
Fig. 8 - Produttività scientifica
Pubblicazioni (Riviste e Congressi)
Numero Ricercatori
dei ricercatori. Come si evince dalla Fig. 7 e dalla Fig. 8, nel caso della Fondazione, sia il numero delle pubblicazioni sia il livello della produttività scientifica è andato costantemente aumentando nel corso degli ultimi dieci anni. Per quanto riguarda la produttività scientifica si è passati da un livello 0.9 nell’ ’85, giudicato già buono nell’indagine a cui si è fatto prima riferimento, all’attuale livello pari a circa 2 lavori a ricercatore all’anno.
Particolarmente importanti sono anche i contributi presentati dalla Fondazione a Enti e Organizzazioni di normativa e standardizzazione. I risultati ottenuti dalla Fondazione hanno spesso messo in grado l’Italia di far prevalere il punto di vista nazionale nella normativa e nella standardizzazione in sede internazionale, con evidenti vantaggi di immagine per il Paese e per l’industria nazionale dei servizi e manifatturiera.
Oltre che dalla produzione scientifica l’affermazione della Fondazione è testimoniata dai premi e riconoscimenti ricevuti (quali ad esempio: il "Diplôme d'honneur" dell'Unione Internazionale delle Telecomunicazioni, i premi Marconi, il premio Bonazzi, i premi Philip Morris), dalle presidenze di prestigiose Conferenze e Commissioni scientifiche internazionali (quali l’ "European Microwave Conference" del 1987, la "Conference on Modelling the Innovation" del 1990, l' "European Conference on Optical Communications" del 1994, l' "Eurocrypt" del 1994 e la Commissione "Radiowave propagation and Remote Sensing" dell'Unione Radio Scientifica Internazionale) e dalle posizioni di prestigio e di responsabilità conferite ad esponenti della Fondazione in molti organismi di normativa e standardizzazione a livello internazionale (quali l’ITU, l’ETSI e l’ISO).
Impatto ed applicazione dei risultati
Le attività di ricerca a lungo termine hanno messo in grado la Fondazione di prepararsi per tempo su argomenti poi rivelatisi vitali per lo sviluppo delle telecomunicazioni ed hanno fatto sì che i risultati ottenuti, al di là del loro intrinseco valore scientifico, avessero un impatto notevole su molti aspetti strategici per il settore della tecnologia dell’informazione.
Nell’opera di supporto scientifico e tecnico ai compiti di programmazione e controllo del Ministero delle Poste e Telecomunicazioni. Basti citare i contributi della Fondazione alle scelte degli standard televisivi: dal “bianco e nero” al “colore”, dalla “qualità migliorata” all’ ”alta definizione” e alla “televisione a 3 dimensioni”. Oppure quelli nel campo dei radiomobili: gli studi dei modelli del canale elettromagnetico e l’elaborazione di efficaci algoritmi per la previsione dell’intensità di campo hanno fatto sì che la Fondazione fosse prescelta come punto di riferimento, al di sopra delle parti, per il controllo delle coperture delle reti GSM di OMNITEL e TIM.
Nell’opera di supporto scientifico e tecnico ad altri Ministeri e all’intero paese in problemi di particolare delicatezza. Ad esempio, gli studi svolti sul riconoscimento del parlatore, cioè sulla possibilità di identificare un individuo attraverso l'analisi di un suo campione di voce (come nel caso di telefonate anonime o di intercettazioni telefoniche), hanno posto la Fondazione in una posizione di leader di questa disciplina in campo nazionale ed europeo ed hanno indotto la Magistratura Italiana ad affidare alla Fondazione numerose indagini peritali, spesso di natura assai delicata per l'importanza o la risonanza del "caso" come, ad esempio, il "caso Toni Negri", il "caso Gladio" o il "caso Ustica". La crittografia è un altro esempio di area in cui la Fondazione Bordoni ha gradualmente assunto un ruolo trainante in ambito nazionale e si è posta come punto di riferimento italiano in ambito internazionale. Ciò ha portato alle richieste di collaborazione e di consulenza da parte del Ministero della Difesa, alle richieste di collaborazione da parte di Telecom Italia per la soluzione di alcuni problemi di sicurezza nel sistema radiomobile GSM, alle consulenze richieste dall'industria nazionale per la soluzione di problemi concernenti l'ingegnerizzazione di algoritmi crittografici e alla collaborazione con l’AIPA (Autorità per l’Informatica nella Pubblica Amministrazione) per i problemi di sicurezza della Rete Unitaria della Pubblica Amministrazione.
Nel campo della normativa nazionale e internazionale. Basti citare, ad esempio, il ruolo di leader avuto dalla Fondazione nell’introduzione di sistemi a frequenze superiori a 10 GHz in concorrenza con i più importanti centri di ricerca europei, americani e giapponesi. Fin dagli anni ‘80 le metodologie sviluppate dalla Fondazione sono state quelle prescelte e raccomandate dall’Unione Internazionale delle Telecomunicazioni e sono oggi usate in tutti i paesi del mondo per la pianificazione dei sistemi radio terrestri e via satellite a queste frequenze.
Nelle scelte di carattere strategico per l’evoluzione della rete di telecomunicazioni. Ad esempio, allorché in Italia si cominciavano ad installare su vasta scala le fibre ottiche la Fondazione, sulla base dei risultati ottenuti, diffuse solide argomentazioni a favore dell'utilizzo delle fibre monomodo rispetto a quelle multimodo, influenzando ad orientare le scelte verso soluzioni che, successivamente, si sono rivelate le migliori. Anche gli studi svolti sui sistemi coerenti hanno aperto la strada a nuovi concetti, quali l'uso della commutazione di frequenza, che cominciano ad influenzare in modo determinante la struttura delle nuove reti a larga banda, sia quelle di distribuzione e sia quelle di trasporto. Ed infine le ricerche sulle proprietà di polarizzazione e di nonlinearità delle fibre ottiche hanno fatto della Fondazione uno dei protagonisti dell'attuale dibattito sull'impiego dei "solitoni" nei sistemi di trasmissione per le lunghissime distanze, quali quelli che saranno impiegati nelle reti su scala europea o transcontinentale.
Nel supporto alle applicazioni industriali come l’ottenimento di più di dieci brevetti nel decennio passato; la realizzazione del chip RSA 512, prodotto industrialmente in Italia sulla base di un algoritmo sviluppato per l’esecuzione rapida delle operazioni aritmetiche su grandi numeri e la realizzazione di carte intelligenti per il controllo d’accesso basate sulla rappresentazione dei numeri proposta in Fondazione.
Diffusione dei risultati e divulgazione scientifica
Oltre ai tradizionali canali per la diffusione dei risultati verso la comunità scientifica quali la pubblicazione su riviste e la presentazione a Congressi, la Fondazione cura la diffusione dei propri risultati ad un pubblico più vasto mediante una relazione annuale molto dettagliata e una serie di Volumetti che raccolgono ogni anno le pubblicazioni più significative. A partire dal 1996, la relazione ed i Volumetti sono disponibili sia a stampa e sia su CD ROM e, dalla stessa data, la Fondazione è presente in “rete” con un suo sito www.
La Fondazione inoltre - attraverso la pubblicazione della rivista Telèma - cura la divulgazione della cultura della società dell’informazione nei vari aspetti, non solo scientifici e tecnici, ma anche economici, sociali, giuridici ed artistici.
Futuro ruolo della Fondazione Bordoni
Negli oltre quarant’anni trascorsi dal 1952 ad oggi la Fondazione si è gradatamente affermata come uno dei Centri di eccellenza più qualificati nel campo della ricerca nazionale ed internazionale.
Il valore scientifico e normativo dei risultati raggiunti ed il prestigio delle persone formatesi presso l’Ente attestano che la Fondazione è in grado di offrire all’Autorità per le garanzie nelle comunicazioni, a Telecom Italia, a Ministeri, Enti ed Industria un punto di riferimento scientifico-tecnico sia su problemi generali di orientamento, programmazione e controllo e sia su problemi specifici di particolare rilevanza.
La definizione del ruolo della Fondazione Bordoni nel contesto della ricerca nazionale rappresenta il compito strategico più importante del Consiglio di Amministrazione appena insediato.
Le considerazioni esposte nel seguito rappresentano solo un primo tentativo di abbozzare un possibile futuro ruolo per la Fondazione, tentativo certamente non completo né esaustivo, che necessita di ulteriori più meditati approfondimenti. Per il momento ci si limita ad esprimere l’auspicio che nel ruolo che la Fondazione riuscirà ad ottenere nel contesto della ricerca nazionale essa possa mantenere le caratteristiche che sono state la chiave del successo dell’Ente e cioè la propria individualità di Ente Morale senza scopo di lucro e il proprio carattere di Ente privato. Cò permetterà alla Fondazione di continuare a perseguire scopi di pubblica utilità, caratterizzare le proprie ricerche con obiettivi a lungo termine e ad avere la flessibilità e l’agilità necessarie a mantenere il prestigio accumulato in più di quarant’anni di attività.
Autorità per le garanzie nelle comunicazioni. Il supporto all’Autorità può essere fornito dalla Fondazione sia per alcuni compiti generali demandati all’Autorità quali :
“Segnalare al Governo l’opportunità di interventi, anche legislativi, in relazione alle innovazioni tecnologiche”
“Promuovere ricerche e studi in materia di innovazione tecnologica e di sviluppo dei servizi multimediali, anche avvalendosi dell’Istituto Superiore delle Poste e delle Telecomunicazioni”
per il cui espletamento l’Autorità :
“può richiedere la consulenza di soggetti o organismi di riconosciuta indipendenza e competenza”
e sia per alcuni compiti specifici quali:
“il piano di ripartizione delle frequenze”
“la vigilanza sui tetti a radiofrequenza compatibili con la salute umana”
“l’emanazione di direttive concernenti i livelli di qualità dei servizi”
“la promozione dell’integrazione delle tecnologie e dell’offerta di servizi di telecomunicazioni”.
Le linee strategiche che il Consiglio di Amministrazione della Fondazione dovrà stabilire riguardano innanzitutto la definizione del ruolo della Fondazione (collaborazione diretta con l’Autorità o collaborazione con l’Autorità attraverso l’ “Istituto Superiore delle Comunicazioni”): la convenienza dell’opzione prescelta dipenderà molto da come e con quali finalità l’Istituto Superiore verrà ristrutturato.
Il reperimento di finanziamenti che per programmare attività di ricerca a medio-lungo termine devono essere certi, continui e prevedibili, rappresenta l’altro importante problema da risolvere. Attualmente com’è noto, i finanziamenti per tali attività derivano dalla Convenzione Amm. P.T. - Società Concessionarie SIP, Italcable e Telespazio (DPR 523 del 13/8/1984) recepita da Telecom Italia secondo la quale “..... la società assume l’obbligo di partecipare con un contributo dell’1‰ degli introiti .... all’attuazione dei programmi di interesse generale affidati dall’Amministrazione PT alla Fondazione Bordoni”. Nel futuro, a fronte della privatizzazione di Telecom Italia, sussiste il problema di reperire i finanziamenti necessari che potrebbero pervenire alla Fondazione:
- direttamente da uno o più Concessionarie
- attraverso l’Autorità
- attraverso l’Istituto Superiore.
Nei due ultimi casi sussiste il delicato problema di conciliare l’autonomia e la flessibilità della Fondazione con le leggi di contabilità dello Stato.
Telecom Italia
La collaborazione con Telecom Italia potrebbe proseguire sia continuando a svolgere un programma di ricerca con obiettivi finalizzati e sia cercando di fare fronte all’esigenza di coniugare ricerca e innovazione. Per quest’ultima esigenza si dovrebbero attuare iniziative atte a stimolare l’innovazione, incrementando la capacità di tradurre il “know-how” scientifico-tecnico in nuovi prodotti e servizi fruibili sul mercato, assumendo il ruolo di “centro di promozione dell’innovazione e della creazione di impresa”. In questo ruolo la Fondazione dovrebbe agire da “incubatore”, cioè offrire un ambiente particolarmente stimolante, dotato di competenze scientifiche e di strumentazione adeguata, per dare supporto a giovani ricercatori che intendano sviluppare know-how o idee originali potenzialmente commerciabili o a piccole-medie imprese, ad esempio “software houses”, che operino in campo telematico e vogliano sviluppare prodotti tecnicamente avanzati. Nei settori delle telecomunicazioni di maggiore sua competenza la Fondazione dovrebbe curare l’allestimento di piattaforme software e di opportuni terminali per lo sviluppo di applicazioni nel settore dei servizi multimediali interattivi. Utilizzando competenze e strumentazione in parte già disponibili, i servizi dell’incubatore potrebbero essere offerti agli utenti a costi accettabili per imprese ancora in fase di gestazione.
Nel caso della collaborazione con Telecom Italia, le linee strategiche da stabilire riguardano sia il ruolo della Fondazione (rapporti con Telecom Italia e con lo CSELT) e sia i finanziamenti necessari, per giungere alla stipula di una nuova Convenzione che sostituisca quella attuale entro la scadenza prevista dell’anno 2000.
Unione Europea, Ministeri, Enti, Industrie
La Fondazione potrebbe continuare ad operare con commesse esterne sia nei programmi dell’Unione Europea, sia con programmi autonomi o inseriti nelle iniziative del Ministero delle Ricerca e del CNR, sia nell’ambito di collaborazioni con il Ministero della Difesa, l’AIPA, l’EPI o con Industrie.
In accordo con la delibera del Consiglio d’Amministrazione della Fondazione del 1990, le commesse di ricerca sono state considerate finora come un complemento, limitato al di sotto del 10%, delle attività di ricerca a lungo termine tradizionali della Fondazione.
Le linee strategiche da stabilire riguardano pertanto sia il ruolo della Fondazione rispetto alle attività relative a commesse esterne e sia il problema dei finanziamenti. In molti dei programmi europei e nazionali i finanziamenti sono solo parziali e quindi le attività relative devono essere inserite nei programmi più generali della Fondazione. Inoltre sono da considerare i problemi di compatibilità di attività finanziate da enti esterni con la sede e la strumentazione fornite dal Ministero delle Comunicazioni.
SETTORI DI RICERCA
Settore 1 - RADIOCOMUNICAZIONI
(Radiocommunications)
Capo Settore : MIGLIORINI Piergiorgio
Segretaria SPORTOLETTI Gabriella
DALTRI Fides (Sede Pontecchio Marconi)
Gruppo 1/1 - Radiopropagazione
(Radiopropagation)
Capo Gruppo: BARBALISCIA Francesco
Ricercatori Tecnici
01 BOUMIS Marina 01 ARESU Alberto
02 FIONDA Ermanno 02 CAPITANIO Adriano
03 MARTELLUCCI Antonio 03 CONSALVI Fernando
04 MASULLO Pier Giorgio 04 DELLA SIRIA Enzo
05 da assumere
Gruppo 1/2 - Radiocomunicazioni fisse e radiodiffusione
(Fixed radiocommunications and broadcasting)
Capo Gruppo: DI ZENOBIO Dario
Ricercatori Tecnici
01 CELIDONIO Massimo 01 ANDREOZZI Aldo
02 LOMBARDI Paolo 02 SANTINELLI Antonio
03 RUSSO Enrico 03 VOLPONI Diego
04 SANTELLA Giovanni 04 ZANUCCOLI Luigi
05 da assumere
Gruppo 1/3 - Radiocomunicazioni mobili
(Mobile radiocommunications)
Capo Gruppo: FRULLONE Mario
Ricercatori Tecnici
01 RIVA Guido 01 AMADUZZI Luigi
02 GRAZIOSO Paolo 02 ZONI Alessandro
03 MISSIROLI Maria
04 da assumere
Gruppo 1/1: Radiopropagazione (Radiopropagation)
Il Gruppo ha una tradizione scientifica trentennale e vanta posizione e attività di rilievo fin dai primi anni ‘70, quando la domanda di nuove bande radio pose l'attenzione sugli effetti delle precipitazioni atmosferiche sulle radioonde a frequenze superiori ai 10 GHz.
Il Gruppo ha svolto sull'argomento approfonditi studi modellistici e vaste campagne sperimentali, producendo risultati di assoluto rilievo, raccomandati in sede internazionale per la pianificazione dei sistemi di radiocomunicazione terrestri e via satellite nelle bande SHF. Il Gruppo ha anche avuto ruoli di primo piano nel coordinamento dei progetti europei COST 25/4 e 205, in sede URSI, ITU e ESA, conducendo diversi progetti sperimentali: Fucino, Sirio, OTS, Olympus e Italsat.
Alla fine degli anni ‘80 l'incalzante domanda di spettro radio e le esigenze di nuovi servizi hanno messo in rilievo nuovi temi di studio, relativi all’influenza sulla radiopropagazione di gas atmosferici e nuvole. L'attività del Gruppo si è allora mossa verso frequenze più elevate, fino a 40/50 GHz e anche 90 GHz, con la messa a punto di una modellistica meteorologica e elettromagnetica sempre più raffinata e con campagne sperimentali di tipo radiometrico, dove il Gruppo si è ritagliato una posizione di elevato livello.
Attualmente le attività e interessi del Gruppo sono concentrati su:
- Modellistica radiometeorologica con particolare riguardo a gas e nuvole.
- Caratterizzazione del canale hertziano nelle bande SHF e EHF.
- Elementi di progetto di sistemi radio tipo VSAT.
- Tecniche antifading (diversità e up-path power control).
- Ottimizzazione dell'allocazione dello spettro radio al di sopra dei 30 GHz.
Questi temi di ricerca sono sviluppati sia con studi fondamentalmente di tipo modellistico sia con verifiche sperimentali, tramite una campagna di misure di radiopropagazione, radiometriche e meteorologiche condotta con sofisticate stazioni di misura sintonizzate sul satellite ITALSAT (una principale a 18/40/50 GHz e due minori a 18 GHz), con radiometri bicanale 23/31 GHz nonché strumenti meteo (nefoipsometro, radiosonda, pluviometri, ecc.). Nell’ambito degli studi di radiopropagazione, il Gruppo ha inoltre sviluppato una notevole cultura meteorologica nonché una imponente banca di dati meteorologici, che ne hanno fatto un attivo interlocutore nel campo delle applicazioni ambientali, con particolare riguardo alla idrometeorologia , protezione del territorio, inquinamento atmosferico e impieghi delle sorgenti energetiche alternative, tipicamente la radiazione solare
Il Gruppo opera presso la sede EUR dell’ISPT e utilizza il laboratorio “Antenne e Propagazione” dell’ISPT per tutte quelle attività di calibrazione e manutenzione della strumentazione di misura adoperata negli impianti sperimentali.
Le pubblicazioni più rappresentative sono:
[1] F. Fedi
A simple method for predicting rain attenuation statistics on terrestrial and earth-space paths. - Relazione FUB 1B1081
[2] F. Barbaliscia, E. Damosso, F. Fedi, A. Martinelli, A. Paraboni
Italian partecipation in the OLYMPUS and ITALSAT experiments -
COST 205 Final Symposium, Capri, Giugno 1985
Relazione FUB 1C3585
[3] Barbaliscia, F., Paraboni, A., Ravaioli, G.
Characteristics of the spatial statistical dependence of rainfall rate over large areas
IEEE Transactions on Antennas and Propagation, Vol. 40, n.1, gennaio 1992, pp. 8-12
Relazione FUB 1C01692
[4] Barbaliscia, F. (Editor)
Radiometry and meteorological measurements - OPEX Reference Book, Vol. 3, ESA WPP-083, Nov. 1994
Relazione FUB 1E06194
[5] Aresu, A., Martellucci, A., Paraboni, A.
Experimental assessment of rain anisotropy and canting angle in horizontal path at 30 Ghz - IEEE Transactions on Antennas and Propagation, Vol. 41, n. 9, sept 93, pp. 1331-1335
Relazione FUB 1C00494
Gruppo 1/2: Radiocomunicazioni fisse e Radiodiffusione (Fixed Radio-communications and Broadcasting)
Le onde radio hanno avuto un’ampia utilizzazione nelle comunicazioni punto-punto tra punti fissi, spesso in concorrenza con le trasmissioni in cavo. La flessibilità di impiego, la progressiva utilizzazione di frequenze sempre più elevate, l'introduzione di tecniche sempre più sofisticate e complesse per combattere le anomalie di propagazione ha permesso di realizzare collegamenti radio di grande capacità competitivi con quelli su portanti "metallici", in termini di affidabilità e qualità, oltre che di costo. La conversione alla trasmissione numerica, data la limitazione delle bande di frequenza disponibili, ha comportato lo sviluppo di tecniche molto complesse di codifica, di modulazione e di equalizzazione adattativa, con le quali si è costituito un " know how" fondamentale per le trasmissioni radio numeriche. In questa evoluzione il Gruppo si e' fatto promotore di studi, progetti, analisi teoriche e sperimentali apprezzate a livello scientifico ed applicativo: non pochi sono stati i riconoscimenti, sia in termini di pubblicazioni sia in termini di collaborazioni richieste, che il Gruppo ha ottenuto in oltre venti anni di attività.
Nel corso degli anni ‘80 i progressi tecnologici nel settore delle fibre ottiche hanno portato alla rapida diffusione di questi mezzi trasmissivi. La loro grande capacità nonché la possibilità di supportare in modo ottimale le trasmissioni sincrone hanno di fatto confinato le radiotrasmissioni punto - punto su lunghe distanze ad applicazioni marginali. In alternativa, i sistemi radio punto - multipunto stanno trovando applicazioni interessanti sia come sistemi di diffusione su aree limitate, tipo MMDS (Microwave Multipoint Distribution System), sia come sistemi di accesso in ambito urbano. In questo scenario le attività del Gruppo saranno orientate verso studi di soluzioni di accesso radio flessibili, sia in termini di capacità sia in termini di complessità di installazione, in grado di connettere l’utente alla rete fissa tipo HFC (Hybrid Fiber/Coaxial), B-ISDN (Broadband-Integrated Service Digital Network), ETC (Fiber to The Curb), con trasmissioni “wireless” a larga banda operanti ad onde millimetriche. Al contempo saranno studiate tutte le tecniche di distribuzione del segnale video numerico, specie su aree limitate, attraverso sia la rete di terra sia quella satellitare.
Questi temi di ricerca sono sviluppati sia con studi teorici sia con verifiche sperimentali. In particolare sono in corso campagne di misura su collegamenti del tipo punto-punto e punto-multipunto ad onde millimetriche (40 GHz) nell’area urbana di Roma, nonché rilevamenti sul comportamento del canale propagativo a larga banda all’interno di edifici in vista della messa a punto di tecniche radio per l’accesso ai servizi multimediali.
Il Gruppo opera presso la sede EUR dell’ISPT e utilizza i laboratori “Antenne e Propagazione” e “Ponti Radio” dell’ISPT per tutte quelle attività di calibrazione e manutenzione della strumentazione di misura adoperata negli impianti sperimentali.
Le pubblicazioni più rappresentative sono:
[1] D. Di Zenobio
Modulated RF Signal Measurement Set-up - IEEE Transactions on Instrumentation and Measurement, Vol. IM-36, No. 2, giugno 1987
[2] D. Di Zenobio
Microcomputer-Aided Measurement Equipment for Performance Monitoring of a Digital Radio-Relay System in the Presence of Multipath Propagation - IEEE Transactions on Instrumentation and Measurement, Vol. IM-36, No. 1, marzo 1987
[3] D. Di Zenobio, M. Celidonio
An alternative modulation scheme in digital television for terrestrial broadcasting (DTTB) - IEEE Transactions on Consumer Electronics, Vol. 40, No. 4, novembre 1994
[4] G. Santella
Bit Error Rate Performances of M-QAM Orthogonal Multicarrier Modulation in Presence of Time-Selective Multipath Fading - Atti di “IEEE 1995 International Conference on Communications (ICC ‘95)”, Seattle, giugno 1995, Vol. 2, pp.830-834
[5] D. Di Zenobio, E. Russo
The New SONET - Compatible Radio Systems: Broadband Local Radio Systems - Atti di “International Conference on Communications”, Denver, 23 - 26 giugno 1991 pp. 63 - 66
[6] M. Celidonio, D. Di Zenobio
A broadband wireless two-layer radio network - Atti di GLOBECOM ‘96, Londra, novembre 1996
Gruppo 1/3: Radiocomunicazioni mobili (Mobile Radiocommunications)
L’attività di ricerca ha riguardato in passato lo studio sia di sistemi radiomobili pubblici sia privati soffermandosi in particolare - in entrambi i casi - sulle tematiche relative all’uso ottimale dello spettro radioelettrico. Ciò si è tradotto, dapprima, nella messa a punto di algoritmi per la caratterizzazione del canale di propagazione e per la previsione del campo elettromagnetico e, successivamente, nello studio di criteri e strategie per la pianificazione di sistemi cellulari ad elevata capacità di traffico. In riferimento a quest’ultimo aspetto va ricordato che il Gruppo ha condotto il confronto, in termini di efficienza spettrale, tra i sistemi candidati per lo standard numerico pan-europeo GSM.
In linea con la propria tradizione, l’attenzione rimane attualmente focalizzata su aspetti di tipo propagativo e su aspetti legati alla gestione e al controllo dell’interfaccia radio. I due temi sono evidentemente collegati, in quanto un’opportuna caratterizzazione dei fenomeni propagativi costituisce un requisito essenziale per l’approfondimento dei temi legati al segmento radio.
La messa a punto di modelli propagativi validi anche su brevissime distanze rappresenta una delle linee principali lungo le quali si articolerà l’attività dei prossimi anni. Da un lato, tali modelli saranno utilizzati nello studio di criteri di pianificazione avanzata e di auto-pianificazione per sistemi radiomobili ad elevata capacità (in tale ambito rientrano sia sistemi cellulari multistrato sia sistemi ad architettura più complessa utilizzanti bande di frequenza e standard trasmissivi diversi).
Per altro verso, in collaborazione con l’Università di Bologna, questi modelli verranno adoperati nello studio dei livelli di segnale irradiati da trasmettitori radio a breve distanza, per contribuire a chiarire gli aspetti legati agli effetti sanitari ed all’inquinamento ambientale.
Da un punto di vista più svincolato da aspetti propagativi, l’attività del Gruppo seguirà le linee di indagine che tendono a collegare gli sviluppi tecnologici e sistemistici della radiocomunicazioni mobili stesse con quelli previsti per le tecnologie informatiche e di rete fissa, ponendo in evidenza la necessità di controllare, anche in ambiente radio, flussi informativi compositi (voce, immagine, dati) adeguando le modalità di trasmissione al profilo di utente, al servizio offerto ed al particolare ambiente operativo. A tal fine, l’accento verrà posto sia all’integrazione di tecniche di accesso radio diverse sia all’uso di una stessa tecnica per servizi con caratteristiche trasmissive e specifiche di qualità estremamente differenti.
In questo ambito, seguendo l’esempio degli studi svolti per sistemi di monitoraggio e supporto della mobilità di anziani, ed individuando di volta in volta i partner più opportuni, verranno perseguite attività volte allo studio di servizi che siano caratterizzati sia da una significativa innovazione tecnologica sia da un deciso impatto in termini di pubblica utilità e sociale.
Il Gruppo opera nella sede di Villa Griffone, a Pontecchio Marconi, nell’ambito di una Convenzione in atto tra Fondazione Guglielmo Marconi e Fondazione Ugo Bordoni e utilizza strumentazione fornita in larga parte dall’ISPT ed in parte dalla FUB.
Le pubblicazioni più rappresentative sono:
[1] M. Frullone, G. Riva, P. Grazioso, G. Falciasecca
Advanced Planning Criteria for Cellular Systems - IEEE Personal Communications Magazine, Vol. 3, N. 6, dicembre 1966, pp. 6-11
[2] M. Frullone
Technological Challenges on the Way of future Mobile Radio Communications - MELECON ‘96 8th Mediterranean Electrotechnical Conference, Bari, maggio 1996, Vol. 1; pp. 47-50
[3] M. Frullone, C. Carciofi, G. Riva, P. Grazioso
Interference analysis and planning requirements for data over voice in cellular system - IEICE Transactions on Fundamentals of Electronics Communications and Computer Sciences, Vol. E-79-A, luglio 1996, pp.968-974
[4] M. Frullone, G. Riva, P. Grazioso, M. Missiroli
Comparison of Multiple Access Schemes for Personal Communication Systems in a Mixed Cellular Environment - IEEE Trans. on Vehicular Technology, Vol. 43, No. 1, febbraio 1994, pp. 99-109.
[5] M. Frullone, G. Riva, P. Grazioso
On the optimum allottment of frequency resources in mixed cellular layouts - IEICE Trans. on Fundamentals of Electronics, Communications and Computer Sciences, Vol. E75-A, No.12, dicembre 1992, pp.1642-1651.
Settore 2 - COMUNICAZIONI OTTICHE
(Optical Communications)
Capo Settore : DAINO Benedetto
Segreteria: CAULI Paola
Gruppo 2/1 - Sistemi Ottici
(Optical Systems)
Capo Gruppo: DE MARCHIS Giancarlo
Ricercatori Tecnici
01 BETTI Silvello 01 BRISELLI Umberto
02 BRAVI Emilio
03 CURTI Franco
04 GROSSO Guido
05 IANNONE Eugenio
06 MATERA Francesco
Gruppo 2/2 - Dispositivi ottici a semiconduttore
(Semiconductor optical devices)
Capo Gruppo: SPANO Paolo
Ricercatori Tecnici
01 D'OTTAVI Alessandro 01 CASSIOLI Carlo
02 MARTELLI Faustino 02 GARRANI Franco
03 MECOZZI Antonio
04 PICCARI Luigi
05 SAPIA Adalberto
06 SCOTTI Simona
07 ZOCCOLOTTI Maria Ludovica
Gruppo 2/3 - Dispositivi e sistemi non lineari
(Non linear devices and systems)
Capo Gruppo: TAMBURRINI Mario
Ricercatori Tecnici
01 CECCHETTI Claudio (.) 01 CHISARI Rita
02 GALEOTTI Marco 02 D'ALFONSO Omero
03 NERI Andrea (.) 03 VOZZELLA Rosario
04 ROMAGNOLI Marco
05 SETTEMBRE Marina
06 TRILLO Stefano
(.) Pontecchio Marconi
Gruppo 2/1 - Sistemi di comunicazioni ottiche (Optical Communications Systems)
Il Gruppo si è occupato sin dalla sua costituzione, di sistemi di comunicazioni ottiche su fibra ed in questo contesto ha preso in esame i tre diversi aspetti:
* il canale trasmissivo;
* il sistema di trasmissione;
* la rete.
L'attività principale negli ultimi anni ha riguardato i sistemi di trasmissione in ottica coerente: quando l'interesse per tale ricerca è scemato per via dall'introduzione degli amplificatori ottici, l'attività del gruppo si è rivolta verso le trasmissioni ad alta velocità e ad alta capacità in vista della realizzazione di strati di rete completamente ottici con funzionalità di instradamento e protezione a livello ottico.
I principali risultati ottenuti nel passato hanno riguardato:
- effetti in fibra legati alla polarizzazione;
- effetti non lineari in fibra;
- prestazioni dei sistemi coerenti binari e multilivello.
Per quello che concerne l'evoluzione temporale dello stato di polarizzazione in uscita da una fibra è stato messo a punto un metodo di misura (oggi diffusamente impiegato in apparati di misura commerciali) per l’analisi sperimentale della dispersione di polarizzazione in fibre e cavi installati: i risultati hanno portato a formulare, primi nel mondo, una teoria statistica per la previsione del ritardo di polarizzazione in funzione della lunghezza del collegamento, che permette di determinare la statistica del ritardo di polarizzazione a partire dalla sua conoscenza su di una singola fibra, posto che le fibre siano abbastanza omogenee per lunghezza e fabbricazione.
Il primo effetto non lineare studiato è stato l’effetto Brillouin: una volta compresa la fisica alla base dell’effetto, si è affrontato il problema della determinazione della curva di guadagno Brillouin, per vari metodi di modulazione, in funzione della velocità di cifra; è stato così possibile calcolare la potenza di soglia per l'insorgere della diffusione di Brillouin stimolata nelle varie condizioni operative.
In seguito è stata analizzata l’influenza dell’effetto Kerr, nelle sue varie manifestazioni, sulle prestazioni dei sistemi di trasmissione, verificando sia l’impatto negativo sia la possibilità di sfruttare tale effetto per compensare la dispersione cromatica.
Sono state analizzate a fondo le prestazioni dei sistemi coerenti ed in particolare dei sistemi a modulazione di polarizzazione, sia binari sia multilivello.
Si è definito un ricevitore di nuova concezione che effettua la decisione a partire dalla misura dei parametri di Stokes del campo in uscita dalla fibra ottica, denominato "Antipodal Stokes Parameters Shift Keying (ASPSK)": esso si basa sulla trasmissione di una coppia di stati ortogonali di polarizzazione, i quali risultano essere antipodali nello spazio di Stokes. Il sistema è largamente insensibile al rumore di fase ed è stato costruito in laboratorio, fornendo prestazioni in linea con la teoria sviluppata.
Si sono poi studiati metodi di modulazione non convenzionali, basati su tecniche di codifica multilivello dell'informazione, quaIi il multilivello di polarizzazione e la modulazione multilivello delle quattro quadrature del campo elettromagnetico. In generale è stato mostrato come, in una fibra ottica singolo-modo, l'impiego di tutti i quattro gradi di libertà del campo elettromagnetico permetta di ottenere prestazioni superiori, in termini di efficienza spettrale (fotoni per bit per Hertz di banda), a quelle di tutti i sistemi fino ad oggi proposti.
Le attività previste per i prossimi anni possono essere suddivise in tre principali filoni:
* studio e caratterizzazione sperimentale del canale ottico;
* sistemi di trasmissione ottica di tipo avanzato;
* studio di reti ottiche.
Per il primo punto il fulcro dell'attività può essere individuato nella caratterizzazione teorica e sperimentale di linee ottiche amplificate, che comprendano cioè amplificatori ottici in grado di ripristinare il livello del segnale senza procedere alla rigenerazione del medesimo. L'obiettivo finale è quello di arrivare ad una caratterizzazione completa del canale trasmissivo, prendendo in considerazione tutti quegli aspetti che esercitano un'influenza apprezzabile sui collegamenti ad alta capacità e lunghissima distanza, con particolare attenzione agli effetti non lineari.
Questo della non linearità è uno degli argomenti di punta della ricerca in questo momento, che ha portato alla definizione di sistemi di tipo avanzato. Lo studio, in genere, segue due vie complementari: da una parte si cercano sistemi di trasmissione alternativi (ad esempio associando l'informazione da trasmettere ad impulsi di forma particolare, i solitoni, che si propagano inalterati nella fibra), dall'altra si cerca di individuare la soglia al di sopra della quale tali effetti, invece di imporre semplicemente delle penalità di trasmissione compensabili, introducano un asintoto orizzontale per la probabilità di errore in funzione della potenza ricevuta, impedendo di fatto il funzionamento del sistema.
Il terzo punto sopra menzionato è destinato nel tempo ad assorbire quasi per intero gli sforzi di ricerca del Gruppo. Attualmente si seguono due tematiche: la prima interessa l’area di distribuzione con l’obiettivo di trasformarla in area d’accesso a larga banda su portante ottico; la seconda riguarda l’introduzione di tecnologie ottiche avanzate per l’instradamento e la protezione a livello ottico nella rete di trasporto, basate sulla multiplazione a divisione di lunghezza d’onda ed eventualmente sulla conversione di frequenza.
Il Gruppo opera presso la sede EUR dell’ISPT dove utilizza laboratori attrezzati con apparecchiature prevalentemente fornite dall’ISPT e mezzi di calcolo della FUB.
Le pubblicazioni più rappresentative sono:
[1] S. Betti, F. Curti, B. Daino, G. De Marchis, E. Iannone
A state of polarization and phase noise independent coherent optical transmission system based on Stokes parameters detection - Electronics Letters, Vol.24, n.23, November 10, 1988, pp. 1460-1461
[2] A. Bolle, G. Grosso, B. Daino
Brillouin gain curve dependence on frequency spectrum of PSK modulated signals - Electronics Letters, Vol.25, n.1, January 5, 1989, pp. 2-3
[3] S. Betti, F. Curti, G. De Marchis, E. Iannone
Exploiting fiber optics transmission capacity: 4-quadrature multilevel signalling - Electronics Letters, Vol.26, n.14, July 5, 1990, pp. 992-993
[4] F. Curti, B. Daino, G. De Marchis,F. Matera
Statistical treatment of the evolution of the principal states of polarization in single-mode fibers - Journal of Lightwave Technology, Vol.8, n.8, August 1990, pp. 1162-1165
[5] E. Iannone, R. Sabella,
Modular optical path cross-connect - Electronics Letters, Vol.32, n.2, January 18, 1996, pp. 125-126
Gruppo 2/2 - Dispositivi ottici a semiconduttore (Optical Semiconductor Devices)
Il Gruppo si occupa dello studio dei dispositivi ottici a semiconduttore, in particolare dei dispositivi attivi, quali laser e amplificatori ottici, da impiegare nelle reti di trasmissione ottica. Questi dispositivi spesso rappresentano la maggiore limitazione delle reti ottiche, per cui la loro caratterizzazione e la conoscenza della fisica su cui si basa il loro funzionamento è di fondamentale importanza per migliorare le prestazioni delle reti future. Un classico esempio di ciò è rappresentato dagli effetti della larghezza finita della riga di emissione dei diodi laser sulle prestazioni dei sistemi di trasmissione coerente. Negli anni '80, durante i quali i sistemi di trasmissione coerente si sono affacciati come promettente alternativa ai classici sistemi a rivelazione diretta, l'eccessiva larghezza della riga di emissione rappresentava la principale limitazione all’impiego di questi sistemi. Lo studio dei meccanismi responsabili dell’allargamento della riga, argomento al quale il Gruppo ha dato un sostanziale contributo, e la messa a punto di geometrie dei laser che minimizzassero l’effetto di tali meccanismi ha permesso di passare nell’arco di 6-7 anni da larghezze di riga di circa 150 MHz a larghezze di circa 50 kHz, valore questo ampiamente soddisfacente, non solo per i sistemi coerenti.
Un'altra attività di ricerca in cui il Gruppo è stato coinvolto più recentemente è stata quella di caratterizzare i meccanismi responsabili dell'indeterminazione del ritardo fra l'istante di eccitazione del laser e quello di emissione degli impulsi ottici. L'esistenza di tale indeterminazione pone forti limitazioni sulla massima velocità di modulazione dei diodi laser, che possono essere superate solo utilizzando formati di modulazione adatti.
La tendenza attuale nel campo delle sorgenti, conseguente alla messa a punto di sofisticati modelli numerici di modellazione, in grado di prevedere buona parte delle proprietà emissive dei diodi laser, sembra quella di aggirare alcuni degli inconvenienti da essi presentati (quali la massima velocità di modulazione molto inferiore a quella trasmissibile sulla fibra ottica, la presenza di una modulazione di frequenza associata alla modulazione di intensità, etc.), ricorrendo a formati di modulazione opportuni o utilizzando dispositivi esterni al laser stesso per svolgere funzioni particolari. Parallelamente a questa tendenza, che in parte riduce l'interesse verso lo studio dei diodi laser impiegati come sorgenti, si è però sviluppato un filone di ricerca, a cui il Gruppo ha dato contributi molto importanti, tendente alla realizzazione di un'elaborazione a livello ottico del segnale ottico stesso. Questa tecnica permette di ottenere dispositivi, quali convertitori di lunghezza d’onda, compensatori attivi di dispersione, demultiplatori, operanti a velocità impensabili per i dispositivi elettronici e risulterà di importanza fondamentale per i futuri sistemi ad alta capacità basati sulla multiplazione a lunghezza d'onda o di tempo. L’attività svolta dal Gruppo ha mostrato come le dimensioni ridottissime dei dispositivi a semiconduttore e la presenza di guadagno ottico permettano la realizzazione di dispositivi ottimizzati con prestazioni insospettate.
Nei prossimi anni si prevede che lo sviluppo di reti ottiche a sempre maggiore capacità farà crescere notevolmente l'importanza dei dispositivi fotonici basati su laser o amplificatori a semiconduttore. Le attività del Gruppo saranno orientate in questo ambito utilizzando le conoscenze e le esperienze acquisite, sia sui processi responsabili delle proprietà dei dispositivi sia sulla modellazione e caratterizzazione di dispositivi più efficienti e con nuove funzionalità.
Il Gruppo opera presso la sede EUR dell’ISPT dove utilizza laboratori attrezzati con apparecchiature prevalentemente fornite dall’ISPT e mezzi di calcolo della FUB.
Le pubblicazioni più rappresentative sono:
[1] B. Daino , P. Spano, M. Tamburrini and S. Piazzolla
"Phase noise and spectral lineshape in semiconductor lasers" - IEEE J. Quantum Electron., QE-18, pp. 266-270, marzo 1983.
[2] R. Hui, A. Mecozzi, A. D'Ottavi and P. Spano
"A novel measurement technique of factor in DFB semiconductor lasers by injection locking" - Electron. Lett., 26, pp. 997-998, 5 luglio 1990.
[3] P. Spano, A. Mecozzi and A. Sapia
"Intensity noise structure in laser gain switching" - Phys. Rew. Lett., 64, pp. 3003-3006, 18 giugno 1990.
[4] A. D’Ottavi, E. Iannone, A. Mecozzi, S. Scotti, P. Spano, R. Dall’Ara, J. Eckner and G. Guekos “ - 4.3 TeraHertz four-wave mixing spectroscopy of InGaAsP semiconductor amplifiers” Appl. Phys. Lett., 65, pp 2633-2635, 21 novembre 1994.
[5] A. D’Ottavi, F. Martelli, P. Spano, A. Mecozzi, S. Scotti, R. Dall’Ara, J. Eckner and G. Guekos - “Very high efficiency four-wave mixing in a single semiconductor travelling-wave amplifier” Appl. Phys. Lett., 68, 15 aprile 1996.
Gruppo 2/3 - Dispositivi e sistemi non lineari (Non-linear Devices and Systems)
Le fibre ottiche sono attualmente impiegate su larga scala in vari punti della rete e il costante aumento del traffico richiesto ne fa prevedere un ulteriore consistente sviluppo. Questo sviluppo impone un aumento di capacità delle linee che collegano le centrali fra loro e con gli utenti, nonché un aumento della capacità di traffico che devono gestire le centrali stesse. In questo scenario si presenta la necessità di studiare, da un lato, nuove tecniche per aumentare convenientemente la capacità di cavi in fibra ottica già posati e, dall'altro, dispositivi di caratteristiche avanzate in grado di evitare limitazioni nelle centrali.
Il Gruppo lavora già da molti anni su questi temi. In particolare, gli studi su nuovi dispositivi ottici con caratteristiche avanzate sono stati indirizzati principalmente verso i commutatori ottico-ottici, in grado cioè di deviare un segnale ottico di ingresso fra due o più uscite ottiche, sotto l'azione di un segnale di controllo anch'esso ottico. Ciò comporta il vantaggio non solo di risparmiare conversioni di segnale dal campo ottico a quello elettrico e viceversa, ma anche quello di aumentare le prestazioni dei dispositivi stessi. Un'idea originale sviluppata è stata quella di sfruttare la birifrangenza e la non linearità dell'indice di rifrazione nelle fibre ottiche singolo modo: il Gruppo ha così raggiunto una posizione preminente in campo internazionale nello studio dell'evoluzione non lineare della polarizzazione del campo elettromagnetico che si propaga in fibra. Sono stati predetti e analizzati effetti molto interessanti, quali la propagazione di "solitoni", anche con polarizzazione arbitraria, cambiamenti bruschi di polarizzazione in funzione della potenza e instabilità di modulazione a frequenze dell'ordine del terahertz.
Gli studi suddetti, inizialmente concepiti per aumentare le prestazioni dei dispositivi di commutazione a fibre ottiche, hanno prodotto un notevole bagaglio di conoscenze, che hanno successivamente generato un'ulteriore ricaduta nel campo della trasmissione di segnali ad alta capacità e a lunga distanza. Ne è scaturita una stretta collaborazione con altri gruppi del Settore che, fra l'altro, si è recentemente concretizzata nella partecipazione a due progetti di ricerca triennali, parzialmente finanziati dall'Unione Europea nell'ambito del programma "Advanced Communication Technologies and Services". Un altro campo nel quale le competenze del Gruppo stanno dando un importante contributo è quello della generazione di impulsi brevi, mediante aggancio modale di laser a fibra drogata con erbio.
Oltre a questa attività di ricerca che condurrà a breve termine alla dimostrazione in campo della realizzabilità di sistemi di caratteristiche avanzate, il Gruppo continuerà a investigare in campi che appaiono promettenti in una prospettiva a lungo termine. Fra questi va citato il controllo del profilo trasversale del campo elettromagnetico in sistemi ottici contenenti materiali non lineari, al fine di memorizzare o elaborare contemporaneamente molti bit di informazione. Sempre nel campo del controllo interamente ottico del segnale il gruppo proseguirà lo studio delle potenzialità offerte dai materiali con non linearità ottica quadratica, cioè quelli normalmente impiegati come duplicatori di frequenza ottica. Considerato il costante aumento della velocità dei componenti optoelettronici disponibili, verrà anche studiata la modellizzazione, assistita da calcolatore, di circuiti a microonde non lineari, di elevata complessità circuitale.
Il Gruppo opera presso la sede EUR dell’ISPT dove utilizza laboratori attrezzati con apparecchiature prevalentemente fornite dall’ISPT e mezzi di calcolo della FUB.
Le pubblicazioni più rappresentative sono:
[1] F. Matera, M. Settembre
"Comparison of the performance of optically amplified transmission systems" - IEEE Journal of Lightwave Technology, Vol. 14, n. 1, gennaio 1996, pp. 1-12;
[2] F. Matera, M. Romagnoli, B. Daino
"Alternate polarization soliton transmission in standard dispersion fibre links with no in-line controls" - Electronics Letters, Vol. 31, n. 14, 6 luglio 1995, pp. 1172-1174;
[3] P. Ferro, S. Trillo, S. Wabnitz
"Phase control of a nonlinear coherent coupler: the multi-beat-length twisted birefringent fiber" - Applied Physics Letters, Vol. 64, n. 21, 23 maggio 1994, pp. 2782-2784;
[4] S. Trillo, P. Ferro
"Modulational instability in second-harmonic generation" - Optics Letters, Vol. 20, n. 5, 1 marzo 1995, pp. 438-440;
[5] M. Tamburrini, L. Goldberg, D. Mehuys
"Periodic filaments in reflective broad-area semiconductor optical amplifiers" - Applied Physics Letters, Vol. 60, n. 11, 16 marzo 1992, pp. 1292-1294.
Settore 3 - PROTEZIONE DELL’INFORMAZIONE
(Information protection)
Capo Settore :
Segreteria: TIBALDI Francesca Romana
Gruppo 3/1 - Trasmissioni numeriche
(Digital transmissions)
Capo Gruppo: DE SETA Domenico
Ricercatori Tecnici
01 CARBONELLI Marco 01 ZAMPILLONI Guido
02 PERUCCHINI Daniele
03 da assumere
04 da assumere
Gruppo 3/2 - Sicurezza dell’informazione
(Information security)
Capo Gruppo: MONTOLIVO Emilio
Ricercatori Tecnici
01 GENTILE Francesco 01 CAMPANINI Giovanni
02 GIURI Liugi
03 GUIDA Franco
04 IGLIO Pietro
05 da assumere
06 da assumere
07 da assumere
Gruppo 3/3 - Crittologia
(Cryptology)
Capo Gruppo: WOLFOWICZ William
Ricercatori Tecnici
01 BUCCI Marco 01 ANANIA Fabio
02 CESILE Maria Cristina
03 FILIPPONI Pietro
04 MENICOCCI Renato
05 da assumere
06 da assumere
Gruppo 3.1 - Trasmissioni Numeriche (Digital Transmission)
Le origini culturali del Gruppo si collocano nell'area dei sistemi numerici di comunicazione. In quasi quarant'anni di attività sono stati forniti importanti contributi alla progettazione, all'analisi delle prestazioni e alla normalizzazione della gerarchia di multiplazione plesiocrona (PDH) europea. Nel corso di una così lunga attività, sono stati individuati e analizzati con successo numerosi problemi riguardanti i sistemi numerici di trasmissione, con particolare riguardo alla multiplazione, allo scrambling, all'allineamento di trama, alla codifica di linea, alla caratterizzazione dei mezzi trasmissivi metallici e dei disturbi e.m. cui sono soggetti.
A partire dalla fine degli anni ‘80 si è andata sempre più affermando l'attività di studio e d'approfondimento di problemi connessi con i sistemi numerici sincroni, seguiti fin dal loro primo apparire sulla scena internazionale. In particolare sono stati affrontati alcuni dei principali problemi connessi con l'introduzione nella rete di trasporto dei sistemi basati sulla gerarchia numerica sincrona (SDH): strategie d'allineamento di trama, equalizzazione di statistica, controllo della qualità, gestione della trama, sincronizzazione di rete. L'attività del Gruppo si è concretizzata: nella produzione di lavori pubblicati su autorevoli riviste tecnico-scientifiche o presentati ai più importanti congressi internazionali; nella partecipazione a organismi internazionali di normativa (ETSI e ITU-T); nell’attività didattica per l'aggiornamento del personale tecnico di enti pubblici (ISPT), di industrie (Alcatel FACE, Ericsson FATME, Alcatel Telettra) e di Telecom Italia; in proficue collaborazioni con Telecom Italia (e altre Società del Gruppo STET) tra le quali particolare menzione merita quella svolta nell'ambito del GSS (Gruppo di Studio sulla Sincronizzazione). I risultati di tale collaborazione hanno portato alla definizione delle linee guida per il progetto, la realizzazione e l'analisi delle prestazioni della rete nazionale di sincronizzazione, e alla pubblicazione del libro "La sincronizzazione nelle reti numeriche di telecomunicazione" edito dallo CSELT.
Per il futuro, è stato individuato come principale argomento di studio quello dell’integrazione dello strato trasmissivo dei sistemi per l'accesso a larga banda, nelle reti numeriche basate sull'impiego di PDH, SDH e ATM (Asynchronous Transfer Mode). I mezzi trasmissivi candidati a costituire, in un "mix" ancora in via di definizione, la rete d'accesso a larga banda, sono le coppie simmetriche, i cavi coassiali, le fibre ottiche e i sistemi radio. Le tecniche di trasmissione proposte sono: DMT (Discrete MultiTone) e CAP (Carrierless Amplitude/Phase modulation) per i sistemi su coppie simmetriche; SCM (Sub Carrier Multiplexing) per i sistemi su cavo coassiale; WDM (Wavelength Division Multiplexing) per i sistemi ottici. Al fine di garantire adeguati livelli di qualità end-to-end (da fornitore di servizio a utente finale) in un contesto così articolato, e in relazione a una grande varietà di servizi ipotizzati, è indispensabile pervenire, sin dalla fase d'individuazione delle architetture di rete, a una corretta valutazione dei requisiti dello strato trasmissivo delle diverse aree interessate (rete domestica, rete d'accesso, rete di trasporto). L'attività prevista per tale campo di ricerca, considerato il numero e la vastità dei temi trattati, è destinata a coprire un periodo di alcuni anni.
Il Gruppo opera presso la sede Laurentina della Fondazione e si avvale di ordinarie risorse di calcolo.
Le pubblicazioni più rappresentative sono:
[1] O. Brugia, M. Carbonelli, D. De Seta, P. Perucchini
Allineamento di trama in presenza d'errori di trasmissione
Relazione FUB 3B5090
[2] O. Brugia, M. Carbonelli, P. Perucchini
Impact of long periods of identical bits on the choice of a scrambler for SDH - European Transactions on Telecommunications, vol.1, n.6, nov./dic. 1990
Relazione FUB 3C1291
[3] M. Carbonelli, D. De Seta, P. Perucchini, L. Petrini
Evaluation of near-end crosstalk noise affecting ADSL systems - Proc. ICCS '94, Singapore, novembre 1994
Relazione FUB 3D03894
[4] O. Brugia, M. Carbonelli, D. De Seta, P. Perucchini
SDH capabilities for transmission quality monitoring - Proc. COMCON 4, Rodi, giugno 1993
Relazione FUB 3D05294
[5] M. Carbonelli, D. De Seta, P. Perucchini
Characterization of timing signals and clocks - European Transactions on Telecommunications, v. 7, n. 1, gennaio-febbraio 1996, pp. 9-24
Relazione FUB 3T05095
Gruppo 3.2 - Sicurezza dell'informazione (Information Security)
Il Gruppo è stato creato alla fine degli anni ‘80 allo scopo di avviare ricerche nel campo dei codici a correzione d'errore e nel campo della computer security utilizzando le competenze scientifiche maturate in molti anni nell’area delle comunicazioni numeriche.
Nel campo dei codici a correzione e rivelazione d'errore sono stati prodotti svariati lavori alcuni dei quali pubblicati su autorevoli riviste o presentati ad importanti congressi internazionali o a seminari tenuti presso Università europee. Le ricerche hanno condotto, tra l'altro, all'ideazione di una particolare classe di codici e allo sviluppo di una procedura analitica per il calcolo delle prestazioni di codici impiegati su canali gaussiani con modulazione QAM. La procedura costituisce una conveniente alternativa all'approccio simulativo comunemente utilizzato.
Il crescente interesse sul tema della sicurezza dei sistemi informatici ha fatto sì che negli ultimi tempi l'attività del Gruppo si sia sempre più orientata verso quest'ultimo tema. Un'attività di ricerca completa nel settore della sicurezza informatica richiederebbe l'effettuazione di studi in molteplici aree; l'esiguità delle forze disponibili ha costretto a concentrare le attività prevalentemente nell'area della sicurezza dei database , dei sistemi operativi e delle reti, in quella dei criteri e delle metodologie di valutazione della sicurezza, e in quella delle metodologie di analisi e gestione dei rischi per lo sviluppo di politiche di sicurezza. Il Gruppo opera nell'ambito delle attività internazionali di standardizzazione sul tema dei criteri di valutazione della sicurezza (ISO/IEC JTC1/SC27/WG3 Security Evaluation Criteria), sul tema dei requisiti dei servizi di sicurezza (ISO/IEC JTC1/SC27/WG1 Requirements, Security Services and Guidelines), sul tema della sicurezza dei database (ISO/IEC JTC1/SC21/WG3 Database) e nel Gruppo ETSI di consulenza sulla sicurezza (ETSI TC Security). Parallelamente all'attività di ricerca, il gruppo ha prestato la sua opera nell'ambito di contratti con il Ministero della Difesa e ha fornito la propria consulenza all'ISPT per la stesura dalla parte relativa alla sicurezza dello studio di fattibilità per la Rete Unitaria della pubblica Amministrazione condotto dall'AIPA (Autorità Informatica Pubblica Amministrazione). Il Gruppo ha raggiunto una buona notorietà a livello italiano e a livello europeo, sia nella comunità dei ricercatori sia in quelle dei produttori e degli utenti di sistemi sicuri. Fa parte del comitato di gestione della conferenza ESORICS (European Symposium on Research in Computer Security), che è la più importante manifestazione scientifica europea dedicata alla computer security, e del Comitato Scientifico della prima rivista italiana (Sicurezza Informatica) completamente dedicata alla sicurezza; inoltre, nel settore della valutazione della sicurezza, costituisce un punto di riferimento in Italia riconosciuto anche da organizzazioni governative come l'ANS (Autorità Nazionale per la Sicurezza).
A partire dal 1996, il Gruppo partecipa ai lavori del TAS (Tavolo di Approfondimento sulla Sicurezza) che è un'iniziativa di Telecom Italia che raccoglie esperti FUB, CSELT, SSGRR, con l'obiettivo di studiare soluzioni ai problemi di sicurezza di Telecom Italia e di giungere alla definizione di una politica di sicurezza globale. Data la complessità di tale obiettivo è prevedibile che quest'attività si prolunghi anche per i prossimi anni tendendo a divenire un'attività di supporto tecnico permanente.
Il Gruppo è stato anche chiamato a prestare la propria opera di supporto per l'allestimento, presso l'ISPT, di un CE.VA. (Centro di Valutazione della sicurezza) in accordo alle specifiche recentemente emanate dall'ANS. Nonostante la complessità del problema, il Gruppo si è trovato pronto a fornire la propria consulenza all'ISPT, avendo a suo tempo riconosciuto l'importanza dell'argomento, avviato scambi di informazioni con organizzazioni internazionali interessate allo stesso problema, e predisposte già da alcuni anni le linee guida per la progettazione e la realizzazione di un tale centro.
Il Gruppo opera presso la sede Laurentina della Fondazione e si avvale di ordinarie risorse di calcolo.
Le pubblicazioni più rappresentative sono:
[1] Di Porto A., Guida F., Montolivo E., Poscetti G.M.
A class of Error Magnitude Subset Correcting Codes over GF(q) - Proc. 1993 IEEE Int. Symp. on Information Theory, San Antonio, 17-22 gennaio 1993, p. 37. Relazione FUB: 3D01393
[2] Guida F., Montolivo E., Poscetti G.M.
Evaluation of the performance of binary error correcting codes over gaussian QAM-channels - Electronics Letters, v. 30, n. 23, 10 novembre 1994, p. 1916-1917. Relazione FUB: 3C06594
[3] Gentile F., Giuri L., Guida F., Montolivo E., Volpe M.
Security Evaluation in Information Security Standards-Computer & Security, v. 13, n. 8, 1994, p. 647-650. Relazione FUB: 3C00795
[4] Giuri L.
A new model for role-based access control - Atti della Conferenza "Eleventh Annual Computer Security Applications" New Orleans, LA,11-15 dicembre 1995, p. 249-255. Relazione FUB: 3D03595
[5] Gentile F., Guida F., Montolivo E.
La valutazione della sicurezza di sistemi e prodotti informatici dieci anni dopo l'Orange Book - Atti del "VI Seminario Nazionale AFCEA (Armed Forces Communications & Electronics Association) La Sicurezza nei sistemi Informatici" Relazione FUB: 3T07595
Gruppo 3.3 - Crittologia (Cryptology)
L'attività di ricerca nell'area della crittologia fu avviata all'inizio degli anni ‘80, sulla base delle competenze scientifiche consolidate nello studio delle comunicazioni numeriche ed ha condotto nel corso di questi anni alla produzione di molti lavori pubblicati nelle maggiori riviste o presentati nei più importanti congressi internazionali. Oltre alla diffusione di risultati scientifici è stata svolta una impegnativa attività finalizzata a sostenere l'industria nazionale nella progettazione e nella realizzazione di apparecchiature d'avanguardia e a orientare le scelte dei fornitori e dei gestori di servizi che richiedono l'uso della crittografia.
In questo quadro vanno citati alcuni esempi: l'algoritmo per l'esecuzione rapida delle operazioni su grandi numeri, che è alla base del chip RSA512 prodotto industrialmente su progetto del Gruppo; gli algoritmi sviluppati per l'esecuzione rapida delle prove di primalità di grandi numeri, su cui si basa la fattibilità di un importante progetto completato nel 1996; una particolare rappresentazione dei numeri, ai fini della realizzazione di carte intelligenti per il controllo d'accesso.
Inoltre alle ricerche teoriche di base, numerose sono le attività svolte o in corso di svolgimento: l’organizzazione di congressi e tavole rotonde su argomenti inerenti alla crittografia, tra i quali vanno citati SPRC ‘93 e Eurocrypt '94 , la collaborazione con il Ministero della Difesa, e la partecipazione a progetti comunitari (Insis, RACE 1043, COST 225, Euroradio), le collaborazioni con il Forum per la Tecnologia dell’Informazione, la partecipazione ad attività di standardizzazione (ISO/IEC JTC1/SC27/WG2), la collaborazione con Telecom Italia nell'ambito del TAS (Tavolo di Approfondimento della Sicurezza).
Le attività del Gruppo saranno orientate nei prossimi anni verso i problemi connessi con l'ingegnerizzazione degli algoritmi crittografici, per ottenere dispositivi cifranti che ottimizzino la realizzazione di specifiche logiche che trovano il loro fondamento nella ricerca teorica di base. La robustezza crittografica dei sistemi che dovranno essere realizzati sarà oggetto di analisi al fine di trovare un giusto compromesso fra costi realizzativi e resistenza ai vari tipi di attacchi che possono essere messi in atto.
Particolare attenzione verrà posta ai problemi delle applicazioni bancarie, che richiedono un sempre maggiore impegno per garantire l'autenticità e l'integrità dei dati scambiati fra calcolatori o memorizzati in archivi elettronici. La crittologia si è dimostrata lo strumento più efficace per fornire tali garanzie e l'attività del Gruppo sarà dedicata alla realizzazione di nuove procedure di firma elettronica e alla verifica dell'adeguatezza degli standard esistenti.
Come argomenti di ricerca a medio-lungo termine ci si propone lo sviluppo di nuove logiche di cifratura per pervenire all'ideazione di algoritmi originali che soddisfino le richieste di riservatezza per la protezione delle comunicazioni, sia in ambito civile sia in quello militare, e lo studio delle possibili applicazioni della crittografia quantistica.
Il Gruppo opera presso la sede Laurentina della Fondazione e si avvale di ordinarie risorse di calcolo.
Le pubblicazioni più rappresentative sono:
[1] O. Brugia, S.Improta, W.Wolfowicz
An encryption and authentication procedure for telesurveillance systems - Eurocrypt '84, Parigi 1984, Springer Verlag, Lecture Notes in Computer Science
[2] M. Bucci, A. Di Porto
RSA512:Cryptochip tutto italiano - Sicurezza Informatica, Ottobre 1995
[3] A. Di Porto, W. Wolfowicz
VINO: a block cipher including variable permutations - Cambridge Security Workshop 1993, Springer Verlag, Lecture Notes in Computer Science
[4] R. Menicocci
A systematic attack on clock controlled cascades - Eurocrypt '94 , Perugia 1994, Springer Verlag, Lecture Notes in Computer Science
[5] D. Naccache, D. M' Rahihi, A. Di Porto, W. Wolfowicz - Are crypto accelerators really inevitable? 20-bit zero-knowledge in less than a second on simple 8-bit microcontrollers - Eurocrypt '95, Springer Verlag, Lecture Notes in Computer Science
Settore 4 - RETI DI TELECOMUNICAZIONE
(Telecommunications Networks)
Capo Settore : MAGGI Wolfango
Staff di Settore: GRILLO Davide
Segreteria: COMPAGNUCCI Silvia
Gruppo 4/1 - Architetture di reti di telecomunicazione
(Telecommunications Network Architectures)
Capo Gruppo: BERNABEI Francesco
Ricercatori Tecnici
01 GRATTA Laura
02 WINKLER Roberto
03 CHIERCHIA Gianluca
04 da assumere
05 da assumere
Gruppo 4/2 - Pianificazione di reti di telecomunicazioni
(Telecommunications Networks Planning)
Capo Gruppo: MOCCI Ugo
Ricercatori Tecnici
01 DAMMICCO Giacinto 01 FILIPPONI Federico
02 ERAMO Vincenzo
03 SCOGLIO Caterina Maria
04 da assumere
Gruppo 4/3 - Software di Comunicazione
(Communications Software)
Capo Gruppo: TRIGILA Sebastiano
Ricercatori Tecnici
01 BRUNO Gaetano 01 DI BLASI Riccardo
02 LUCIDI Ferdinando
03 da asssumere
04 da assumere
Gruppo 4/1 - Architetture di reti di telecomunicazione (Telecommunications Networks Architectures)
La offerta di servizi di trasporto a larga banda è ormai una realtà commerciale in molti Paesi, tra cui l’Italia. Questi servizi sono offerti su un’infrastruttura - denominata Broadband Integrated Service Digital Network (B-ISDN) - che utilizza, per il trasporto, l’Asynchronous Transfer Mode (ATM). Non tutti gli aspetti di architettura della nuova rete sono tuttavia risolti. Le nuove infrastrutture devono consentire: una gestione efficace della mobilità dell'utenza; la personalizzazione dei servizi di comunicazione, di tipo sia punto-punto sia punto-multipunto; la disponibilità di applicazioni multimediali a larga banda. A questo scopo, è necessario valutare attentamente gli effetti delle diverse scelte di architettura, sul traffico dati e su quello di segnalazione e la loro rispondenza complessiva ai requisiti posti dai diversi servizi.
Negli ultimi anni, il Gruppo ha concentrato le proprie attività sulle problematiche legate alla realizzazione di nuovi servizi di telecomunicazione, con particolare riguardo agli aspetti di controllo (segnalazione) della B-ISDN, nei quali si vorrebbero integrare funzionalità proprie della “rete intelligente”.
L’esperienza culturale del Gruppo nasce da studi sui metodi di trasporto dell’informazione d’utente, avviati negli anni ‘80 con l’analisi delle tecniche di trasferimento che hanno preceduto l’ATM (con particolare riferimento alle reti di interconnessione di autocommutatori in tecnica “Fast Packet Switching”). In tempi successivi, altri studi hanno riguardato argomenti relativi al trasporto e all’accesso, in ambiente sia Local Area Network (LAN) sia Metropolitan Area Network (MAN), per reti in tecnologia elettronica e in ottica coerente. Le valutazione delle possibili soluzioni via via individuate veniva condotta con metodi sia analitici sia simulativi, utilizzando anche tecniche innovative per la valutazione di eventi rari. Con il progressivo consolidarsi della tecnica ATM, si è reso urgente definire servizi di connessione differenziati in base al livello di qualità del servizio da realizzare. Molti degli studi effettuati sono stati condotti nell’ambito di collaborazioni con l’ERICSSON, l’IBM, l’Università di Roma, spesso nell’ambito di partecipazioni a progetti di ricerca italiani (Progetto Finalizzato “Telecomunicazioni” del CNR) ed europei (RACE, ACTS).
Nei prossimi anni, l’attività del Gruppo sarà concentrata su temi riguardanti la tecnica ATM e l’uso della larga banda.
Un primo argomento di studio riguarda lo sviluppo di schemi innovativi di segnalazione per B-ISDN, adatti a servizi con caratteristiche di personalizzazione e mobilità dell’utenza. La segnalazione è elemento chiave nel processo di aggiornamento del sistema. La sua funzione è quella di organizzare lo scambio di informazioni tra le varie componenti di rete (centrali di commutazione, database, service provider...), necessario per la corretta gestione delle chiamate relative ai servizi avanzati previsti negli scenari evolutivi di rete. La versione standard del sistema di segnalazione per ISDN è, attualmente, il Sistema di Segnalazione a Canale Comune n. 7 (SS7). Una possibile evoluzione di questo sistema di segnalazione è tra gli obiettivi principali del Progetto europeo AC068 “INSIGNIA”. In INSIGNIA si punta a definire un sistema di segnalazione che integri le funzionalità della B-ISDN con quelle della rete intelligente. L’attività del Gruppo in questo Progetto comprende sia l’analisi delle prestazioni del sistema di segnalazione che verrà definito, sia lo sviluppo di proposte per la sua estensione ad ambienti e/o servizi più complessi ed articolati. La disponibilità di sistemi che utilizzino la tecnica ATM, potrebbe essere il punto di partenza per lo sviluppo e verifica in campo di soluzioni sistemistiche innovative, per servizi multimediali di concezione avanzata.
Una seconda area di attività comprende il sostegno tecnico da fornire, in collaborazione con altri Enti, all’AIPA (Autorità Informatica per la Pubblica Amministrazione) per la realizzazione di una “Rete Unitaria per la Pubblica Amministrazione”. Tale rete, le cui caratteristiche generali sono definite in uno studio di fattibilità condotto sotto il coordinamento dell’AIPA e concluso all’inizio del 1996, ha il duplice obiettivo di offrire al cittadino un servizio migliore, caratterizzato da tempi di risposta più brevi e dalla possibilità di reperire automaticaente documenti già disponibili, e di realizzare sinergie intese a ridurre i costi di comunicazione. La realizzazione della rete richiede l’approfondimento di vari aspetti, tra i quali quelli legati a: la definizione dei servizi da offrire; l’evoluzione dei servizi di rete in una linea di sempre maggiore integrazione delle applicazioni; la definizione dell’architettura di rete; l’interoperabilità tra le reti locali della PA; la realizzazione di “reti private virtuali”, da attribuire ai diversi Organi della PA.
Un terza area di attività riguarda argomenti relativi alla diffusione dell’ATM nell’attuale scenario delle reti di telecomunicazione, soprattutto in relazione alle modalità di accesso alla rete. A questo riguardo, va ormai consolidandosi l’idea di poter sfruttare soluzioni che prevedono possibilità di accedere alla rete attraverso segmenti radio. Questa soluzione pone una serie di problemi, tra i quali la scelta di protocolli di accesso, adatti a sfruttare con efficacia la larghezza di banda a disposizione. Il problema duale si pone per la scelta dei protocolli di rete destinati al trasporto dell’informazione. Oggi, uno dei protocolli di rete maggiormente utilizzati nell’ambito delle reti di calcolatori è il TCP/IP. Tale protocollo non è stato progettato per comunicazioni a larga banda, ma vista l’ampia disponibilità di servizi di rete basati sul TCP/IP, questa estensione è ormai all’ordine del giorno.
Il Gruppo opera nella sede Laurentina della Fondazione. Oltre agli usuali Personal Computer di tipo Macintosh ed IBM compatibili, sono utilizzate, per le elaborazioni più complesse, stazioni di lavoro SUN. E’, inoltre, in essere un programma sperimentazioni basate su commutatore ATM della Fore System.
Le pubblicazioni più rappresentative sono:
[1] A. Baiocchi, N Blefari Melazzi, M. Listanti, A. Roveri, R. Winkler:
Loss Performance Analysis of an ATM Multiplexer Loaded with High-Speed ON-OFF Sources - Selected Area in Communications, vol. 9, n. 3, Aprile 1991, pp. 388-393.
[2] F. Bernabei, M. Listanti, D. Matrullo:
Performance analysis of an ATM switch supporting a circuit emulation technique
Computer Communications, vol. 14, n. 9, Novembre 1991, pp. 515-524.
[3] A. Baiocchi, L. Gratta, M. Listanti, G. Pacifici, A. Roveri, R. Winkler:
The adaptive Cycle Cell Insertion MAC Protocol for High Throughput and Fair Multiaccess Networks- Computer Networks and ISDN System, vol. 26, n. 6-8, Marzo 1994, pp. 757-770.
[4] R. Winkler:
Using Special Resources to Support Multimedia Multiparty Communications in ATM Networks - Computer Communications, Marzo 1996.
[5] F. Bernabei, L. Gratta, M. Listanti:
Throughput Analysis of Shuffle Networks in a Hot Spot Traffic Scenario: Impact of Routing Strategies, Computer Networks and ISDN System, Aprile 1996.
Gruppo 4/2 - Pianificazione di reti di telecomunicazioni (Telecommuni-cations Network Planning)
Il Gruppo 4/2 è impegnato da molti anni nello studio dei modelli e dei metodi per il progetto e la pianificazione di reti di telecomunicazioni.
I principali temi affrontati in passato hanno riguardato:
1. problematiche di progetto
• il dimensionamento di reti a circuito e a pacchetto,
• l’ottimizzazione topologica,
• l’instradamento dei flussi di traffico e dei circuiti,
• il raggruppamento dei canali nei nodi trasmissivi,
• le strategie di protezione.
Tali problematiche classiche sono state affrontate in relazione ai diversi obiettivi del progetto (costo, utilizzazione, sicurezza, robustezza, flessibilità, ecc.) e si sono svolte, per larga parte, nell’ambito della partecipazione ai progetti europei COST 201 e COST 214.
2. problematiche di pianificazione
• la determinazione di reti obiettivo in un orizzonte di pianificazione prefissato,
• l’ottimizzazione dinamica dell’evoluzione della rete verso la rete obiettivo,
• la determinazione dei piani di espansione ottimali, rispondenti al minimo costo attualizzato.
Tali attività - condotte anche nell’ambito dell’ENPW (European Network Planning Workshop) - hanno trovato applicazione in alcune scelte riguardanti la rete ottica nazionale (ASST) e la rete ottica europea (ESA-Telespazio). In relazione a tali attività, il gruppo ha maturato ampie competenze metodologiche, con particolare riguardo alle seguenti discipline: teoria del traffico, teoria dei grafi, teoria dell’affidabilità, ottimizzazione statica e dinamica, ottimizzazione e valutazione economica di piani evolutivi .
Negli ultimi anni queste analisi sono state ulteriormente sviluppate, in coerenza con l’evoluzione tecnologica ed i mutamenti che si prospettano nel quadro regolatorio e di pianificazione. Sono stati trattati, in particolare, i seguenti temi:
1. problematiche di progetto:
• il progetto di reti SDH, con particolare riferimento alla copertura ed alla topologia degli anelli, all’interconnessione tra di essi, ai livelli di disponibilità e di sopravvivenza di architetture ibride, costituite da anelli e da reti a maglia (tali attività sono state svolte in collaborazione con Telecom Italia);
• il progetto di piattaforme multiservizio in tecnica ATM, con riferimento alle varie problematiche poste dalla strutturazione e dalla gestione di tali reti, quali:
• il raggruppamento dei flussi di traffico in blocchi omogenei,
• l’analisi e la scelta delle politiche di condivisione delle risorse,
• l’instradamento delle connessioni nell’ambito di reti virtuali,
• l’instradamento dei cammini virtuali nella rete fisica,
• l’allocazione dinamica delle risorse di rete,
• le tecniche di protezione in reti con traffici aventi diversi requisiti di qualità.
Tali attività sono state sviluppate nell’ambito della partecipazione ai progetti COST 224 e COST 242.
2. problematiche di pianificazione,
• le reti di accesso a larga banda, con particolare riguardo alla valutazione della compatibilità economica di scenari tecnologici e di domanda per reti ATM multiservizio e per reti multimediali di tipo VoD;
• la valutazione del grado di diffusione e di consumo dei servizi di telecomunicazione, in dipendenza dei fattori di utilità degli utilizzatori, dell’elasticità al sistema tariffario, delle dinamiche diffusive.
Nel prossimo futuro il Gruppo si impegnerà su ricerche nuove, tra le quali si possono indicare:
1. problematiche di progetto,
• trasporto di traffico video su reti multiservizio ATM,
• instradamento, riservazione delle risorse e qualità di servizio in reti Internet.
In tale ambito, con particolare riferimento alla partecipazione al progetto COST 257, saranno affrontate prevalentemente problematiche di dimensionamento, allocazione, instradamento, securizzazione ed utilizzazione delle risorse di rete.
2. problematiche di pianificazione,
• valutazione tecnico-economica di scenari,
• analisi dei rischi e robustezza di scenari evolutivi
• allocazione dei costi in relazione alla qualità dei servizi, all’uso delle risorse ed alla regolamentazione
• processi di decisione multi-criterio.
Saranno analizzati i principali fattori di incertezza presenti negli scenari (tecnologie, costi, livelli di domanda, quadro regolatorio, mercato competitivo), con riferimento a quadri decisionali complessi, caratterizzate da molteplici funzioni di utilità.
Tali attività saranno condotte, in particolare, nell’ambito dei progetti COST e dell’ENPW.
Il Gruppo opera nella sede Laurentina e per la sua attività si avvale di strumenti di calcolo normale e di stazioni di lavoro dotate di software specializzato.
Le pubblicazioni più rappresentative sono:
[1] Menozzi M., Mocci U., Scoglio C., Tonietti A.,
“Traffic Integration and Virtual Path Optimization in ATM Networks” - “Networks ‘94”, Budapest, 4-9 September 1994
[2] Mocci U., Scoglio C.,
COST 242 Final Report - Sezioni su: Multiservice network dimensioning Virtual Path Network Design Resource management and Routing
[3] Mocci U., Primicerio L.
Ring Networks Design: an MCDM Approach - 12th International Conference on Multiple Criteria Decision Making; Hagen, 19-23 june 1995
[4] Bonatti M., Gobbi R., Dammicco G., Mocci U., Lippi M., Montagna M., Polese P., Roso G.
B-ISDN Economical Evaluation in Metropolitan Areas - IEEE Journal on Selected Areas in Communications, Vol. 10, N.9, december 1992
[5] Castelli F., Dammicco G., Mocci U.
Evaluation of Economic Viability for Broadband Access Networks - 11 European Network Planning Workshop 1995; Les Arcs, 13-17 june 1995Gruppo 4/2 - Tecniche di videocomunicazione e servizi multimediali
Gruppo 4/3 - Software di Comunicazione (Communications Software)
Il Gruppo fu costituito a metà degli anni ‘80 per affrontare organicamente, nell’ambito delle reti dedicate per dati e dell’architettura OSI (Open System Interconnection), la ricerca di modelli di specifica formale, di metodi matematici di convalida e di tecniche di test per protocolli di comunicazione.
Nel campo delle tecniche di convalida formale dei protocolli di comunicazione, il Gruppo ha pubblicato risultati originali basati sulla combinazione della teoria degli automi con le tecniche dell'algebra lineare. Per quanto riguarda le tecniche di test, il Gruppo ha partecipato al Programma europeo CTS (Certification and Testing Services), che aveva l’obiettivo di progettare sequenze di prove di conformità agli standard, per i protocolli di trasporto e di sessione utilizzati nel sistema di posta elettronica MHS (Message Handling System, ovvero serie X.400).
Nel campo dei modelli di specifica, il Gruppo ha ottenuto ottimi risultati nelle FDT (Formal Description Techniques), nome con il quale si indicano notazioni e linguaggi usati nella fase di specifica e progettazione di protocolli, servizi e sistemi antecedente la fase di sviluppo software. Diverse proposte di estensione del linguaggio LOTOS (Language of Temporal Ordering Specifications) per il trattamento quantitativo di vincoli temporali nella sincronizzazione di processi di comunicazioni, denominata T-LOTOS, hanno costituito il tema di numerosi contributi scientifici. I risultati ottenuti sono stati recepiti in sede di normativa ISO.
Ricerca di base, cooperazione europea e partecipazione alle azioni di normativa hanno caratterizzato le attività del Gruppo. La cooperazione europea ha assunto un'importanza sempre maggiore. Nel periodo 1989-92, il Gruppo ha partecipato a due progetti RACE. Nel primo Progetto (ITACA), si sono utilizzate le competenze maturate in materia di metodologie di test. Con il secondo Progetto (ROSA), si sono, invece, affrontate problematiche innovative e stimolanti, correlate con la ricerca di una “Architettura per servizi aperti”, cioè di un modello di riferimento per il software di controllo e di gestione dei servizi che superasse i limiti delle architetture IN (Intelligent Network (Rete Intelligente)) e TMN (Telecommunications Management Network) di fronte alle nuove tecnologie e ai nuovi servizi. Il Gruppo, entrato nel Progetto con obiettivi limitati (utilizzo di modelli formali per la specifica di servizi in reti a larga banda), ha concluso la propria partecipazione con la responsabilità di coordinamento dell’attività relativa al "quadro di riferimento per la specifica di servizi".
La complessità dei temi legati allo sviluppo di architetture per servizi aperti ha favorito l’approvazione di un nuovo Progetto RACE denominato CASSIOPEIA (1992-1994), in cui al Gruppo veniva affidato il coordinamento dell’attività "Open Service Architecture" (OSA). Nell’ultimo anno di attività, al Gruppo veniva affidato il coordinamento generale del Progetto.
Attualmente (dal 1995 fino al 1998), il Gruppo detiene, questa volta nell’ambito del Programma europeo ACTS, la responsabilità di coordinamento del Progetto DOLMEN (Service Machine Demonstrator for an Open Long-term fixed and Mobile Environment), il cui obiettivo è l'applicazione dell'architettura OSA ad un ambiente integrato di comunicazioni fisse e mobili (comunicazioni personali) e la sua dimostrazione in un esperimento pan-europeo. Tale esperimento si basa su: (a) la realizzazione di una "macchina servizi", cioè di una piattaforma software di controllo e gestione dell'infrastruttura di rete pilota messa a disposizione congiuntamente dal National Host britannico e dal National Host finlandese; (b) la misura dell'efficienza di una tale macchina servizi, mediante il suo utilizzo da parte di due applicazioni con alto grado di interattività e con intenso utilizzo delle risorse di comunicazione: "information browsing ipermediale" e audio-conferenza. Il Progetto DOLMEN ha guadagnato un considerevole prestigio in ambito sia europeo sia extra-europeo. DOLMEN è, infatti, formalmente associato all’iniziativa globale TINA (Telecommunications Information Networking Architecture) sulle specifiche e la sperimentazione di un’architettura a lungo termine per il controllo e la gestione di reti e servizi. Al Gruppo sono anche affidate responsabilità rappresentative del Programma ACTS a livello di coordinamento inter-progetti e ai fini della presentazione ufficiali di risultati in sedi extra-europee. Ad un membro del Gruppo è stata affidata la presidenza del Comitato di Programma della Conferenza “Intelligence in Services and Networks” IS&N ’98, la quinta edizione di un evento ormai diventato significativo per gli specialisti del tema “reti intelligenti a lungo termine”.
Per quanto riguarda la ricerca di base l’attenzione è focalizzata, nel filone delle tecniche di descrizione formale, sugli standard per la specifica orientata a oggetti di servizi multimediali e servizi di comunicazione personali. Le attività di ricerca sono attualmente coadiuvate da sperimentazione delle tecniche suddette mediante l’utilizzo di software di tipo CASE e di piattaforme di elaborazione distribuita basate sullo standard industriale OMG/CORBA.
Grazie all’esperienza acquisita, il Gruppo rappresenta un punto di riferimento per lo sviluppo di metodologie software di avanguardia per il sostegno del ciclo di vita dei servizi, con particolare riguardo a quelli più innovativi, non trattabili adeguatamente con tecniche tradizionali. In questo quadro, si conta di porre particolare attenzione a quelle fasi del ciclo di vita dei servizi di maggiore rilievo per il pianificatore e il gestore di servizi, e cioè la fase iniziale, di specifica, e la fase finale, di test e accettazione del software di supporto ai servizi stessi.
Per quanto riguarda il futuro Quinto Programma Quadro dell’Unione Europea, il Gruppo può contare su una vasta rete di contatti internazionali con prestigiosi istituti di ricerca e laboratori industriali per l’eventuale coinvolgimento in iniziative di ricerca e di sperimentazione al massimo livello.
Il Gruppo opera nella sede Laurentina della Fondazione e si avvale di alcune stazioni di lavoro UNIX e di PC multimediali per il supporto alla ricerca e alla sperimentazione.
Le pubblicazioni più rappresentative sono (tralasciando una lista di oltre venti Rapporti Tecnici coordinati o direttamente prodotti dal Gruppo per i Progetti europei di cui si è detto):
1. Bolognesi, T., Lucidi, F., Trigila, S.
Converging towards a timed LOTOS standard - Computer Standard & Interfaces, vol. 16, 1994, North-Holland, pp. 87-118.
2. Bruno, G., Lucidi, F., Trigila, S.
A Service Driven Vision of IBC - LNCS (Lectures Notes in Computer Science), n. 851, "Towards a Pan-european Telecommunication Service Infrastructure - IS&N '94", Springer-Verlag, Berlino, pp. 529-538.
3. Lucidi, F., Trigila, S., Di Blasi, R.
Protocol Test Specification in SDL - Atti di 'Sixth SDL forum:Using Objects", 11-13 ottobre 1993, Darmstadt, Germania, pp. 279-290, North-Holland.
4. Bolognesi, T., Lucidi, F.
A Timed Full LOTOS with Time/Action Tree Semantios "Theories and Experiences for Real-Time System Development" - World Scientific Publishing Co., New York, pp. 208-237.
5. Trigila, S., Mullery, A., Campolargo, M., Hunt, J.
Service Architectures and Service Creation for Integrated Broadband Communications - Computer Communications, vol. 18, n. 11, novembre 1995, pp. 838-847.
6. Lucidi, F., Tosti, A., et al.
OSAM Component model, a key concept for the efficient design of future telecommunications systems.
Fourth International Conference on Intelligence in Services and Netwroks, IS&N ’97, Cernobbio, Italia, 27-29 maggio 1997. Atti pubblicati come Lecture Notes in Computer Science n.1238, Springer.
7. S.Trigila.
Service Architecture. Fourth International Conference on Intelligence in Services and Netwroks, IS&N ’97, Cernobbio, Italia, 27-29 maggio 1997.
Atti pubblicati come Lecture Notes in Computer Science n.1238, Springer.
Comunicazioni Personali: attività di coordinamento
Le Comunicazioni Personali rappresentano attualmente uno dei segmenti dell’industria di telecomunicazioni a più alto tasso di sviluppo e generatore del più alto incremento di introito. Tre caratteristiche essenziali connotano le Comunicazioni Personali: 1) l'accesso degli utenti all'insieme dei servizi sottoscritti da qualsiasi terminale, fisso o mobile, e da qualsiasi locazione geografica ("mobilità personale"); 2) la possibilità di terminali mobili di accedere ai servizi di telecomunicazioni sia in moto che in condizioni di stazionarietà, e di essere localizzati ed identificati dalla rete ("mobilità terminale"); 3) la gestione ed il controllo del profilo individuale di utenza ("portabilità del servizio").
L'attività di coordinamento nell'area delle Comunicazioni Personali, svolta nel Settore 4, rappresenta lo sviluppo di una attività di studio riguardante l'architettura, l'ingegneria del traffico e la stima delle prestazioni di sistemi di telecomunicazioni che ha, in FUB, una tradizione trentennale. L'attività di coordinamento si esplica prevalentemente a livello internazionale (ad esempio: ITU, International Telecommunication Union, e IEEE, Institute of Electrical and Electronic Engineers) dove si sono conseguiti importanti risultati e si detiene la responsabilità di coordinamento di gruppi di lavoro di assoluta eccellenza.
A testimonianza di ciò, si può citare una copiosissima produzione scientifica, con pubblicazioni sulle più prestigiose riviste nazionali ed internazionali, un'intensa partecipazione a congressi e la promozione di attività di sicuro impatto sul prosieguo degli studi, soprattutto nel campo delle Comunicazioni Personali. Tali conseguimenti sono stati resi possibili anche per gli intensi scambi culturali e la cooperazione coltivati in numerosi ambienti di ricerca nazionali ed internazionali (Università di Pisa, Laboratorio di ricerca IBM di Zurigo, Laboratorio di ricerca della Siemens di Monaco, Università di Dortmund, AT&T Labs, ecc.).
Le pubblicazioni più rappresentative sono:
1. Grillo, and R. A. Skoog,
Traffic Demand Modeling for Mobile PCS - Meeting the Needs of Teletraffic Engineering in ITU-T, to appear in IEEE Personal Communications
2. Grillo,
Traffic Demand Modeling for Mobile PCS”, ITC 15, sessione speciale sull'Ingegneria del Traffico in ITU-T, Washington, 23-27 giugno, 1997
3. Grillo, A. Sasaki, R. A. Skoog, and B. Warfield,
Personal Communications - Services, Architecture and Performance Issues --- Guest Editorial, to appear in IEEE JSAC Special Issue on Personal Communications, October 1997
4. Pandya, D. Grillo, E. Lycksell, P. Mieybegue, H. Okinaka, and M. Yabusaki,
IMT-2000 Standards¬— Network Aspects — to appear in IEEE Personal Communications, Special Issue on IMT-2000, August 1997
5. Anastasi, D. Grillo, and L. Lenzini,
An Access Protocol for Speech/Data/Video Integration in TDMA-Based Advanced Mobile Systems, to appear in IEEE JSAC Special Issue on Personal Communications, October 1997
6. Anastasi, D. Grillo, L. Lenzini, and E. Mingozzi,
A Contention/Reservation Access Protocol for Speech and Data Integration in TDMA-Based Advanced Mobile Systems, to appear in: ACM Mobile Networks, Special Issue on "Channel Access in Wireless Networks”, Vol. 2, No. 1, 1997, pp. 3-18.
Settore 5 - COMUNICAZIONI MULTIMEDIALI
(Multimedia Communications)
Capo Settore : PETRIOLI Renato
Staff di Settore: RAVAIOLI Giacomo
Segreteria: SAVERIONE Sara
Gruppo 5/1 - Sistemi informativi
(Information Systems)
Capo Gruppo: CARPINETO Claudio
Ricercatori Tecnici
01 AMATI Giambattista
02 BERENCI Ezio
03 D'ALOISI Daniela
04 GIANNINI Vittorio
05 MAZZARELLA Francesco
06 ROMANO Giovanni
Gruppo 5/2 - Comunicazioni vocali
(Voice Communications)
Capo Gruppo: PAOLONI Andrea
Ricercatori Tecnici
01 DE LOGU Maria Cristina 01 DE SARIO Nicolo'
02 DI CARLO Andrea 02 SAVERIONE Berardo
03 FALCONE Mauro
04 PRINA RICOTTI Lucio
05 RAGAZZINI Susanna
Gruppo 5/3 - Comunicazioni video
(Video Communications)
Capo Gruppo: TALONE Paolo
Ricercatori Tecnici
01 BARONCINI Vittorio 01 FERRAIOLI Umberto
02 CAPODIFERRO Licia 02 FIERRO Giuseppe
03 CHIARI Armando 03 NOCELLA Giuliano
04 COLONNESE Stefania
05 MARCONE Giuseppe
06 RUSSO Giuseppe
Gruppo 5.1 - Sistemi informativi (Information Systems)
Il Gruppo è stato costituito nella metà degli anni ‘80 per contribuire allo sviluppo di servizi efficaci ed efficienti per la ricerca, la selezione, la presentazione, l'archiviazione e la riutilizzazione dell'informazione multimediale reperibile in una rete - tipo Internet - di sorgenti informative eterogenee.
Per realizzare questi servizi sono necessari programmi elaborativi che emulino nella macchina sia modalità amichevoli e cooperative di interazione, sia capacità di recupero e selezione dell'informazione personalizzabili e simili a quelle di un esperto umano. Il loro sviluppo dipende largamente dai risultati degli studi nel campo dell'information retrieval e nelle aree dell'intelligenza artificiale che ricercano metodi efficaci e computazionalmente trattabili per l'apprendimento, la rappresentazione e l'inferenza di conoscenze complesse ed eterogenee.
Nello svolgimento delle attività di ricerca nelle aree tecnico-scientifiche indicate, il Gruppo ha maturato competenze e ottenuto risultati rilevanti, testimoniati in particolare dai numerosi articoli pubblicati in sedi internazionali di rilievo.
La ricerca sui metodi di apprendimento automatico è stata svolta prima in collaborazione con centri internazionali all’avanguardia (il Machine Learning and Inference Laboratory della George Mason University e il Department of Computing Science della Università di Aberdeen), poi direttamente nel contesto della European Network of Excellence in Machine Learning istituita in ESPRIT, di cui la Fondazione Ugo Bordoni è nodo associato. Il Gruppo ha contribuito alla definizione di nuovi metodi per l'apprendimento deduttivo ed induttivo e per la loro integrazione. Successivamente è stato definito e studiato un nuovo metodo di classificazione automatica basato sulla teoria dei reticoli concettuali e sono state proposte alcune sue applicazioni, come ad esempio la predizione di caratteristiche e l’estrazione di regole.
La ricerca nel campo della rappresentazione delle conoscenze, svolta collaborando principalmente con l'Istituto di Psicologia del CNR, ha mirato nel corso degli anni alla costruzione di un ambiente knowledge-based atto a modellare sistemi software complessi. Il Gruppo ha inoltre collaborato con il Robotics Institute della Carnegie Mellon University, contribuendo a realizzare il modulo di rappresentazione e ragionamento del sistema HSTS (Hubble Space Telescope System). La collaborazione con l’Istituto di Psicologia è culminata nella definizione e implementazione del sistema ibrido di rappresentazione della conoscenza KRAM (Knowledge Representation for Agency Modeling) che comprende un linguaggio per la descrizione di diversi tipi di conoscenza e svariati meccanismi di ragionamento per la loro elaborazione.
La ricerca sui metodi simbolici di inferenza di conoscenze è stata svolta in larga parte in collaborazione con il Dipartimento di Informatica e Sistemistica dell'Università “La Sapienza” di Roma e con l'Imperial College di Londra, nell'ambito della Basic Research Action di ESPRIT denominata MEDLAR (MEchanizing Deductive Logics for prActical Reasoning). Il Gruppo ha contributo alla definizione di nuovi formalismi e algoritmi per il ragionamento non-monotono, utili nelle molteplici applicazioni in cui si renda necessario attivare funzioni automatiche di aggiornamento e revisione delle conoscenze utilizzate dal sistema.
La collaborazione pluriennale con l'Università di Glasgow, che ha il centro di ricerca in information retrieval più prestigioso in Europa, ha prodotto risultati che hanno consentito di estendere il modello probabilistico di information retrieval proposto da van Rijsbergen e di esplorare le potenzialità dei formalismi logici per calcolare l’implicazione di pertinenza fra richieste d’utente e documenti.
Le attività più recenti sono state caratterizzate da una attenzione sempre maggiore alla finalizzazione applicativa dei risultati delle ricerche. Le competenze acquisite sui metodi dell'apprendimento automatico sono state applicate allo studio sperimentale di sistemi per la classificazione e la navigazione in banche documentali e per l’estrazione di regole d’implicazione da basi di dati. Gli studi sulla rappresentazione e sull'inferenza delle conoscenze hanno costituito la base propedeutica per la definizione di sistemi con agenti software capaci di svolgere in autonomia compiti di ricerca e selezione dell'informazione, a seguito di una delega relativamente generale conferita dall'utente. La conoscenza e lo studio di metodi probabilistici per l'information retrieval hanno permesso la definizione e la realizzazione prototipale di un sistema per la selezione automatica e personalizzata dei messaggi news reperibili su Internet.
Il Gruppo ha in programma di mantenere l'elevata competenza tecnico-scientifica maturata in questi anni nelle aree precedentemente indicate. Nel contempo, intende continuare ad applicare le conoscenze ed i risultati ottenuti nello sviluppo e nella sperimentazione di nuovi sistemi interattivi per l'accesso all’informazione, in particolare quella multimediale presente in rete, con l’obiettivo di ridurre l’ormai assillante problema del sovraccarico informativo e di consentire una più naturale interazione col sistema informatico a tutti i potenziali utenti della rete stessa. Fra le sfide tecnologiche più importanti che bisogna affrontare per raggiungere questi obiettivi ci sono lo sviluppo di metodi per l’elaborazione semantica delle informazioni (segnatamente, richieste d’utente e documenti accessibili), la costruzione di assistenti software intelligenti, e la definizione di tecniche per il trattamento integrato delle informazioni multimediali (testo, voce, immagini). In questo scenario, e a fronte di una offerta di servizi interattivi per il reperimento dell’informazione multimediale già ricca e con prospettive di forte crescita, un aspetto complementare importante è rappresentato dalla creazione di metodi e strumenti - oggi singolarmente carenti - per la valutazione della qualità ed usabilità di questo tipo di servizi. Su tale tematica il Gruppo ha recentemente iniziato a svolgere ricerche. Le competenze che si stanno acquisendo potranno contribuire allo sviluppo, in sinergia con altri Gruppi della Fondazione, di un centro scientifico sulla valutazione della qualità dei servizi multimediali interattivi.
Il Gruppo opera nella sede laurentina della Fondazione e si avvale di una rete di workstation (le macchine principali sono un Server SUN ad elevate prestazioni, 3 SUN SparcStation, 5 Apple PowerMac e un PC) corredate di ambienti di sviluppo LISP, C++ e Java, nonché di software applicativo prototipale realizzato dai ricercatori del Gruppo. Il Gruppo contribuisce in modo rilevante alle attività di sviluppo dei mezzi informatici della Fondazione e partecipa alle relative attività di gestione.
Le pubblicazioni più rappresentative sono:
[1] Amati G., Carlucci Aiello L., Pirri F.
Definability and commonsense reasoning-"Artificial Intelligence", vol. 93, pp. 169-199, 1997
Relazione FUB: 5C05697
[2] Carpineto C., Romano,G.
A lattice conceptual clustering system and its application to browsing retrieval -"Machine Learning", vol. 24, pp. 95-122, 1996
Relazione FUB: 5C07496
[3] Carpineto C., Romano,G.
Information retrieval through hybrid navigation of lattice representation -"International Journal of Human-Computer Studies", vol. 45, n. 5, pp. 553-578, 1996
Relazione FUB: 5C07496
[4] Amati G., Carlucci Aiello L., Gabbay D., Pirri F.
A proof theoretical approach to default reasoning I: tableaux for default logic- "Journal of Logic and Computation", vol. 6 n. 2, pp. 205-231, 1996
Relazione FUB: 5C04196
[5] D'Aloisi D., Castelfranchi,C.
Propositional and terminological knowledge representations -"Journal of Experi-mental and Theoretical Artificial Intelligence", vol. 5, n. 2-3, pp. 149-166, 1993
Relazione FUB: 5C06393
Gruppo 5.2 - Comunicazioni vocali (Voice Communications)
La tradizione culturale in quest’area nasce negli anni '70, allorché il Gruppo ha avviato studi sul tema del riconoscimento del parlatore, cioè sulla possibilità di identificare un individuo attraverso l’analisi di un campione della sua voce (come nel caso di telefonate anonime o di intercettazioni telefoniche). I risultati delle ricerche hanno posto la Fondazione in una posizione di leader per questa disciplina in campo nazionale ed internazionale. Ciò è stato ampiamente riconosciuto dalla Magistratura italiana che ha affidato agli studiosi della Fondazione numerose indagini peritali, spesso di natura assai delicata per l’importanza o la risonanza del caso, come, a esempio, il caso Toni Negri, il caso Gladio, il caso Ustica. In questo ambito il Gruppo ha realizzato un sistema prototipale, denominato IDEM, che ha suscitato vivo interesse negli ambienti accademici e da parte degli organismi di Polizia giudiziaria e che ha condotto alle collaborazioni in atto con il Centro Carabinieri Investigazioni Scientifiche (CCIS) e con il Raggruppamento Unità di Difesa (RUD). L’esperienza maturata nelle applicazioni di identificazione in ambito forense è stata estesa alla verifica del parlatore per l’accesso a servizi commerciali protetti che richiedono l’autenticazione dell’identità.
Sulla tematica del riconoscimento e della comprensione del parlato continuo, la complessità del problema ha suggerito di orientarsi verso il raggiungimento di obiettivi parziali. Un primo studio ha condotto alla realizzazione di un sistema acustico di tipo monolocutore capace di riconoscere un vocabolario di 15 parole (le cifre da 0 a 9 più 5 parole di comando). In una seconda fase è stato realizzato un secondo sistema, denominata DEMO con un vocabolario di 60 parole ed un tasso di riconoscimento dell'84%. Gli studi sui modelli del linguaggio hanno consentito di realizzare un analizzatore morfologico e due analizzatori sintattici. Tali sistemi sono stati addestrati su una fraseologia adatta all’interrogazione di un centralino telefonico e hanno costituito parte di un sistema di riconoscimento del parlato continuo, denominato DEVIL (Device for Elaborating Vocal Italian Language).
Lo studio delle metodologie di valutazione delle interfacce vocali uomo-computer è fondamentale per stabilire criteri di riferimento che consentano una reale comparazione dei sistemi sviluppati nelle varie parti del mondo. Il Gruppo ha svolto studi relativi sia alla misura delle prestazioni (benchmark), sia alla valutazione di accettabilità delle applicazioni (field test), nell’ambito dei progetti europei COST 209 “Man Machine Communications by Means of Speech Signals” e SAM (Speech Assessment Methodology); è inoltre da tempo presente nelle attività normative svolte in ambito ITU-T. In questa tematica di studio un elemento chiave è la disponibilità di basi di dati vocali ad hoc, realizzate nella lingua nella quale il sistema deve essere usato. Il Gruppo ha partecipato alla realizzazione di tutte le basi di dati pubbliche attualmente disponibili (in Europa ed in Italia) ed ha raccolto proprie basi di dati tra le quali alcune orientate alla verifica ed al riconoscimento del parlatore (SIVA).
Le direttrici di attività del Gruppo programmate o previste nei prossimi anni riflettono l’ampliarsi delle applicazioni della tecnologia della voce, in particolare nell’ambito del CTI (Computer Telephone Integration).
Sul tema della verifica del parlatore il Gruppo ha promosso, insieme con British Telecom, il progetto europeo COST 250 “Speaker Recognition in Telephony”, che è iniziato nel 1995 sotto la direzione della Fondazione e che proseguirà per quattro anni. Oltre alla validazione sperimentale delle prestazioni del metodo attualmente disponibile ed al suo sviluppo, è prevista la costruzione di un dimostratore, denominato SVELTE, per la verifica del parlatore su linea telefonica commerciale.
Sul riconoscimento del parlatore in ambito investigativo e giudiziario è in preparazione una proposta di progetto europeo, denominato SIFT (Speaker Identification in Forensic Technology). Le competenze ed esperienze acquisite in questo ambito possono essere ulteriormente finalizzate e contribuire, in sinergia con altri gruppi della Fondazione, allo sviluppo di un centro scientifico nel settore della biometrica per la sicurezza.
Sul riconoscimento del parlato le attività proseguono nell’ambito dei due progetti europei COST 249 “Continuous Speech Recognition Over the Telephone” e EUTRANS (Example-based langUage TRANslation Systems). Quest’ultimo si propone di dimostrare la fattibilità di un sistema per la traduzione del parlato in un dominio limitato, realizzando un prototipo di traduttore automatico voce-voce dall’italiano allo spagnolo e all’inglese.
Il Gruppo partecipa inoltre ad un progetto strategico del CNR relativo all’acquisizione di risorse per lo sviluppo di interfacce vocali in italiano, che dovrebbe essere propedeutico ad un programma nazionale, denominato TAL (Trattamento Automatico della Lingua). Queste attività permetteranno di estendere ulteriormente le competenze e gli strumenti disponibili sui metodi di valutazione delle interfacce vocali. Appare naturale far convergere tale bagaglio conoscitivo e tecnologico nello sviluppo, in collaborazione con altri gruppi della Fondazione, di un centro scientifico sulla valutazione della qualità dei servizi multimediali.
Il Gruppo opera nella sede laurentina della Fondazione e dispone di un laboratorio dotato di strumentazione di misura analogica e numerica (registratori, strumentazione per misure di acustica, filtri di varia natura, apparati per misure telefonometriche). Inoltre, per svolgere attività di collezione di base di dati e per valutare sistemi di dialogo uomo-macchina, sono stati allestiti dei sistemi dotati di interfaccia telefonica in grado di colloquiare automaticamente con la rete TELECOM ed è stato realizzato un laboratorio costituito da una sala di registrazione e da due ambienti acusticamente controllati dotati dei necessari requisiti per prove di qualità e usabilità. Ciascun ricercatore è dotato di una workstation con ingresso-uscita vocale, completa di diffusore acustico e/o cuffia e lettore di CD-ROM. Le workstation sono collegate in rete a due server in grado di svolgere funzioni di base di dati e di calcolo scientifico.
Le pubblicazioni più rappresentative sono:
[1] Falcone, M., Paoloni, A.,
An Acoustical Pattern Classifier Based On a N-depth Projection on Privileged Eigenstructures - Proceedings of ICASSP '91, Toronto (Canada), 14-17 maggio 1991.
[2] Delogu, C., Paoloni, A., Pocci, P.,
New Directions in the Evaluation of Voice Input/Output Systems - IEEE Journal of Selected Areas in Communications, vol. 9, n. 4, May 1991, pp. 566-573.
[3] Martinelli, G., Prina Ricotti, L., Ragazzini, S.,
Distributed arithmetic perceptron - IEE Proceedings Circuits Devices and System, vol. 141, n. 5, ottobre 1994, pp. 382-386.
[4] Delogu, C., Di Carlo, A., Falcone, R.,
Integrating partial syntactical analysis and plan recognition for understanding DB natural language queries - Atti di "Eurospeech '95", Madrid, 18-21 settembre 1995, vol. 2, pp. 1207-1210.
[5] Paoloni A., Ragazzini S., Ravaioli G.,
Predictive neural networks in text-independent speaker verification: an evaluation on the SIVA database - Atti di ICSLP ‘96, Philadelphia, ottobre 1996.
Gruppo 5.3 - Comunicazioni video (Video Communications)
Il Gruppo basa la sua competenza su due filoni culturali sviluppati negli anni passati.
Un primo filone è relativo alla televisione, area in cui la Fondazione ha una tradizione pluriennale avendo svolto studi ed essendo stata di supporto all’Amministrazione PT nelle scelte più importanti che hanno scandito l’evoluzione del servizio televisivo: dal bianco e nero al colore, dalla televisione standard a quella ad alta definizione, dalla televisione analogica e quella numerica.
Un secondo filone deriva dalle attività relative allo sviluppo di servizi di telecomunicazione su reti numeriche in accordo ai paradigmi OSI, alla standardizzazione dei relativi terminali telematici, e all’introduzione di nuovi tipi di servizi di videocomunicazione nel campo della telemedicina e della teledidattica.
Attualmente nel comparto delle comunicazioni video emergono due orientamenti principali. Da un lato si mobilitano consistenti risorse per la diffusione della televisione numerica sia a qualità ordinaria, sia ad alta definizione, sia stereoscopica in una prospettiva a medio termine; dall’altro lato si continua ad investire nella ricerca e sviluppo di migliori tecniche per la videocomunicazione interpersonale e il trasferimento di immagini e sequenze video, considerati “servizi” chiave per il pieno sviluppo delle applicazioni multimediali.
L’attività del Gruppo è conseguentemente orientata allo studio di metodi di sostegno alla sviluppo delle tecnologie citate, nonché alla finalizzazione dei risultati scientifici ottenuti in progetti applicativi di tipo innovativo, seguendo due principali direttrici tematiche.
La prima direttrice di attività è relativa alla valutazione della qualità video, argomento di perenne attualità e sempre al centro dell’interesse dei gestori di rete e dei fornitori di servizi. Le competenze della Fondazione in materia provengono dalle pluriennali collaborazioni svolte in ambito ITU-R relativamente alle prove soggettive di qualità televisiva, dalle esperienze nel campo della certificazione delle immagini radiografiche, dalle recenti valutazioni di qualità di sistemi innovativi a basso bit-rate condotte nei laboratori della Fondazione per conto di ISO-MPEG e dai primi studi volti ad estendere la valutazione di qualità a sequenze stereoscopiche. Queste competenze ed esperienze collocano oggi la Fondazione tra i centri di eccellenza per la valutazione della qualità video. La loro finalizzazione naturale è nello sviluppo, in sinergia con altri gruppi della Fondazione, di un centro scientifico sulla valutazione della qualità dei servizi video diffusivi, multimediali interattivi e di videocomunicazione interpersonale.
La frontiera della ricerca, per quanto concerne la valutazione, è costituita dalle tecniche oggettive di certificazione di qualità basate su metodi analitici, senza il concorso di osservatori. L’interesse per queste tecniche non deriva da una previsione di maggiore efficacia rispetto alle tecniche soggettive, bensì dalla possibilità che prospettano di certificazione a basso costo e in tempo reale, per applicazioni nelle quali è richiesta una qualità certificata delle codifiche o per il controllo in rete della qualità dei servizi. Su questa tematica, il cui sviluppo richiede lo studio e la modellazione del “sistema visivo umano”, confluiranno gran parte delle attività di ricerca teorica del gruppo e verranno finalizzate le numerose collaborazioni che da anni il gruppo intrattiene con l’area universitaria romana.
La seconda direttrice di attività è relativa alla elaborazione dei segnali video. Con la definizione dello standard MPEG2, avvenuta alla fine del ‘94, è stata posta una pietra miliare per lo sviluppo della televisione numerica; la ricerca nel campo della codifica si è andata quindi orientando verso applicazioni multimediali e/o applicazioni a bit-rate particolarmente bassi, rispettivamente con i progetti di standard quali MPEG4 ed MPEG7, e “raccomandazioni” quali H.263. Nel campo della alte qualità rimangono sempre attuali le attività volte all’introduzione dell’informazione stereoscopica nel segnale video ed acquistano sempre più rilevanza i temi della sicurezza e della protezione da errori.
Conseguentemente, le attività sull’elaborazione dei segnali video riguarderanno ancora problemi di codifica, seppur con minore impegno rispetto al passato. Le applicazioni di riferimento saranno, per le alte qualità video, la codifica e l’elaborazione del segnale stereoscopico, essenzialmente nell’ambito del progetto COST 230 ”Stereoscopic Television” di cui si detiene la presidenza. Per le basse qualità video, le applicazioni di riferimento saranno progetti (europei) per lo sviluppo di servizi multimediali, con preferenza per quelli rivolti a particolari fasce di utenza (telemedicina, teledidattica, lavoro cooperativo, ecc.). Questi servizi sono infatti, più di altri, legati alla definizione e sperimentazione di nuovi strumenti tecnologici quali le codifiche video innovative.
Potranno infine acquistare importanza crescente studi di tecniche per il recupero di errori nell’informazione video e studi sulle tecniche di riconoscimento automatico di “oggetti” video, in particolare di volti umani; quest’ultima attività, già avviata in collaborazione con l’università di Roma “La Sapienza”, potrà contribuire allo sviluppo di un centro scientifico nel settore della biometrica per la sicurezza, in cui convergano varie competenze della Fondazione.
Il Gruppo opera sia presso la sede EUR dell’ISPT sia presso la sede Laurentina della Fondazione. Per la natura stessa dell’informazione video, l’attività di ricerca e di sperimentazione si avvale ampiamente del supporto di laboratori: lo storico e vasto laboratorio “Televisione” della sede EUR ed i due più piccoli e di recente costituzione della sede Laurentina, dedicati alle “Codifiche video” e alla “Qualità audio-video”. Tutti i laboratori e le stanze assegnate al Gruppo sono dotati di computer avanzati per l’elaborazione dei segnali e apparati per la loro visualizzazione; laboratori e stanze sono inoltre connessi in rete per la distribuzione delle sorgenti video e dei carichi di elaborazione.
Le pubblicazioni più rappresentative sono:
[1] Colonnese S., Neri A., Russo G., Talone P.
Still Background/Moving Objects Identification: a Spatial Temporal Segmentation Tool for MPEG4
Relazione FUB: 4E04395; ISO-IEC/SC29/VG11 "MPEG4"
[2] Neri A., Russo G., Talone P.
Inter-block Filtering and Downsampling in DCT Domain - Signal Processing: Image Communication, ed. Elsevier, vol.6, Agosto 1994, pp.303-317.
Relazione FUB 4C02994
[3] Capodiferro L., D’Agostino G.
High Quality HDTV/TV Hierarchical Coding via DCT - Atti di “1994 Picture Coding Symposium”, Sacramento, settembre 1994, Sezione 5 - 06 pp.127 - 129
[4] Baroncini V.
Single stimulus with multiple repetition subjective quality assessment method - Atti di “Workshop on quality assessment in speech audio and image communication” Darmstad, marzo 1996
[5] Chiari A.
Depth Information - aided image coding - Atti di “IEE Colloquium on Stereoscopic Television”, Londra, ottobre 1992, pp.10/1 - 10/8
[6] Marcone G., Orlandi G., Zincolini E.
An Efficient Neural Decoder for Convolutional Codes - European Transactions on Telecommunications, Vol. 6, N° 4, luglio - agosto 1995 pp. 439 - 445
Settore 6 - EVOLUZIONE DELLE TELECOMUNICAZIONI
(Telecommunications evolution)
Capo Settore : CARNEVALE Mario
Staff di Settore: MERLO Ugo
Segreteria: SALIMBENI Rosanna
Gruppo 6/1 - Scenari
(Scenarios)
Capo Gruppo: MENAGLIA Franco
Ricercatori Tecnici
01 CASTELLI Francesco
02 NICOLO' Enrico
03 PALOMBINI Isabella Maria
04 PANNONE Andrea
05 SAPIO Bartolomeo
06 da assumere
Gruppo 6/2 - Fattori Umani
(Human Factors)
Capo Gruppo: ORLANDO Antonino
Ricercatori Tecnici
01 CORNACCHIA Michele 01 LUCARELLI Renato
02 MATARAZZO Giacinto 02 da assumere
03 PAPA Filomena
04 SPEDALETTI Sandra
05 da assumere
Gruppo 6/3 - Documentazione
(Documentation)
Capo Gruppo:
Ricercatori Tecnici
01 ROSA Claudia 01 CAUZILLO Stefano
02 da assumere 02 CURZI Cristina
03 GUERRINI Massimiliano
04 da assumere
Gruppo 6/1 - Scenari (Scenarios)
Il Gruppo è stato costituito nella seconda metà degli anni '80 per affrontare con un approccio metodologico e scientifico alcune tematiche di scenario ritenute di maggiore interesse sia per il Regolatore sia per i Gestori di reti e servizi di telecomunicazione. Si voleva individuare un insieme di strumenti di analisi in grado di cogliere, sotto il profilo metodologico, la rilevanza che le forti interazioni tra le dimensioni tecnologiche, economiche, regolatorie e di mercato hanno sulla formazione delle decisioni strategiche.
In questa prospettiva, sono state elaborate metodologie e strumenti di formalizzazione, sia per la costruzione di modelli teorici interpretativi, sia per la valutazione quantitativa delle linee di azione dei diversi attori in gioco. La ricerca, pur in questa ottica metodologica, ha dato un contributo analitico anche all'esame degli obiettivi, dei problemi e degli strumenti dell'intervento pubblico di regolamentazione e di politica industriale del settore.
Pertanto, la costituzione di questo Gruppo di lavoro interdisciplinare ha consentito di maturare un'ampia consapevolezza dei più significativi temi del dibattito sull'evoluzione delle telecomunicazioni, ricevendo su alcuni risultati ottenuti apprezzamenti a livello internazionale e nazionale in diversi ambienti scientifici, quali, ad esempio, quelli dell'analisi economica, della regolamentazione del forecasting, della pianificazione strategica e del project management. Il Gruppo ha costruito nel corso della sua attività un rapporto di collaborazione con alcuni dipartimenti universitari, tra cui quello di informatica e Sistemistica e quello di Scienze Economiche della Sapienza di Roma.
Il Gruppo è stato inoltre impegnato nello sviluppo e nella sperimentazione di metodologie di scenario e di analisi strategica dei mercati dei nuovi servizi di telecomunicazione. E' il caso, per esempio, dell'analisi di scenari relativi ai servizi videotex (in collaborazione con SIP), ai servizi telematici bancari (in collaborazione con Banca d'Italia), ai servizi satellitari (in collaborazione e su commissione dell'ESA in merito ad alcune problematiche strategiche di attuazione del progetto Archimede), alla realizzazione della B-ISDN. Con lo stesso approccio vengono oggi affrontate le tematiche che sottendono le strategie di evoluzione delle comunicazioni multimediali, di internet e dei servizi radiomobili.
Il Gruppo opera presso la sede Laurentina della Fondazione e si avvale di normali strumenti di calcolo.
Le pubblicazioni più rappresentative sono:
[1] Nicolò E.
Metaproject Analysis: multiagent virtual project networks for strategic decisions in preplanning - International Journal of Project Management, Butterworth-Heinemann Ltd., Vol. 11, n. 4, pagg. 215-226, novembre 1993.
[2] Pannone A.
Efficienza, Costi, e Tecnologia delle imprese di gestione delle reti di telecomunicazioni , L'Industria n. 4, pagg. 609-640, ottobre/dicembre 1994.
[3] Castelli F., Nastasi A. , Pannone A., Sapio B.
Il Mercato dei Servizi di Remote Banking, Bancaria, n. 9, pagg. 76-83, settembre 1995 e n. 10, pagg. 68-78, ottobre 1995.
[4] Sapio B.
SEARCH (Scenario Evaluation and Analysis trough Repeat Cross impact Handling): a new method for scenario analysis with an application to the Videote l service in Italy, International Journal of Forecasting, n. 11, pagg. 113-131, novembre 1995
[5] Castelli F., Leporelli C.
Segmented Regulation in Global Oligopolies: Industry Configuration and Welfare Effects, Information Economics and Policy, Vol 7, n. 4, pagg. 303-330, dicembre 1995
[6] Castelli F.
Il Servizio Universale nelle Telecomunicazioni: valutazione dei costi e finanziamento, Franco Angeli Ed.
Gruppo 6/2 - Fattori Umani (Human Factors)
Il Gruppo è stato costituito verso la metà degli anni ‘80 per effettuare ricerche, teoriche e sperimentali, riguardanti l'analisi dei Fattori Umani, atte a contribuire ad individuare i requisiti fondamentali per una larga diffusione di servizi multimediali sempre più versatili e sofisticati tenendo conto delle reali necessità dell’utenza.
L'estrema flessibilità delle tecniche delle telecomunicazioni e dell'informatica ed il conseguente grande numero di opzioni possibili non permette sempre una chiara identificazione del servizio da offrire. Per affrontare questa circostanza, il Gruppo ha proposto la metodologia dell' “emulazione” che permette di ridurre i tempi e i costi legati all'implementazione dei servizi in tutte le loro fasi, in particolare in quella dell'ideazione. L'emulazione è basata su prove di laboratorio nelle quali, utilizzando apparati di tipo flessibile, si rappresentano le principali funzioni del servizio, valutandone le prestazioni con l'impiego di un campione rappresentativo dei potenziali utenti.
Le attività di ricerca sui Fattori Umani hanno consentito di individuare le linee guida per la realizzazione di alcuni importanti servizi quali: l’automazione d’ufficio presso l’ISPT e presso la SIP, la videoconferenza via satellite (progetto OLYMPUS) e la videotelefonia (progetto RACE ISSUE). I risultati di questi esperimenti sono stati oggetto di pubblicazioni e di presentazioni a congressi e a gruppi di lavoro. La metodologia impiegata, ed in particolare quella d'emulazione, è stata accolta molto favorevolmente in Italia da organizzazioni quali ISPT, CSELT, Telespazio, Italcable e TELECOM Italia. La stessa metodologia è stata accolta con interesse in diversi ambienti europei (COST, RACE,ACTS, ETSI, CCITT), con i quali si è collaborato per la definizione di standard in diversi campi (videoconferenza, videotelefono, UPT, ecc.) e per la definizione di servizi di TLC integrati con sistemi informatici.
L’evoluzione delle telecomunicazioni indica che l'utente avrà, nel futuro, la possibilità di scambiare informazioni, di qualsiasi tipo, con un numero estremamente grande di stazioni di lavoro multimediali, indipendentemente dalla distanza. L'analisi dei Fattori Umani, consente di creare un ponte tra le necessità dell'utenza e le esigenze dei gestori e delle manifatturiere.
In questo quadro, l’attività del Gruppo riguarderà l'analisi dell’usabilità e dell’accettabilità di sistemi di “Teleattività”, con ricerche teoriche e sperimentali, per una valutazione di particolari applicazioni: teledidattica e telelavoro. Le ricerche saranno mirate allo studio, in emulazione, dell'organizzazione di un'attività collaborativa a distanza e delle influenze sul modo di lavorare e sugli ambienti lavorativi.
Il Gruppo opera presso la sede Laurentina della Fondazione e si avvale di un laboratorio appositamente attrezzato dall’ISPT. In tale laboratorio, per emulare l’esecuzione di compiti a distanza, vengono impiegati sistemi per la “videoconferenza da tavolo” (desktop videoconferencing) costituiti da:
— apparati analogici (del tipo TV via cavo) che utilizzano monitor, telecamere, microfoni, diffusori audio, lettore di CD che consentono la presentazione e la diffusione multimediale di informazioni;
— apparati del tipo Sun SparcStation 20, connessi con reti “Ethernet” a 10 e 100 Mbit/s, utilizzati per realizzare videocomunicazioni multipunto, con condivisione di applicazioni informatiche.
Le pubblicazioni più rappresentative sono:
[1] Orlando A.
Basic Methodology of COST 212 Project - COST 212 Final Report - pagg. 11-36.
Relazione FUB: 6E04391
[2] Cornacchia, M., Papa, P., Leppanen, J., Luukkainen, S.,
Video Switching Control in Multipoint Videotelephony, Proceedings of 14th International Symposium on Human Factors in Telecommunications, Darmstadt, 11-14 May, 1993, pp. 187-200. Relazione FUB: 6D02393.
[3] Nikov A., Matarazzo G., Orlando A.
A Methodology for Human Factors Analysis in Office Automation Systems - Technological Forecasting and Social Change 44, n. 2, settembre 1993
Relazione FUB: 6C02093
[4] Abbolito A., Papa F., Spedaletti S.
Human factors in tele-education: an application in the medical field - Journal of Medical Education Technologies, V. E, n. 6, Spring 1995
Relazione FUB: 6C03595
[5] Leone L., Matarazzo G. .
Use and effectiveness in an office automation system (OAS): a case study. - Accettato per la pubblicazione su “Behaviour & Information Technology”
Rel. FUB 6T02496.
[6] Papa F., Spedaletti S.
New Broadband Technologies in Tele-education: A Human Factors Laboratory Esperiment. Presentato a “HFT ‘97, 16th Symposium on Human Factors in Telecommunications, Oslo, May 12-16, 1997.
Gruppo 6.3 - Documentazione (Documentation)
Il Gruppo si è occupato, nel corso degli anni, di tutti i problemi via via emergenti nel campo della documentazione: da quelli legati alla classificazione della documentazione scientifica, a quelli dell' automazione e dell'introduzione dei computer, all'accesso alle banche di dati, alle reti.
Tenendo conto delle competenze acquisite e delle necessità della Fondazione si ritiene opportuno orientare il Gruppo verso tre tipi di attività.
Una prima attività è legata al servizio di reperimento di documentazione, svolto per il personale di ricerca della Fondazione (acquisizione di materiale bibliografico non facilmente rinvenibile, abbonamenti a periodici scientifici ad associazioni, acquisto di libri, diffusione di informazioni su manifestazioni, etc.).
Una seconda attività di servizio, rivelatasi estremamente importante ed impegnativa, è quella legata alla diffusione ed alla archiviazione dei programmi di attività della Fondazione e della sua produzione scientifica. Per assicurare un efficiente servizio si ottimizzerà l’utilizzazione delle risorse interne di strumentazione e di personale e si utilizzeranno opportuni servizi esterni.
Una terza attività è legata alla cultura documentalistica e, in questo ambito, si proseguirà a partecipare ad Associazioni, Gruppi di lavoro, Enti di normativa Nazionali ed Internazionali, per conoscere e per dare un fattivo contributo alla creazione delle più aggiornate tendenze nel campo della Scienza della Documentazione.
Le pubblicazioni più rappresentative sono:
[1] Rosa Pucci C.
Dalle biblioteche tradizionali ad una rete di biblioteche automatizzate ed interconnesse - Poste e Telecomunicazioni n. 7/8 1983. Relazione FUB: 6C0583
[2] Rosa Pucci C.
La normativa terminologica in Italia nei settori dell’informatica e delle telecomunicazioni - Terminologie et traduction, Commission des Communautés Européennes n. 1 1990 - pagg. 113-119. Relazione FUB: 6C0490
[3] Rosa Pucci C.
Le regole per i vocabolari scientifici - La rivista delle lingue n. 8 1993. Relazione FUB: 6C04193
[4] Rosa Pucci C.
La terminologia tecnico-scientifica: attualità e prospettive. La normalizzazione - Università e Ricerca MURST n. 32 1996 - Pagg. 79 - 92. Relazione FUB: 6C00196
[5] Rosa Pucci C.
La traduzione delle norme terminologiche - Il traduttore nuovo vol.XLVI n.1 1995 pagg. 31-44. Relazione FUB: 6C01596
[6] Rosa Pucci C.
Evoluzione dei servizi di documentazione all’interno di un ente di ricerca - 5° Convegno Nazionale AIDA “Documentazione professione trasversale - Fermo ottobre 1996. Relazione FUB: 6D06396
|
|
158)
Linee Programmatiche delle attività di ricerca della Fondazione Ugo Bordoni per il 1998
Fedi, F., Relazione FUB: 0A01097
|
|
159)
Imparare ad insegnare
Fedi, F., TELEMA n. 12, 1998
Per rispondere alla domanda se sia bene o meno ricorrere alla telematica e alla multimedialità nel campo dell'apprendimento e dell'insegnamento, è bene chiedersi, prima, che tipo di società del lavoro troveranno i nostri giovani domani. Sono molti quelli che ritengono, e io sono tra questi, che la futura società del lavoro abbatterà in grande misura il concetto tailoristico della necessità dell'unità di luogo e di tempo della prima rivoluzione industriale. Sarà quindi possibile, in molti casi, grazie alla telematica, far coincidere il luogo di vita con il luogo di lavoro.
Vivremo in una società in cui sarà sempre meno diffuso il posto di lavoro "fisso", dove si creeranno innumerevoli possibilità solo per coloro che saranno in grado di padroneggiare i mezzi telematici e sapranno sfruttare appieno l'offerta di informazione multimediale reperibile in "rete".
Una società dove la "carta" si userà sempre meno. Già oggi i documenti degli enti internazionali di normativa o di ricerca vengono inviati esclusivamente via posta elettronica. E, nel futuro, è facile prevedere che si parteciperà alle riunioni non più con ingombranti cartelle piene di documenti, ma con un computer portatile nel quale, o tramite il quale, si potrà accederea tutte le informazioni necessarie.
Sono questi solo alcuni degli esempi che mostrano quanto sia necessario mettere i giovani in grado di usare il computer e di navigare in rete con la stessa facilità con cui oggi si insegna loro a usare la penna per scrivere. Chi non sarà in grado di farlo sarà il nuovo analfabeta del futuro per il quale molte, forse tutte, le porte del lavoro rimarranno chiuse.
E occorre fare tutto ciò con coraggio specie in una società, come la nostra, in cui prevale una cultura non scientifica. In un paese in cui molto spesso si sente dire con una punta di civetteria «io a scuola la matematica proprio non la capivo», ma dove nessuno si sognerebbe mai di confessare che scriveva male in italiano.
Fortunatamente ci sono degli esempi che mostrano come la separazione delle "due culture" sia un retaggio del passato.
Ricordo un libretto scritto da Umberto Eco su come usare il "word processor"... quando ancora molti tecnici stentavano a usare il nuovo strumento. Informatica a complemento della cultura tradizionale, nell'apprendimento, dunque. Per tutti.
Ma quella futura sarà anche una società in cui si diventerà rapidamente obsoleti, sarà necessario un aggiornamento continuo e le possibilità offerte dalla telematica nel campo dell'insegnamento a distanza risulteranno preziose.
E qui l'ostacolo siamo noi docenti. Così come l'ipertesto multimediale reperibile in rete è diverso, sotto molti aspetti più ricco e più variegato dell'articolo scritto dei libri, così le nostre lezioni non potranno più essere le stesse.
Dovremo, con umiltà, imparare a insegnare.
|
|
160)
Anche la rete elettrica scende in campo
Fedi, F., TELEMA n. 13, 1998 pp 98-105
Per portare in tutte le case gli innumerevoli servizi offerti dalla Information technology si è pensato al doppino di rame, alla fibra ottica, alle onde radio o al satellite. Oggi c'è un altro concorrente: la rete elettrica. Ma ogni forma di connessione presenta vantaggi e svantaggi. E gli operatori del settore a volte puntano sul cavallo sbagliato, e compiono scelte contraddittorie.
E' recentissimo l'annuncio, dato in una conferenza internazionale organizzata a Londra alla fine dello scorso mese di marzo1, di una delle ultime novità nel campo delle tecnologie utilizzabili per fornire al domicilio dell'utente telefono, Internet e servizi a larga banda. La novità consiste nella possibilità di utilizzare i conduttori di rame che forniscono l'energia elettrica nelle nostre case per trasmettere informazioni numeriche, cioè di utilizzare la rete elettrica come "rete di accesso" all'utente2.
In realtà questa tecnica, denominata nel passato trasmissione a onde convogliate, è nota da tempo ed è stata utilizzata sia per la realizzazione di sistemi di trasmissione per uso riservato al proprietario della rete di energia (in Italia, Enel e Ferrovie dello Stato) sia per realizzare piccoli sistemi intercomunicanti all'interno di appartamenti ed edifici. Gli Enti di normativa hanno infatti già provveduto a regolamentare i sistemi di trasmissione numerica a bassa velocità (10 kbit/s) per l'uso all'interno degli edifici e definito le specifiche per i circuiti di interconnessione denominati "power line modem". La novità è costituita dalla possibilità estremamente promettente di ottenere velocità di cifra medio-alte (da 100 kbit/s a 1 Mbit/s) sufficienti per telefonia e accesso a Internet.
Il vantaggio maggiore è dato dall'uso di una rete capillare già posata che potrebbe attirare l'attenzione di quanti fossero intenzionati a divenire "gestori" di telefonia fissa, senza dover affrontare i costi proibitivi della posa di una rete completamente nuova. L'accoppiamento tra rete di telecomunicazione e rete elettrica avviene a livello di sottostazione di conversione da alta a bassa tensione (dove avviene la conversione alla tensione di 220 Volt in corrente alternata distribuita agli appartamenti), mentre le due reti vengono separate nuovamente all'ingresso dell'appartamento, in prossimità del misuratore di consumo, con l'ultimo tratto di percorso realizzato in cavo coassiale. Come per i sistemi ibridi fibra ottica-cavo coassiale la connessione alla rete è continua (i segnali sono sempre disponibili, non ci sono fasi di connessione alla rete) e la tariffazione deve avvenire o in modo forfettario (flat rate) oppure contando i bit effettivamente trasmessi.
Il sistema si può integrare, inoltre, con la gestione "intelligente" degli apparecchi elettrodomestici connessi alla rete (si può accendere, ad esempio, il riscaldamento della casa di campagna al momento della partenza dalla città) e con sistemi di telelettura del misuratore di consumo elettrico, rendendo obsoleta la lettura a domicilio oggi in uso. Con tale tecnica sono in corso esperimenti nel Regno Unito e in Germania miranti a verificare la possibilità di trasferire sistemi già noti, ad esempio l'Asymmetric digital subscriber line (Adsl), su rete elettrica e di utilizzare bande di frequenza più ampie, sino a 20 MHz, per potere ottenere prestazioni paragonabili a quelle dei sistemi su doppino telefonico in rame o su fibra.
A sfavore di tale tecnica giocano però due elementi: le regolamentazioni restrittive già emesse dagli Enti di normativa, che per consentire la sua diffusione andrebbero modificate, e la mancanza di dati concreti relativi alla compatibilità elettromagnetica, ovverosia alle interferenze che tali sistemi potrebbero generare sugli apparati già esistenti e connessi alla rete elettrica.
1.
Ma qual è la velocità di cifra, cioè il numero di bit che occorre far giungere ogni secondo all'utente per fornire i vari "servizi" che gli consentano l'accesso alla cosiddetta "società dell'informazione"? Ci si riferisce ovviamente al mondo "numerico" che sta per soppiantare completamente il vecchio mondo "analogico". Nel mondo analogico i segnali che arrivano all'apparecchio televisivo, a quello radio o al telefono sono tra di loro diversissimi nel formato ma hanno in comune il meccanismo di generazione: il messaggio da trasmettere, la voce, la musica o l'immagine in movimento, è convertito da un apposito trasduttore (microfono o telecamera) in una grandezza elettrica (tensione o corrente) che con il suo andamento temporale riproduce il messaggio. Molto diversa è l'occupazione di banda, ossia la rapidità con la quale il segnale può variare: 4 kHz per il telefono, 10 kHz per la radio e 6 MHz per la televisione. Completamente diverso è anche il meccanismo di trasmissione di questi segnali: direttamente sul filo per il telefono (trasmissione in banda base), attraverso l'etere per radio e televisione modulando portanti di qualche centinaio di kHz nel primo caso e qualche centinaio di MHz nel secondo.
La rivoluzione numerica consiste nel trasmettere invece di una grandezza analogica, più o meno rapidamente variabile, le sue misure prese a intervalli regolari e variabili a seconda del tipo di segnale. Per assicurare una qualità soddisfacente il segnale telefonico è "campionato" 8000 volte in un secondo e per ogni campione deve essere generato un numero compreso tra -127 e +128, numeri rappresentabili con una sequenza di 8 cifre binarie (ciascuna delle quali può assumere i soli valori 0 o 1): questo dà origine a una sequenza di 64.000 cifre binarie al secondo o, nel gergo delle telecomunicazioni, a una velocità di cifra di 64 kbit/s. Gli stessi principi si applicano per rendere numerici il segnale musicale e quello televisivo: qui i conti si fanno in effetti un po' più complicati anche se è subito intuibile che i bit da trasmettere per ogni secondo saranno molti di più. Per trasmettere musica con la qualità di un cd la frequenza di campionamento deve essere 44,1 kHz. Per i campioni ottenuti la fedeltà di trasmissione deve essere maggiore di quella del campionamento del segnale telefonico: per ognuno vengono usate 16 cifre binarie (16 bit) e, essendo il segnale stereo, il tutto si deve moltiplicare ancora per due. Ne segue una velocità di cifra di poco inferiore a 1,5 Mbit/s. Con procedimenti analoghi si trova la velocità di cifra per il segnale televisivo. Ogni "quadro" è formato da circa 400.000 "elementi di immagine" (picture elements) la cui luminosità, brillantezza e colore vengono descritti con 16 bit ciascuno: poiché vi sono 25 quadri ogni secondo si raggiungono velocità di cifra che superano il centinaio di Mbit/s.
Fortunatamente, la rivoluzione numerica, oltre ad avere unificato le modalità di trasmissione di voce, suoni, testi e immagini, dando luogo al mondo multimediale, consente anche di ridurre la velocità di cifra senza apprezzabile perdita di qualità mediante le cosiddette tecniche di "compressione"3. Tali tecniche si basano sull'eliminazione della "ridondanza" nella trasmissione dell'informazione. Ad esempio, nella trasmissione di due "quadri" della televisione successivi basta trasmettere le sole "variazioni" dei "picture elements" (pixel) del secondo quadro rispetto alla situazione del quadro precedente. Le tecniche di compressione sono state impiegate per dati, suoni e immagini. Chiunque abbia familiarità con un personal computer sa che è possibile comprimere un "file" per risparmiare spazio sul disco: il rapporto di compressione che si riesce a ottenere può raggiungere anche un valore 10 a seconda del tipo di dati contenuti, mentre fattori 2 di compressione costituiscono la media. Poiché alla fine del processo si vuole riottenere esattamente lo stesso file iniziale per non perdere dati, tale compressione si chiama "senza perdite".
Accanto a questa sono stati sviluppati metodi, destinati ai segnali sonori e alle immagini, in cui viene tollerata una piccola degradazione del segnale, non apprezzabile dall'utente, in cambio di un fattore di compressione estremamente elevato: per le immagini si può raggiungere anche un fattore 100. La ricerca in questo campo è ancora molto attiva e ottiene risultati di sempre maggior rilievo, il che fa presupporre che la strada da percorrere possa essere ancora molta. Nel sistema di telefonia mobile Gsm, ad esempio, al posto dei 64 kbit/s, calcolati in precedenza per un canale telefonico, si usano 13 kbit/s, il che permette di servire molti più utenti all'interno della stessa cella.
Ma i risultati più importanti sono stati ottenuti nel campo delle immagini sia fisse, con il sistema Jpeg (utilizzato per il trasferimento di immagini tra elaboratori e per la loro registrazione su disco), sia in movimento, con il sistema Mpeg nelle versioni Mpeg-1, Mpeg-2 e a brevissima scadenza Mpeg-4. Con tali metodi di compressione è stato possibile confinare all'interno di un disco dvd (digital versatile disc), delle dimensioni di un cd tradizionale e dotato di una capacità di circa 5 Gbyte (5 miliardi di byte corrispondenti a 40 miliardi di bit) un intero film della durata di due ore. Il sistema Mpeg-2 è in grado di fornire la qualità video di un registratore vhs con segnale audio stereo ad alta fedeltà mantenendo la velocità di cifra nell'intorno di 1,5 Mbit/s: ricordando quanto detto in precedenza per i bit al secondo necessari per riprodurre un cd musicale senza usare tecniche di compressione, si può capire quale sia la portata di tali tecniche. Se si vuole usare il sistema Mpeg-2 per il solo audio ad alta fedeltà (noto come sistema Mp3), si può ottenere una qualità non distinguibile dall'originale con soli 128 kbit/s (una connessione Isdn): o, se si preferisce, su un unico cd se ne possono comprimere una dozzina (tutto Mozart in pochi centimetri di libreria). Già oggi sono comparsi su Internet siti che distribuiscono musica nel nuovo formato, con complessi rock che fanno conoscere la loro musica aggirando tutte le fasi normali di produzione e distribuzione.
2.
E siamo arrivati a Internet, cioè alla vera rivoluzione dei servizi che l'utente può richiedere e di cui occorre tenere conto per valutare la velocità di cifra necessaria nella rete di accesso al suo domicilio. Che sia una vera rivoluzione è dimostrato da alcune semplici constatazioni. Accanto al telefono e al televisore sempre più numerose sono le abitazioni in cui è presente un personal computer e le richieste di collegarsi alla "rete delle reti". Già due anni fa negli Stati Uniti il numero dei pc venduti ha superato quello degli apparecchi televisivi. Stando a Nicholas Negroponte, se il tasso di richiesta di nuovi allacciamenti a Internet si mantenesse costante, nel 2003 il numero totale degli utenti di Internet sarebbe superiore alla popolazione della Terra. Recenti indagini di mercato mostrano che una delle ragioni per il declino dell'attenzione verso i tradizionali programmi televisivi è il crescente numero di utenti Internet.
Rivoluzione dunque. Ed evoluzione rapida nelle possibilità offerte. I servizi forniti in quella che è considerata la prima fase di Internet - la seconda metà degli anni '80 - erano sostanzialmente la posta elettronica (e-mail), il trasferimento di archivi (file transfer) e l'uso remoto di altri calcolatori. In molti paesi questi servizi si sono rapidamente diffusi. Basti pensare che in Svezia il Post Office ha assegnato a tutti i cittadini al di sopra dei sei anni un proprio indirizzo di posta elettronica. Nella seconda metà degli anni '90, con lo sviluppo del world wide web, sono nati nuovi servizi. E' stato possibile usare la grafica, ottenere interfacce più "amichevoli" come il "web browser", sono stati inseriti cataloghi on line e si è dato inizio al commercio elettronico, sono stati introdotti i servizi multimediali: voce, video, videoconferenza tramite Internet. Allo stato attuale i servizi offerti da Internet risultano tuttavia pienamente fruibili solo da aziende o enti che possono permettersi collegamenti a velocità adeguata. L'utenza domestica che, tramite modem e linea telefonica, dispone oggi di un collegamento a circa 34 kbit/s o, al massimo, utilizzando la Isdn, a 128 kbit/s, sarà praticamente tagliata fuori dai servizi più innovativi fino a quando non potrà disporre di velocità intorno a 1 Mbit/s.
Per fissare meglio le idee immaginiamo di effettuare una navigazione con un browser web e di chiederci quale capacità trasmissiva richiedano le varie applicazioni. Un testo scritto non è un problema: il più scadente degli accessi "scarica" molti più caratteri al secondo di quanti chiunque riesca a leggerne. Uno scarno testo scritto, tuttavia, non attrae più. Una pagina variopinta con scritte colorate, disegni animati e qualche piccola immagine può occupare da 300 kbit fino a 1-2 Mbit, e richiede, quindi, da venti secondi a qualche minuto disponendo di un semplice modem. 1 o 2 Mbit sono richiesti anche per una fotografia a pieno schermo o per una pagina grafica ricca di dettagli; se si intende quindi "sfogliare" le piante stradali nelle pagine gialle o un album di foto, il tempo di "downloading" diventa sensibile e fastidioso. Se poi si volesse anche ascoltare un commento, allora un minuto di una voce di discreta qualità richiederebbe il trasferimento di 300-400 kbit, che diventerebbero 3-8 Mbit pretendendo la qualità di un cd.
La "fame di banda", comunque, non ha limiti: dopo i testi, la grafica, le foto e l'audio viene il vero problema dell'informazione multimediale: il video. Con le tecnologie più recenti un minuto di video non troppo movimentato (12 ÷ 16 quadri al secondo anziché 50 come nella televisione normale) rappresentato in un piccolo riquadro (1/16 di schermo televisivo) richiede poco più di 20 kbit/s: il video può essere ricevuto in tempo reale con un modem moderno, provider Internet e pc dell'utente permettendo. La qualità non è molto soddisfacente, ma il primo piano di una persona è ben riconoscibile e se si trasmette una scena complessa la fantasia dell'utente potrà sopperire alla mancanza di informazione.
Le difficoltà diventano serie, insuperabili per l'attuale utente domestico, se si desidera ricevere invece un video di qualità. Un'ora di televisione numerica, ad esempio, considerato che sono necessari circa 5 Mbit/s, richiederebbe di scaricare circa 18 Gbit. Con un modem a 56,7 kbit/s impiegheremmo 3-4 giorni, con un collegamento Isdn quasi 2 giorni, mentre con una linea a 2 Mbit/s circa 2,5 ore. Per consentire la ricezione di video e lo svolgimento di varie "teleattività" (teleconferenza, telelavoro, telemedicina ecc) con qualità di comunicazione elevata, sarà necessario disporre di velocità di decine di Mbit/s.
Una prima stima del flusso informativo necessario tra l'utente residenziale e il nodo d'accesso cui lo stesso è collegato può essere fatta considerando che i requisiti dei servizi tradizionali di voce e fax saranno trascurabili in confronto alla larghezza di banda richiesta per la fornitura a domicilio di canali televisivi in formato Mpeg e di connessione Internet a servizi on line (banche, uffici, centri ricreativi, "electronic shopping" ecc). Quattro canali a scelta in un pacchetto di qualche decina di canali dovrebbero soddisfare le esigenze anche delle famiglie più numerose, per cui la banda richiesta dovrebbe mantenersi al di sotto dei 10 Mbit/s, con una forte asimmetria direzionale, nel senso che dall'utente verso il nodo di accesso il flusso informativo potrà essere molto più basso.
Tutto questo chiaramente nella situazione attuale, prescindendo completamente dalla possibile esplosione di nuovi servizi, derivanti da iniziative del tipo Internet 2. Tale progetto, presentato molto recentemente e sostenuto dalla Presidenza degli Stati Uniti, riguarda una rete ad altissima velocità di trasferimento di informazioni, riservata inizialmente a università e centri di ricerca nord americani. E' verosimile che al termine di una fase di studio di qualche anno, destinata a sviluppare nuovi programmi, protocolli e dispositivi in grado di assicurare agli Stati Uniti un notevole vantaggio nella competizione internazionale, l'accesso venga esteso al resto del mondo con un'esplosione planetaria del flusso informativo scambiato.
3.
Alla luce di quanto detto è chiaro che non è affatto semplice riuscire a valutare quali saranno nel prossimo futuro le richieste di banda da parte degli utenti: le previsioni in questo settore sono estremamente difficili. Nessuno, ad esempio, è stato in grado di prevedere, negli anni appena trascorsi, l'esplosione del mercato della telefonia mobile, soprattutto in Italia, e del fenomeno Internet su scala mondiale. Ancora qualche tempo fa si pensava che la richiesta di larga banda da parte dell'utente potesse essere legata esclusivamente all'introduzione dei servizi di video su richiesta, i famosi vod, video on demand. L'utente aveva a disposizione in centrale una videoteca, all'interno della quale era possibile scegliere un programma, e azionare, sempre in centrale, un registratore video virtuale, avviando, sospendendo e riprendendo la trasmissione a seconda delle sue necessità. Ora il vod non sembra più incontrare i favori dell'utenza e l'attenzione si è spostata sui nuovi servizi fruibili con Internet.
In queste condizioni i gestori di reti di telecomunicazione si trovano, da un lato, in una situazione per cui la gran parte degli introiti attuali è legata alla telefonia vocale e ai servizi di facsimile che si prevede continueranno a crescere a un ritmo costante, seppure moderato, compreso tra il 4 e il 7% per anno; dall'altro, potrebbero trovarsi di fronte a un repentino aumento della richiesta di banda da parte dell'utente nel collegamento tra questi e la centrale. Nel primo caso, i piani di sviluppo della rete sono concentrati nella cosiddetta rete a lunga distanza; nel secondo, si potrebbe avere la necessità di investimenti elevatissimi nell'area di accesso.
Il controllo dell'evoluzione della domanda non è nelle mani dei gestori. In contrasto con il servizio di telefonia mobile, introdotto direttamente e gradualmente dagli operatori di telecomunicazioni, la nascita e la crescita esponenziale di Internet sono stati spinti dal mondo esterno. Il successo di Internet è dovuto alla coincidenza di un certo numero di fattori tecnologici, economici e sociali complessi che erano e sono ancora difficili da prevedere. La disponibilità di un'interfaccia amichevole uomo-macchina offerta dai primi programmi di navigazione, i famosi browser come Mosaic o Netscape, è stata, per esempio, un fattore importante ma inatteso.
Comunque, con tutte le cautele che le difficoltà delle previsioni in questo campo richiedono, sembra ipotizzabile che il "collo di bottiglia" in questa fase di evoluzione impetuosa sia proprio la rete di accesso all'utente, la cui architettura dipende dalla gran quantità di possibili scenari evolutivi e dalla velocità con la quale le tecnologie progrediscono o vengono superate.
Le ragioni, per l'una o l'altra scelta di architettura di accesso, sono diversissime e vanno dalla considerazione della situazione esistente alla regolamentazione nazionale o sovranazionale, alla eventuale competizione di mercato, alla geografia del paese, alla politica industriale, ai progressi tecnologici raggiunti su scale temporali dell'ordine dei mesi. Si assiste così a una girandola in cui si alternano, per raggiungere l'utente residenziale, varie soluzioni: la fibra ottica, il cavo coassiale, questo o quel sistema radio, il satellite, il doppino in rame già presente, fino all'ultimo grido, la rete dell'energia elettrica, che ha il vantaggio di raggiungere già quasi il 100% delle abitazioni, almeno nei paesi più industrializzati. Della rete elettrica abbiamo parlato all'inizio. Passiamo brevemente in rassegna le altre possibilità.
4.
La rete ibrida fibra + coassiale (Hfc) si è diffusa all'inizio nei paesi nei quali esisteva già la rete di televisione via cavo: la rete originale era costituita da una struttura ad albero su cavo coassiale in cui la parte comune a più utenti (il tronco dell'albero) veniva sostituita da sistemi su fibra ottica che la rendevano più efficiente e soprattutto affidabile. In Italia la rete è stata costruita ex-novo, a partire dal 1995, sotto il nome di progetto Socrate, con l'intento di estenderla a un numero considerevole di centri maggiori per circa 10 milioni di utenze, nei programmi iniziali. Il sistema è di tipo distributivo: i canali televisivi, in gran numero, vengono inviati in contemporanea a tutti gli utenti, esattamente come avviene nella distribuzione tradizionale via etere, e la selezione viene fatta agendo direttamente sull'apparecchio televisivo. Il sistema ha il vantaggio di essere immediatamente compatibile con gli apparecchi esistenti e di poter inviare contemporaneamente anche canali numerici, visibili unicamente con l'interposizione di un apparecchio per la decodifica e la conversione, ed eventualmente a pagamento.
L'esplosione di Internet, successiva ai piani di sviluppo, potrebbe essere stata una delle cause che hanno portato al blocco del progetto nel 1997. Inoltre i cosiddetti modem per cavo coassiale (cable-modem), anche se in grado di funzionare a velocità di trasferimento di gran lunga superiori a quelle dei modem con i quali ci si collega al fornitore di servizi Internet su rete telefonica, hanno un costo (circa un milione di lire) ancora molto elevato. Infine, le tecnologie di accesso basate sul coassiale sono etichettabili come tecnologie a "mezzo condiviso" con una complessiva banda preassegnata; poiché tale larghezza di banda è condivisa dagli utenti connessi all'albero, quella disponibile per il singolo utente decresce al crescere del numero complessivo degli utenti.
Si è allora rivalutato l'umile doppino in rame e le tecnologie xDsl. Il doppino in rame, che raggiunge già tutte le abitazioni dotate di un telefono fisso, costituisce indubbiamente una risorsa di notevole valore per gli operatori che lavoravano in regime di monopolio. Le tecniche di compressione del segnale numerico e i notevoli progressi avutisi nei sistemi di trasmissione numerica hanno fatto sì che sia oggi possibile sfruttare il doppino ben al di là dell'uso (4 kHz) per cui era stato installato. Le tecniche che vanno sotto il nome cumulativo di xDsl (con la x che assume valori diversi a seconda della particolare applicazione e Dsl che è l'acronimo di Digital subscriber loop, o rilegamento numerico di abbonato) permettono di aumentare notevolmente la velocità di cifra sul doppino, consentendo risparmi enormi in termini di sforzi, tempo e denaro, rispetto ad altre soluzioni.
L'aspetto negativo di questa tecnica è che la massima velocità di cifra raggiungibile dipende in maniera critica dalla distanza. In Italia le distanze medie tra utente e centrale sono di qualche chilometro; nei casi in cui tale distanza fosse molto superiore potrebbe addirittura convenire la realizzazione di piccole centrali satellite più vicine agli abbonati.
Le tecniche xDsl attualmente disponibili sono svariate. L'Adsl (Asymmetric digital subscriber line) è in grado di fornire segnali numerici a una velocità compresa tra 1,5 e 6 Mbit/s sul doppino esistente fino a una distanza di circa 5 km. E' una tecnica asimmetrica e la velocità nel verso dall'utente alla centrale varia tra 16 e 640 kbit/s, anche qui in dipendenza della distanza. La tecnica Vdsl (Very high data rate digital subscriber line) può lavorare sia in modo simmetrico sia in modo asimmetrico. In modo asimmetrico può fornire velocità di cifra di 26 Mbit/s in un verso e 2 Mbit/s nell'altro su distanze di circa 1 km. Nel modo simmetrico sono possibili velocità di cifra di 13-26 Mbit/s per 500 metri. Nell'Hdsl (High data rate digital subscriber line) vengono usati due doppini per scambiare, in maniera simmetrica stavolta, 2 Mbit/s tra utente e centrale. E' un sistema full duplex, per cui i flussi nelle due direzioni esistono contemporaneamente. La massima distanza raggiungibile è di circa 3,5 km. Infine la tecnica Sdsl (Single line digital subscriber line) funziona come l'Hdsl, ma su singolo doppino con prestazioni ridotte.
5.
E veniamo alle tecniche che fanno uso di fibra ottica nell'area di accesso e che vanno sotto il nome cumulativo di Fttx (Fibre to the x) per indicare che la fibra va dalla centrale a un punto variabile, posto tra la centrale stessa e l'abbonato. La definizione di tale architettura è stata data in seno al comitato Fsan (Full services access network, rete di accesso multiservizio) costituito nel 1995 da un gruppo internazionale di gestori.
La terminologia Fttx riflette l'opinione comune dei gestori che la rete d'accesso sarà basata su rete ottica passiva (Pon) in unione con una particolare tecnica trasmissiva, Asyncronous transfer mode (Atm): l'unica discordanza è sul punto preciso dove sarà posta la terminazione di rete ottica, punto nel quale ci si collegherà al doppino o ad altro mezzo trasmissivo già esistente. In breve, si possono distinguere diverse architetture.
Nella Ftth (Fibre to the home) la fibra è attestata a casa dell'abbonato, non è previsto collegamento in rame, si hanno 25 Mbit/s nelle due direzioni. Nella Fttb (Fibre to the building) la fibra è attestata nel condominio, il collegamento in rame è inferiore a 500 m, si hanno 25-52 Mbit/s in un verso e 2-6 nell'altro; una fibra serve da 8 a 16 utenti. Nella Fttc (Fibre to the curb) la fibra è attestata in un armadietto sul marciapiede, il collegamento in rame è inferiore a 500 m, si hanno 25-52 Mbit/s in un verso e 2-6 nell'altro; una fibra serve da 32 a 64 utenti. Nella Fttcab (Fibre to the cabinet) la fibra è attestata in un armadio di distribuzione, il collegamento in rame è inferiore a 1500 m, si hanno 25 Mbit/s in un verso e 2 nell'altro; una fibra serve da 64 a 128 utenti. E infine, nella FttExch (Fibre to the exchange) la fibra è attestata in centrale, il collegamento in rame è inferiore a 5 km, si hanno 1,5-6 Mbit/s in un verso e 64-640 kbit/s nell'altro; una fibra serve da 64 a 128 utenti.
Come si vede, tutte le varianti dell'architettura Fttx sono in grado di esaudire la richiesta di banda dell'utente medio. In molti paesi la soluzione di far arrivare le fibre nell'abitazione dell'abbonato appare impraticabile per questioni di costo di impianto e di manutenzione. Fa eccezione il Giappone che ha avviato un piano nazionale per l'installazione dei cavi in fibra ottica fino a casa dell'utente. In Europa, è verosimile che ci si avvii verso una delle soluzioni intermedie.
6.
Un'altra possibilità di accesso all'utente è la radio che, dopo essere stata accantonata per anni, si è ultimamente presa la sua rivincita nel campo delle telecomunicazioni, soprattutto grazie all'esplosione dei servizi di telefonia mobile. L'utilizzo delle onde radio presenta certo degli indubbi vantaggi legati alla facilità e rapidità di messa in opera di una nuova rete; di contro ha la difficoltà di reperire nuove frequenze da attribuire ai nuovi servizi, la possibile interferenza tra sistemi in competizione, e, da non sottovalutare, l'allarme suscitato nella popolazione dal proliferare di antenne e stazioni trasmittenti, anche se il più delle volte le potenze in gioco sono così basse che l'allarme appare ingiustificato.
La radio, nel suo complesso, si dimostra una scelta vincente nelle aree in cui non esistono altre infrastrutture, nelle aree a bassa densità abitativa, nelle zone in cui non è possibile scavare per deporre cavi in rame o fibra ottica, ma soprattutto dove la mobilità offerta all'utente è un vantaggio aggiuntivo. Il mondo della radio in area di accesso è in così rapida evoluzione che è anche difficile arrivare a una classificazione completa dei vari sistemi utilizzabili. Dal punto vista del gestore di rete fissa la radio è vista come un possibile sostituto della fibra nei sistemi Fttx che si sono precedentemente descritti. Si parla così di Rttx, per indicare che la radio arriva a casa, all'edificio, al marciapiede o all'armadio di distribuzione primaria e di lì prosegue su doppino in rame o cavo coassiale.
Dal punto di vista dei nuovi gestori, la radio può dar luogo a vari altri sistemi che vanno sotto il nome di Wireless local loop (collegamento d'abbonato senza fili). Le frequenze previste per questi nuovi servizi sono tutte al di sopra di quelle comunemente usate per la radiodiffusione terrestre e per la telefonia cellulare; si parla di frequenze portanti che vanno da 2 a 60 GHz e che richiedono che trasmettitore e ricevitore siano in visibilità. Con l'aumentare della frequenza si hanno maggiori problemi legati alla propagazione, ad esempio fenomeni di attenuazione nella ricezione dovuti a pioggia4, mentre diminuiscono considerevolmente le dimensioni delle antenne necessarie per la ricezione, fattore non trascurabile se l'antenna è presso l'utente.
Il sistema Mvds (Multipoint video distribution system) è un sistema distributivo di segnali video, altamente asimmetrico, in grado di servire zone sia densamente sia scarsamente popolate. E' previsto in unione a reti fisse esistenti cui fornisce un canale verso l'abbonato a larga banda. Canali televisivi numerici possono essere aggiunti con facilità (con le stesse modalità, ad esempio, previste nell'ambito del progetto Socrate). L'Lmds (Local multipoint distribution system) è un sistema previsto per fornire servizi a basso costo in alternativa alla rete fissa. E' già stato impiantato in varie parti del mondo con varie frequenze di operazione; costituisce una opzione estremamente valida per lo sviluppo della rete di accesso dove non c'è altra infrastruttura. Sembra essere, comunque, una soluzione a breve termine per la bassa capacità trasmissiva non adatta all'accesso veloce a Internet.
Il sistema Mmds (Multipoint multimedia distribution system) è invece un sistema previsto per servizi ad alta velocità, con capacità simmetrica nei due sensi. Deve essere progettato in maniera opportuna a seconda della densità delle zone da servire. Può fornire accessi Internet ad alta velocità e servizi per utenza affari. Alcuni aspetti, come la tariffazione e la gestione dei rapporti con l'utenza, sono ancora da progettare.
Un'architettura proposta per tale sistema fa riferimento a una stazione base in grado di scambiare flussi informativi con stazioni satellite disposte in un raggio di 5 km (poste, ad esempio, sul tetto di edifici); ognuna di queste stazioni satellite illumina a sua volta un'area di raggio di circa 500 m, all'interno della quale può scambiare flussi di 1 Mbit/s. Proprio come avviene per i cable modem dell'Hfc, la capacità complessiva all'interno di una cella deve essere condivisa dagli utenti.
7.
E infine il satellite. Satelliti geostazionari posti su un orbita equatoriale a circa 36.000 km di altezza sono già oggi largamente utilizzati per la diffusione diretta da satellite: il proliferare di piccole antenne paraboliche nelle nostre città è legato appunto a questo impiego. Appartengono a questa categoria i satelliti del consorzio Astra e quelli della serie Hot Bird dell'Eutelsat. Tramite questo tipo di satelliti entro i prossimi cinque anni saranno disponibili in Europa più di 5000 canali di televisione digitale5. Ma, al contrario di Internet, tipicamente interattiva, la televisione è nata semplicemente diffusiva per uno spettatore passivo. Per poter fornire allacciamenti Internet occorre disporre di un canale di ritorno. Nell'utilizzo di Internet, l'utente, come già visto in precedenza, mediante semplici comandi e quindi con interazione a bassa capacità, richiede l'invio di una notevole quantità di informazione; inoltre, spesso, le stesse informazioni sono contemporaneamente richieste da più utenti, in un'area geografica vasta.
Il servizio richiede quindi canali tipicamente asimmetrici a banda stretta da utente a centro servizi e può essere ben supportato da sistemi via satellite per la loro peculiarità di diffondere su vaste aree segnali a elevato contenuto informativo. Soluzioni satellitari ibride in cui il canale di ritorno, per l'interrogazione da parte dell'utente, è realizzato mediante un collegamento telefonico con un nodo Internet sono state già proposte al mercato europeo6. Soluzioni più avanzate sono state annunciate mediante l'uso di satelliti a orbita bassa - Leo, Low earth orbit - inferiore ai 5000 km, tipicamente tra i 600 e i 1600 km. Per vincere la gravità terrestre tali satelliti devono andare molto più veloci: un utente in una certa zona vedrà sorgere e tramontare il satellite in un arco di tempo dell'ordine di decine di minuti.
Occorre quindi mettere in orbita alcune centinaia di satelliti in comunicazione tra loro per poter assicurare all'utente un collegamento senza interruzioni. Appartiene a questa categoria il progetto Teledesic, noto al grande pubblico per essere stato ideato dal fondatore di Microsoft, Bill Gates: prevede 840 satelliti, dovrebbe divenire operativo nel 2002 e assicura circa 2 Mbit/s bidirezionali a 20 e 30 GHz con antennine di poche decine di centimetri. Non è ancora disponibile una stima del costo dell'apparecchiatura di utente. La soluzione è sicuramente attraente anche se pone problemi di investimenti economici (si parla di 9 miliardi di dollari), di natura organizzativa e di natura ecologica dello spazio, dovendo in meno di un lustro porre in orbita quasi più satelliti di quanti non ne siano stati lanciati dal tempo del primo Sputnik a oggi.
8.
Quale sarà la tecnologia vincente per la rete di accesso? Doppino, coassiale, fibra, radio, satellite o rete elettrica? Sarà la televisione o Internet a condizionare la rete di accesso e a essere il vero motore degli investimenti necessari? Personal computer e televisione continueranno a coesistere o si fonderanno in un unico apparecchio? Si avrà Web tv oppure Tv on the web7? Previsioni in questo campo, per tutti i motivi sopra elencati, sono estremamente difficili. Un manager, a cui venne un giorno chiesto di spiegare un clamoroso errore di previsione tecnologica e le conseguenti perdite finanziarie, rispose che vi sono tre modi di perdere denaro: con il gioco, ed è il più rapido; con le donne, ed è il più piacevole; con le previsioni tecnologiche, ed è il più sicuro.
Note
1 Evaluating roll-out strategies in the access for the competitive delivery of telephony, Internet and broadband services, International institute research, Telecoms broadcast, Conference on access network, London, 1998.
2 In Italia, l'Enel ha già avviato, con la canadese Nortel, una sperimentazione in proposito, con l'obiettivo di entrare in concorrenza con gli attuali fornitoridi tlc.
3 F. Fedi, Il prossimo televisore potrà anche risponderci, Telèma n 3.
4 F. Fedi, A contribution of radio propagation research to radiocommunications development: prediction of attenuation due to rain, Ieee, International conference on communications, Amsterdam, 1984.
5 F. Fedi, Telecomunicazioni e multimedialità, Globalità Plus '95, Scenario tecnologico, Ssi Gruppo Ambrosetti, luglio 1995 e novembre 1996.
6 New directions in multimedia: Internet via satellite, Dtt Consulting Report, 1998.
7 Convergence in Television and the Internet, Financial times media and telecoms report, 1997.
|
|
161)
Per la cooperazione scientifica Cost è un modello, tutto europeo
Fedi, F., TELEMA n. 14, 1998 pp 64-68
Il Cost, prima forma di collaborazione europea nella attività scientifica, si ispira a un concetto di ricerca di base precompetitiva e non vincolata dalla necessità di trovare applicazioni immediate. Tra le sue molte aree di intervento, quella delle telecomunicazioni è senza dubbio la più significativa per la quantità e per la qualità delle azioni intraprese. Proprio in questo campo, il ruolo dell'Italia e della Fondazione Ugo Bordoni è sempre stato di assoluto rilievo.
1.
E' la metà degli anni Sessanta. L'Europa comincia ad avvertire il pericolo costituito dalla crescente potenza industriale degli Stati Uniti d'America che rischia di relegare il vecchio continente nel novero dei paesi arretrati. Jean-Jacques Servan-Schreiber, il leggendario direttore del "L'Express" francese, lancia l'allarme con il suo famoso libro Le défi américain e scrive del «pericolo del naufragio dell'Europa come focolaio di civiltà» e della «guerra da combattere a colpi di fantasia creativa e di tessuto organizzativo»1. L'Europa si rende conto del ruolo fondamentale che la ricerca nel campo della scienza e della tecnologia può giocare nello sviluppo economico del continente e quindi nella possibilità di reazione alla "sfida" americana e della assoluta necessità di una collaborazione europea in questo settore. Nel 1964 il Consiglio dei ministri dell'allora Europa dei "sei" (Belgio, Repubblica Federale di Germania, Francia, Italia, Lussemburgo, Paesi Bassi) decide di creare un Comitato per la politica economica a medio termine (Cpemt) per coordinare le strategie economiche. Nel 1965, il Cpemt crea un sottocomitato Politica della ricerca scientifica e tecnologica (Prest) con il mandato di esplorare la possibilità di cooperazione in campo europeo.
La cooperazione prende il nome di Cost, acronimo di European Cooperation in the field of scientific and technological research (Cooperazione europea nel campo della ricerca scientifica e tecnologica). Il primo Presidente del gruppo Prest è A. Marechal, Direttore generale della ricerca scientifica e tecnologica in Francia. Nel 1967 è presentato al Consiglio dei ministri il primo rapporto Prest, denominato rapporto Marechal. In tale rapporto si propone di intraprendere una collaborazione europea nei settori: informatica, telecomunicazioni, trasporti, oceanografia, meteorologia, metallurgia e protezione dell'ambiente. Si propone altresì di formare un comitato tecnico per ciascuno dei settori e di associare ai lavori anche i paesi europei non facenti parte della Comunità. Il Consiglio approva tale proposta e dà mandato al gruppo Prest di continuare i lavori. Le lingue ufficiali prescelte in ambito Cost (nonostante il Regno Unito non faccia ancora parte della Comunità europea) sono l'inglese, il francese e il tedesco.
Nel 1969 viene presentato il rapporto Aigrain - dal nome del nuovo Presidente del gruppo Prest - che contiene 47 proposte di temi di ricerca da sviluppare in collaborazione. Viene deciso di invitare a collaborare alla messa a punto dei progetti di ricerca e a partecipare al loro svolgimento 13 paesi non facenti allora parte della Comunità: Austria, Danimarca, Finlandia, Grecia, Irlanda, Iugoslavia, Spagna, Norvegia, Portogallo, Svizzera, Svezia, Turchia e Regno Unito. Questa decisione dà luogo alla cosiddetta Europa Cost, ben più ampia dell'Europa della Comunità. Nel 1970 vengono formati sette comitati tecnici - uno per ogni settore di ricerca - con esperti provenienti dai 19 paesi per esaminare la fattibilità dei vari progetti. Viene anche formato un Comitato di alti funzionari (Senior Officials), composto dai rappresentanti dei ministri della Ricerca dei 19 paesi, con il compito di coordinare le attività dei sette Comitati tecnici.
Il Comitato degli alti funzionari si riunisce per la prima volta il 19 ottobre 1970. Il 22 e 23 novembre 1971, durante una conferenza cui partecipano i ministri della Ricerca dei 19 paesi, viene firmata una risoluzione che esprime la volontà dei rispettivi governi «di cooperare nel campo della ricerca scientifica e tecnica e di ricorrere, a questo scopo, a delle forme di collaborazione le più flessibili possibile e in particolare a un coordinamento dei lavori dei propri organismi di ricerca». Nella stessa occasione vengono varati i primi progetti di ricerca Cost. «Cost constitutes an experimental laboratory for european cooperation which will provide valuable information for the future»: con queste parole, che si riveleranno profetiche, il ministro della Ricerca italiano Camillo Ripamonti, presidente della conferenza, conclude i lavori. La data del novembre 1971 viene generalmente considerata come la data di nascita delle iniziative Cost.
2.
Ai lavori preparatori del Comitato telecomunicazioni degli anni 1970 e 1971 partecipa, su delega del ministro della Ricerca, l'allora direttore dell'Istituto superiore delle Poste e telecomunicazioni il quale chiede alla Fondazione Bordoni di far parte della delegazione italiana. Il motivo è che uno dei temi indicati dal nostro paese come possibile argomento di collaborazione europea è lo studio delle caratteristiche di propagazione delle onde radio a frequenze superiori a 10 GHz. Su questo argomento la Fondazione Bordoni sta svolgendo un impegnativo programma di ricerca teorico e sperimentale per conto dell'Amministrazione Pt italiana2.
Ma perché questo tema è considerato così importante e adatto a una collaborazione europea? A metà degli anni sessanta era apparso chiaro che la progressiva saturazione delle bande di frequenza allora disponibili al di sotto di circa 10 GHz avrebbe potuto rallentare la crescita, che si preannunciava esplosiva, dei servizi di telecomunicazioni tradizionali e la diffusione di nuovi servizi: ciò rendeva indispensabile l'utilizzo di frequenze più elevate. Questo cozzava però con le incognite legate alla radiopropagazione: a queste frequenze corrispondevano infatti lunghezze d'onda centimetriche e millimetriche che avevano dimensioni analoghe a quelle delle gocce di pioggia e, quindi, potevano essere da queste fortemente attenuate in presenza di precipitazioni piovose. Cioè a queste frequenze si sarebbe potuto verificare ciò che, come è ben noto, si verifica per lunghezze d'onda e particelle ancora più piccole allorché la luce visibile viene fortemente attenuata in situazioni di nebbia fitta.
Ma in che misura questo avveniva, come dipendevano questi fenomeni dalla frequenza adoperata e dalla località prescelta per il collegamento e come poteva essere calcolata l'entità dell'attenuazione? La Fondazione Bordoni aveva previsto l'importanza dell'argomento e aveva proposto all'Amministrazione Pt un programma di ricerca che, accanto a studi teorici, prevedeva la realizzazione di un impianto sperimentale di notevole complessità per misure meteorologiche e radioelettriche. L'obiettivo del programma era quello di riuscire a prevedere le statistiche di attenuazione dovuta a pioggia sui radiocollegamenti a partire dai dati di intensità di precipitazione piovosa ricavabili, con relativa facilità, nelle varie zone di interesse. Dopo circa venti anni di accese discussioni nell'ambito della comunità scientifica, il gruppo della Fondazione Bordoni aveva dimostrato la possibilità di calcolare l'attenuazione subita dalle onde elettromagnetiche a partire dall'intensità di precipitazione piovosa, considerando la reale forma non sferica delle gocce di pioggia3. Per avere validità statistica probante occorreva però estendere alle varie zone climatiche europee le metodologie di calcolo sviluppate in Italia. La proposta del nostro paese incontrò grande favore: al progetto, denominato Cost 25/4, che fu varato nel 1971 parteciparono 13 paesi che misero insieme un apparato sperimentale e una base di dati estremamente ragguardevole e che instaurarono una solida tradizione scientifica europea nel campo della propagazione delle onde radio4.
Per la prima volta fu effettuata una caratterizzazione della piovosità del continente europeo: le zone più intensamente piovose non risultarono quelle in cui si raccoglievano i più elevati valori di altezza annuale di pioggia, come la Gran Bretagna, ma quelle nelle quali minori valori di altezze annuali si concentravano in pochi ma intensi temporali, come le coste occidentali dell'Italia e della Grecia. Per la prima volta l'Europa si presentò all'Unione internazionale delle telecomunicazioni (Itu) di Ginevra con una massa di risultati che non aveva eguali né negli Stati Uniti d'America né in Giappone. In quell'occasione la metodologia di calcolo dell'attenuazione sviluppata presso la Fondazione Bordoni e presentata dall'Amministrazione italiana venne preferita a tutte le altre e adottata in tutti i paesi del mondo per il dimensionamento dei radiocollegamenti terrestri a frequenze superiori a 10 GHz.
Nel 1978, verso il termine del progetto 25/4, si pensò di estendere le ricerche sulla propagazione delle onde radio a frequenze superiori a 10 GHz anche ai collegamenti terra-satellite. In quel momento erano operativi e ricevibili in Europa due satelliti sperimentali: il satellite europeo Ots e il satellite italiano Sirio ma non vi era nessun meccanismo organizzativo che permettesse di creare una base di dati comuni e di utilizzare simultaneamente le possibilità offerte dai due satelliti. I partner europei chiesero all'Italia e per essa alla Fondazione Bordoni di svolgere il lavoro preparatorio per il varo di un nuovo progetto che prese il nome di progetto Cost 2055. Nel Memorandum of understanding che fu firmato nel 1979 da 14 paesi europei e dall'Agenzia spaziale europea si proponeva che «la presidenza del progetto venisse affidata all'Italia per avere messo a disposizione i dati del satellite Sirio e per aver assicurato la presidenza del passato progetto in modo così efficace». Al termine del progetto Cost 205, ancora una volta, l'Europa si presentò in sede internazionale con risultati ottenuti da un apparato sperimentale che non aveva eguali in altre parti del mondo. E ancora una volta, le metodologie di previsione dell'attenuazione che, nel frattempo, la Fondazione Bordoni aveva, con felice intuizione, esteso ai collegamenti terra-satellite vennero adottate in tutti i paesi del mondo per il dimensionamento dei radio collegamenti via satellite a frequenze superiori a 10 GHz6.
Grazie dunque alla sinergia Cost, l'Europa, con il ruolo fondamentale dell'Italia, aveva avviato a soluzione uno dei più importanti problemi di ricerca nel campo della propagazione delle onde radio, aveva fornito dati essenziali per lo sviluppo delle radiocomunicazioni future e aveva assunto una posizione di indiscusso leader mondiale in questo settore. Da quel momento i giovani ricercatori provenienti dai paesi in via di sviluppo cominciarono a non attraversare più l'oceano per recarsi nei laboratori americani ma a preferire i centri di ricerca europei, e in particolare italiani, per approfondire la loro preparazione. L'area della ricerca sulla propagazione delle onde radio ha fatto oggetto di altre cinque azioni - una delle quali ancora in corso - nelle quali si sono affrontati altri temi fondamentali quali quelli delle interferenze tra stazioni riceventi via satellite o dell'estensione delle comunicazioni radio a frequenze sempre più elevate.
Essa non è certamente l'unica in cui la collaborazione Cost si è dimostrata particolarmente efficace. Dal 1971 a oggi nel campo delle telecomunicazioni sono state varate 73 azioni di ricerca Cost - 35 delle quali tutt'ora operative - nei seguenti campi: comunicazioni ottiche, comunicazioni mobili, comunicazioni via satellite, reti per telecomunicazioni, antenne, comunicazioni video, comunicazioni vocali, servizi multimediali e via Internet, compatibilità elettromagnetica ed effetti biomedici delle radiazioni elettromagnetiche. Una ampia rassegna delle attività Cost è contenuta negli atti di un Convegno organizzato a Roma nel 1992 dalla Fondazione Ugo Bordoni per celebrare e fare il punto sui primi venti anni di collaborazione Cost7.
3.
Che cos'è oggi il Cost? Per meglio rispondere a questa domanda è bene subito dire quello che il Cost non è. Il Cost non è un organo della Comunità, non ha personalità giuridica e non è stato istituito con un trattato. Il Cost è un "framework". E' cioè un "contesto" adatto a una collaborazione europea nel campo della ricerca scientifica e tecnologica che si basa su una struttura estremamente flessibile istituita da accordi intergovernativi durante la Conferenza Ministeriale del 22 e 23 novembre 1971. La cooperazione Cost si realizza attraverso progetti di ricerca denominati "azioni" che nascono con la firma, per ogni azione, di un Memorandum of understanding da parte dei paesi interessati a quel progetto di ricerca. La firma è in genere fatta tramite le Rappresentanze diplomatiche presso l'Unione europea e non necessita di una ratifica parlamentare. La partecipazione ai progetti è volontaria e à la carte. Solamente i paesi interessati alla singola azione firmano il relativo Memorandum of understanding: per varare un'azione occorre che il Memorandum sia firmato da almeno cinque paesi.
La vocazione del Cost è quella di adattarsi e talvolta anticipare l'evolversi della situazione politica europea attraverso l'apertura della collaborazione anche a paesi non facenti parte dell'Unione europea. Attualmente l'"Europa Cost" comprende oltre ai 15 paesi dell'Unione europea (Austria, Belgio, Danimarca, Finlandia, Francia, Germania, Grecia, Irlanda, Italia, Lussemburgo, Portogallo, Spagna, Svezia, Paesi Bassi e Regno Unito), anche altri 13 paesi terzi (Croazia, Repubblica Ceca, Estonia, Ungheria, Islanda, Malta, Norvegia, Polonia, Romania, Slovacchia, Slovenia, Svizzera e Turchia). Quattro paesi partecipano poi come osservatori (Bulgaria, Cipro, Lettonia e Lituania) e, comunque, la collaborazione, per particolari azioni, è aperta anche a Istituti di ricerca e Università di paesi non-Cost e a organizzazioni sovranazionali, come, ad esempio, l'Agenzia spaziale europea. L'iniziativa delle azioni Cost non è imposta dall'alto ma proviene dagli stessi studiosi e ricercatori. L'esperienza di circa trent'anni ha mostrato che questo processo "bottom up" è particolarmente adatto a promuovere ricerche a lungo termine di natura pre-competitiva, risponde con molta efficacia alla crescente domanda della comunità scientifica europea e complementa molto utilmente i programmi di ricerca più applicativi della Comunità.
I progetti Cost sono "azioni concertate" nel senso che implicano il coordinamento di attività di ricerca che sono finanziate a livello nazionale. Sebbene i partecipanti finanzino solo le proprie attività di ricerca essi hanno accesso a tutti i risultati ottenuti nell'azione. Possono così essere eliminate sia lacune sia duplicazioni: la sinergia che ne consegue permette un uso più efficiente delle risorse destinate alle ricerche nei vari paesi. L'idea del Cost è pertanto di unire insieme, all'interno di un determinato progetto di ricerca, istituti, università e industrie che vogliano far parte di questa forma di azione concertata. Sono i benefici della sinergia che i partner ottengono dalla collaborazione i motivi che spingono a partecipare a un progetto Cost. Il Cost, quindi, non è una sorgente di finanziamenti ma una struttura flessibile che è offerta come "contesto" per una collaborazione europea. Gli unici finanziamenti Cost sono diretti ad assicurare l'organizzazione e la base operativa della collaborazione e, cioè, le varie segreterie, il rimborso delle missioni e il supporto a workshop, seminari e pubblicazioni.
Fin dall'inizio il Cost ha optato per una struttura operativa estremamente agile e flessibile in modo da facilitare il più possibile l'implementazione e la gestione dei progetti di ricerca. Come già detto, il Cost nasce da accordi intergovernativi stipulati dalla Conferenza ministeriale del novembre 1971, accordi confermati dalle varie Conferenze ministeriali che si sono susseguite nel tempo e che hanno aperto la porta della collaborazione Cost a un numero sempre maggiore di paesi: dai 19 del 1971 ai 28 attuali. Il Comitato dei Senior Officials è l'organismo centrale della struttura Cost ed è formato dai rappresentanti dei 28 paesi dell'Europa Cost, in genere appartenenti ai ministeri della Ricerca o alle varie accademie delle Scienze, che fungono da "Coordinatori nazionali". Esso formula la strategia generale della collaborazione Cost, nomina i Comitati tecnici, uno per ogni area di ricerca, ne determina il mandato, approva il varo dei progetti di ricerca e prepara i relativi Memorandum per la firma dei paesi interessati.
Ciascun Comitato tecnico è formato da due membri per ogni paese dell'Europa Cost. Il Comitato è responsabile della propria area di ricerca e, in questo ambito, esamina e approva le proposte delle nuove azioni da presentare al Comitato dei Senior Officials, controlla l'implementazione, lo svolgimento e il coordinamento dei progetti ed effettua la valutazione dei risultati conseguiti. Le aree di ricerca Cost sono: Ambiente, Agricoltura e biotecnologia, Chimica, Fisica, Fluidodinamica, Foreste e prodotti forestali, Informatica, Materiali, Meteorologia, Oceanografia, Ricerche mediche, Scienze sociali, Tecnologie della nutrizione, Telecomunicazioni, Trasporti e Urbanistica. Nell'ambito della Commissione europea, la quasi totalità dei Comitati tecnici fanno capo alla Direzione generale XII (Science, Research and Development): le uniche eccezioni sono l'area telecomunicazioni che fa capo alla Direzione generale XIII (Telecommunications, Information market and Exploitation of research) e l'area Trasporti che fa capo alla Direzione generale VII (Transport).
Per ogni azione un Management committee, formato da due delegati per ogni paese firmatario del memorandum, è responsabile dell'implementazione e della gestione dell'azione. I Management committee rispondono al relativo Comitato tecnico e preparano i rapporti annuali e un rapporto finale per illustrare e diffondere i risultati ottenuti nell'azione. I servizi di segreteria del Comitato dei Senior Officials sono forniti dal Segretariato generale del Consiglio d'Europa. I servizi di segreteria dei Comitati tecnici e dei Comitati di gestione delle varie azioni sono forniti dalla Commissione europea.
4.
Dal 1971 a oggi sono state varate più di 300 azioni di ricerca Cost con il coinvolgimento di molte migliaia di ricercatori. Ciò ha creato in Europa una comunità scientifica Cost particolarmente attiva e ha consolidato i rapporti tra un numero estremamente grande di Università e Centri di ricerca europei. E tutto questo con un minimo di fondi provenienti dalla Comunità, fondi che non hanno superato il 10% circa dei costi di strumentazione e personale. Un esempio per tutti.
Nell'azione Cost 205, lanciata nel 1979 e tesa a studiare le caratteristiche di propagazione delle onde radio nei collegamenti terra-satellite a frequenze superiori a 10 GHz, se si fossero dovuti sommare insieme i costi relativi alla costruzione, al lancio e alla gestione dei due satelliti Sirio e Ots, dei radar, della strumentazione meteorologica, dei sistemi di acquisizione ed elaborazione dati e dei ricercatori dei quattordici paesi partecipanti, l'ammontare dei fondi da richiedere alla Comunità avrebbe assorbito una buona parte del budget totale destinato dalla Commissione alla ricerca.
E invece, per l'azione Cost 205 la Commissione fornì soltanto la segreteria tecnica del progetto, perché, allora, non erano previsti neanche i rimborsi per le missioni effettuate dai partecipanti alle azioni. Un minimo di fondi, dunque, per il Cost, ma una grande e riconosciuta efficacia di risultati.
Delle varie aree Cost quella delle telecomunicazioni è senza dubbio la più ragguardevole per la quantità e il livello delle azioni implementate e il numero dei paesi partecipanti. Delle circa 320 azioni Cost varate dal 1971 a oggi più del 40% appartengono, infatti, all'area telecomunicazioni con un numero di firmatari dei Memorandum of understanding che in molti casi ha superato i 14 paesi. In quest'area il ruolo assunto dall'Italia e dalla Fondazione Bordoni è stato di assoluto primo piano. Propugnatore e convinto fautore della collaborazione Cost il nostro paese ha partecipato alla quasi totalità delle 75 azioni di telecomunicazioni e ne ha coordinate più del 20%. La Fondazione Bordoni è stata tra i "padri fondatori" della collaborazione Cost Telecomunicazioni, avendo partecipato per incarico del ministero della Ricerca ai lavori preparatori del 1971 per il varo delle prime azioni, ed è il Centro di ricerca che in Europa ha ideato, proposto e coordinato più progetti di qualsiasi altro, più del 10%. Anche per questi motivi, nel marzo del 1998, il coordinamento del Comitato tecnico telecomunicazioni è stato affidato all'Italia eleggendone alla presidenza chi scrive, come rappresentante della Fondazione Bordoni.
Il programma fissato dalla nuova presidenza italiana ha come principale obiettivo quello «di combinare le tradizioni del Cost con i bisogni della società dell'informazione e la sfida della liberalizzazione» e in particolare: a) mantenere, rafforzare, allargare e propagandare il Cost come contesto estremamente efficiente per la collaborazione europea nel campo della ricerca scientifica, mettendo in luce le principali caratteristiche della tradizione Cost; b) agire come catalizzatore per l'implementazione di azioni di ricerca che riflettano la convergenza delle telecomunicazioni, dell'informatica e del broadcasting e anticipino i bisogni della società dell'informazione; c) far fronte alla sfida della crescente liberalizzazione e competizione che richiedono obiettivi e risultati orientati alle applicazioni rafforzando i legami tra azioni Cost e programmi di ricerca della Comunità, migliorando le procedure di valutazione, la diffusione e il trasferimento dei risultati e rendendo più efficaci i collegamenti con gli enti di normativa e standardizzazione, con i gestori dei servizi e con le industrie manifatturiere.
5.
Dal 1971 al 1983 i progetti Cost sono stati l'unica forma di collaborazione nel campo della ricerca scientifica e tecnologica in Europa. Tra gli altri meriti, essi hanno quello di aver aperto la strada ai successivi programmi comunitari. Nel 1983 viene varato il primo Programma quadro della Ricerca e dello sviluppo tecnologico, cui seguono il Secondo nel '89, il Terzo nel '91 e il Quarto nel '94, tutti elaborati dalla Commissione europea e approvati dal Parlamento europeo. In essi sono compresi i programmi Race e Acts, entrambi con precisi obiettivi applicativi e finanziati dalla Comunità anche se con un tetto massimo del 50% dei costi. Nel 1985 nasce il programma Eureka che prevede una cooperazione "à la carte" tra le industrie europee.
Tutte queste iniziative avrebbero dovuto far diminuire l'interesse verso la forma di collaborazione Cost e determinare una drastica diminuzione di tali progetti. E' accaduto, invece, esattamente il contrario. Da una parte, la Conferenza ministeriale del 1991, tenutasi venti anni dopo quella che dette origine a questo tipo di collaborazione, nel sottolineare l'importanza delle azioni Cost e la loro complementarietà rispetto ai programmi comunitari, ha aperto la possibilità di collaborazione ad altri paesi terzi, politica di apertura, del resto, ripresa e confermata dalla successive Conferenze ministeriali. Dall'altra, il numero delle azioni Cost è andato aumentando nel tempo. Le ragioni vanno ricercate nella vocazione "europea allargata" della collaborazione Cost, nella grande flessibilità di ideazione e agilità di gestione delle attività, ma, soprattutto nella natura delle azioni Cost, cioè nel loro carattere di iniziativa spontanea e di ricerca di base e precompetitiva. Ciò fa assolvere talvolta al Cost il ruolo di "precursore" nel senso che, sovente, idee maturatesi in ambiente Cost si sono poi trasformate in progetti di ricerca comunitari.
Tanto più aumenta il processo di competizione, tanto più quindi si restringe la possibilità di trovare facilmente fondi per ricerche di base che non abbiano obiettivi immediati, che siano spinti più dalla ricerca della conoscenza che da applicazioni già intraviste, che, anzi, talvolta possono non trovare un'applicazione immediata; tanto più aumenta il desiderio, quasi il bisogno, della comunità scientifica di trovare un ambiente dove "pensare insieme", dove cercare il nuovo senza eccessivi condizionamenti.
Con una immagine molto felice il ricercatore scientifico, a secondo che privilegi una ricerca spontanea che appaghi la sua sete di conoscenza o persegua precisi obiettivi per ottenere risultati predeterminati, è stato paragonato a Gilgamesh o a Serendip8. Gilgamesh l'eroe positivo nato da un'epopea sorta nel Medio Oriente, preso comunemente a simbolo di chi cerca, con grande fermezza, qualcosa di preciso e ben determinato. Nel campo della ricerca scientifica egli può essere preso a emblema di grandi imprese, nate con un obiettivo preciso: lo sviluppo del radar, la fusione nucleare, la conquista della luna. Serendip, invece, il principe nato dalla fantasia di Horace Walpole che viaggia nel territorio dell'antica Sri Lanka «facendo, per caso, sempre nuove scoperte di cose piacevoli che non andava cercando». Sempre nel campo della ricerca scientifica Serendip è l'emblema delle scoperte nate dal caso, unito però a una costante voglia di "conoscere", come la mela di Newton, la rana di Galvani o la muffa di Fleming.
E in un certo senso, con tutti i limiti di questo tipo di definizioni, nell'ambito della ricerca europea i programmi comunitari del tipo Race e Acts sono Gilgamesh mentre le azioni Cost sono Serendip. Entrambi necessari. Non può esistere una ricerca finalizzata di successo se non esiste un ambiente di ricerca complessivo di livello estremamente elevato. Cost dunque come "esploratore" di conoscenza che poi possa tramutarsi, una volta matura, in operazioni di ricerca che perseguono precisi obiettivi predeterminati.
L'auspicio è che nella pianificazione futura della ricerca europea continui ad avere uno spazio il "contesto" Cost, cioè Serendip. Per una ricerca di base precompetitiva, connaturata a un "alto rischio" di poter non trovare, in alcuni casi, applicazioni immediate. Ma basta una sia pur piccola percentuale di "successi" per ripagare tutto il resto. «Il novanta per cento della tua produzione scientifica non vale molto», sentii una volta dire da un ricercatore americano a un suo collega con quella brutale franchezza unita all'onestà intellettuale tipica della migliore comunità scientifica, «ma darei la mia vita per avere avuto il merito di aver scritto il restante dieci per cento».
Note
1 J.J. Servan-Schreiber, Le défi américain, Denoël, Paris, 1967.
2 F. Fedi, B. Peroni, Programma di ricerca sulla propagazione di onde con frequenza superiore a 10 GHz, "Note, Recensioni, Notizie", vol XIX, n 3, 1970.
3 F. Fedi e altri, Attenuation: theory and measurements, "Journal de recherces atmosferiques", vol VIII, n 1-2, 1974.
4 F. Fedi (a cura di), The Eurocop - Cost 25/4 project on radiopropagation above 10 GHz, Alta Frequenza, vol LXVI, n 4, aprile 1979.
5 F. Fedi (a cura di), Project Cost 205: Influence of the atmosphere on Earth-Satellite radiopropagation at frequencies above 10 GHz, "Alta Frequenza", vol LIV, n 3, 1985.
6 F. Fedi, A contribution of radiopropagation research to radiocommunications development: prediction of attenuation due to rain, Ieee International conference on communications, Amsterdam 1984.
7 F. Fedi (a cura di), New Frontiers for the european Cost in telecommunications, Conference Proceedings, Rome, 21 October 1992.
8 Mario Carnevale, Anche la ricerca ha bisogno di libertà, Telèma 2 autunno 1995.
|
|
162)
Le telecomunicazioni e la società dell’informazione
Fedi, F., DIATECH 98, Firenze Ottobre 1998
Ringrazio gli Organizzatori di questa Conferenza per l’invito che mi hanno rivolto a parlare dell’influenza dell’innovazione tecnologica sulle abitudini di vita nel campo - completamente diverso dall’argomento principale di questo Convegno - delle telecomunicazioni e della futura società dell’informazione.
Il mio discorso comincerà dal 1895, allorché circa cento anni fà, il nostro Guglielmo Marconi ebbe la geniale intuizione di utilizzare le onde elettromagnetiche a fini pratici per trasmettere informazioni a distanza "senza fili" e di ritenere che le onde elettromagnetiche potessero propagarsi superando gli ostacoli. Sulla base di queste intuizioni egli effettuò la trasmissione di un segnale telegrafico, la famosa lettera "S" cioè i tre punti dell’alfabeto Morse, con le onde radio al di là della "Collina dei Celestini", una collina che ancora oggi si vede davanti a Villa Marconi a Pontecchio vicino Bologna. Questo esperimento può considerarsi come la "nascita" di quelle telecomunicazioni che, attraverso tappe intermedie su cui evidentemente non posso soffermarmi, hanno portato nelle nostre case i quattro strumenti che oggi in qualche modo condizionano e condizioneranno sempre di più la nostra vita: la radio, il telefono, la televisione e il computer .
Cominciamo con la radio. In realtà la trasmissione della voce umana fu possibile solo nel 1908, 13 anni dopo il primo esperimento di Marconi, allorché Lee de Forest, uno studioso americano, inventò il "triodo", cioè la valvola termoionica che permetteva di amplificare segnali molto deboli e quindi anche la voce umana. Ma la vera e propria nascita della radio si può collocare nel 1916 allorché David Sarnof Direttore dell’"American Marconi Company", propone al suo Consiglio di Amministrazione di fare della radio uno strumento domestico come il grammofono o il pianoforte. "Il ricevitore sarà una scatola adatta a ricevere con opportuni bottoni diverse frequenze e conterrà un amplificatore ed un altoparlante telefonico. Essa potrà essere sistemata in salotto per ascoltare musica, conferenze e concerti".
Nasce quindi la radio così come la conosciamo oggi e insieme alla radio nasce il problema delle interferenze. Basti pensare che nel 1923 negli Stati Uniti d'America 500 stazioni operavano tutte sulla stessa frequenza con il caos che si può immaginare. La conferenza dell’UIT cioè dell’Unione Internazionale delle Telecomunicazioni del 1927 fu infatti tutta concentrata sull’assegnazione di bande di frequenza differenti ai diversi servizi radio. Nel 1947 nasce nei laboratori Bell il "transistor", decretando la rapida fine delle valvole termoioniche: il consumo, il peso, l’ingombro e i costi della radio diminuiscono in modo vertiginoso.
Anche nel futuro la radio conserva tutta la sua validità ed importanza, soprattutto per i paesi in via di sviluppo in quanto diventa sempre più accessibile ed economica: in molti paesi essa è l’unico mezzo per far sì che le popolazioni siano collegate con il resto del mondo.
Il secondo importante strumento che è nelle nostre case è il telefono. Esso nasce circa 20 anni prima dell’esperimento di Marconi con il famoso brevetto di Graham Bell. L’inizio del telefono è difficile: il buono e il cattivo tempo veniva fatto dalle compagnie telegrafiche e l’aneddotica vuole che queste non vedessero nessun futuro in questo "giocattolo elettrico". Nel 1890 nascono le centrali di commutazione elettromeccanica ed il telefono si diffonde su scala mondiale.
Come si realizzano i collegamenti telefonici? Nei collegamenti continentali, soprattutto per quanto riguarda la rete di giunzione e i collegamenti tra centrali di commutazione, all’inizio è il cavo coassiale che ha il predominio. A partire dagli anni '50 però molte delle dorsali vengono realizzate con i cosiddetti "ponti radio": la ricostruzione della rete telefonica italiana, subito dopo la seconda guerra mondiale, avviene per circa la metà in cavo coassiale e per l’altra metà in ponte radio. A partire dal 1970, cioè con la scoperta della fibra ottica, questa ha il sopravvento e la quasi totalità della rete di giunzione oggi è realizzata in fibra ottica.
Per quanto riguarda invece i collegamenti transoceanici è interessante notare che dagli anni '30 agli anni '50, i collegamenti telefonici avvengono attraverso la radio, la famosa radio a "onde corte". Nell’anno 1956 si posa il primo cavo coassiale transoceanico con tutte le difficoltà che possiamo immaginare. Negli stessi anni vengono attuati i primi collegamenti radio via satellite geostazionario. Che cos’è il satellite geostazionario? E’ un satellite che ha un’orbita sul piano equatoriale a circa 36.000 km di distanza dalla terra: a questa distanza la forza centrifuga e la forza centripeta si equivalgono e quindi il satellite rimane geostazionario, cioè fisso rispetto alla superficie terrestre. In realtà l’intuizione di poter avere questi satelliti a questa distanza e quindi con solo 3 satelliti servire tutta la superficie del globo, era stata pubblicata nel 1945 da Arthur Clark, l’astronomo diventato poi anche scrittore di fantascienza con il famoso "2001 Odissea nello Spazio". Ma bisognava aspettare il 1957 per avere la prima realizzazione di un collegamento con un satellite geostazionario: bisognava realizzare i razzi che portassero il satellite a questa distanza, bisognava realizzare delle apparecchiature a bordo del satellite che resistessero a condizioni estremamente gravose di temperatura e di accelerazione di gravità, occorreva costruire a terra delle enormi antenne e degli amplificatori a così basso rumore che potessero captare i debolissimi segnali che venivano dallo spazio.
Nel 1957 viene lanciato il primo satellite russo "Sputnik" seguito dall’americano "Explorer" nel 1958, ma solamente nel 1965 viene lanciato il primo satellite commerciale della serie Intelsat, l’Intelsat I, il famoso " Early Bird" che permette di avere 240 circuiti telefonici tra Europa e Nord America. Da quel momento il numero dei canali telefonici attraverso sia i collegamenti via satellite e sia attraverso il cavo coassiale transoceanico, realizzato in seguito in fibra ottica, aumentano considerevolmente e i costi per canale diminuiscono causando una costante competizione tra cavi sottomarini e satelliti geostazionari.
Nelle nostre case il telefono arriva via cavo attraverso i collegamenti tra centrale telefonica e utente realizzati con il famoso "doppino telefonico" di rame che porta il segnale telefonico insieme alla energia elettrica che fa funzionare il sistema. I quasi 800 milioni di abbonati del mondo sono oggi collegati tra loro attraverso questa "ragnatela" di cavi.
Qual è il futuro del telefono? Nel futuro la situazione potrebbe invertirsi. Molti ritengono che il futuro del telefono, nato via cavo, sia infatti la radio. Questo è dovuto alla richiesta di "mobilità" degli utenti: tutti noi abbiamo assistito alla esplosione dei sistemi "cordless" e soprattutto alla esplosione del numero dei telefoni cellulari. Si stima che, intorno al 2005, il numero dei telefoni cellulari dovrebbe superare il numero dei telefoni fissi. A questi si aggiungono i sistemi LEO, i famosi Low Earth Orbit Satellites, cioè i satelliti a bassa quota, tipo Iridium e Globalstar, che sono situati non più su orbite a 36.000 km di distanza dalla terra ma solamente a circa 800 km di distanza. Essi non sono più fissi rispetto all’osservatore e quindi, perché l’osservatore sia sempre collegato con un satellite, occorrono una serie di satelliti con numeri che assomigliano a circa 70 satelliti per sistema. A queste piccole distanze, però, le potenze di trasmissione sono minori e quindi è possibile dei collegamenti diretti utente-satellite con un piccolo strumento che assomiglia a un telefono cellulare di quelli che conosciamo oggi. Viene realizzato il sogno di comunicare "anytime, anywhere, with anyone": in ogni momento, in ogni punto del globo, con chiunque.
E veniamo al terzo strumento, divenuto così importante nella nostra vita di tutti i giorni: la televisione. La televisione nasce in via sperimentale alla fine degli anni '20 sebbene il servizio regolare in bianco e nero inizi in Europa e negli Stati Uniti d’America soltanto alla fine anni '30. Alla fine degli anni '50 il servizio si estende in modo capillare e agli inizi degli anni '60 nasce la televisione a colori con i sistemi NSTC in America, SECAM nei paesi di lingua francese e PAL in Germania ed in Italia. La televisione nasce via radio: nelle reti radio terrestri il segnale del ripetitore viene ricevuto dalla selva di antenne che vediamo oggi sui nostri palazzi. Si tratta delle antenne Yagi – Uda dal nome dei due Professori giapponesi che le inventarono intorno al 1930 non pensando che in quel modo avrebbero sì contribuito alla diffusione della televisione, ma anche imbruttito il panorama delle nostre città. Sempre più si va diffondendo la diffusione diretta da satelliti geostazionari: ciò determina la crescita del numero delle antenne paraboliche sulle nostre case, anche se vi sono tentativi di non ripetere la brutta esperienza delle antenne Yagi – Uda, ma di avere una sola antenna parabolica per ogni condominio. In alcuni paesi, non in Italia, la televisione si sviluppa anche via cavo, la cosiddetta CATV. La televisione via cavo in Italia non si sviluppa a causa di una famosa legge varata nel 1975 secondo la quale chi realizzava un impianto di televisione via cavo poteva trasmettere un solo programma: ciò fece evidentemente perdere qualunque attrattiva economica a questo tipo di impresa.
Qual è il futuro della televisione? Il futuro della televisione è nel passaggio dalla televisione analogica alla televisione numerica. Perché questo? Per tutti i vantaggi che il mondo numerico offre. Innanzi tutto l’ambiente multimediale, vale a dire la possibilità che immagini, suoni, dati, testi diventino tutti "numeri", diventino tutti "bits" che possono viaggiare insieme. E secondo perché la televisione digitale permette la cosiddetta "interattività" dell’utente: non più un utente passivo che deve sottostare ad un palinsesto creato da qualcun altro ma un utente attivo che può creare un proprio palinsesto secondo i propri gusti.
E veniamo al quarto strumento che ormai alberga e trova posto in un numero sempre crescente nelle nostre case, cioè il computer. Il primo calcolatore nasce nel 1946 circa 50 anni fa. Era l’ENIAC, cioè l’Electronic Numerical Integrator And Computer con 18.000 valvole, diversi kW di assorbimento e capacità di calcolo modesta, una capacità di calcolo che farebbe sorridere i piccoli computer con cui si realizzano i giochi dei nostri bambini. L’evoluzione, soprattutto nella tecnica dei microprocessori, nella tecnica del software e nella tecnica delle interfacce - basti pensare al famoso "mouse" - rende rapidamente obsoleto il "calcolatore", considerato come uno strumento ingombrante situato in stanze climatizzate per pochi addetti ai lavori. Ricordo nei tempi della mia tesi quando per far "girare", come si diceva, un programma al calcolatore si andava con scatole intere di "schede perforate" di carta che venivano affidate ai "sacerdoti" con il camice bianco che operavano in queste stanze climatizzate e che poi restituivano i tabulati con il programma. Si passa da questo tipo di calcolatore al personal computer di facile uso e di larghissima diffusione.
Il personal computer nato nel 1976, cioè circa 20 anni fa, non rimane a lungo "isolato". Viene subito spontanea l’esigenza di comunicare con altri personal computer. Nel 1986 nasce Internet, la "rete delle reti". Nel 1992 nasce nel CERN di Ginevra il sistema multimediale World Wide Web. Gli utenti Internet crescono al ritmo di circa 10% al mese e se la crescita continuasse con questo ritmo nel 2003 ogni abitante della terra sarebbe connesso a Internet.
Nella prima fase di Internet, cioè nella seconda metà degli anni '80, i servizi offerti erano sostanzialmente quelli di posta elettronica (e-mail) e trasferimento di archivi (file-transfer). Nella seconda fase di Internet, cioè nella seconda metà degli anni '90, con lo sviluppo del World Wide Web nasce la possibilità di fornire all'utente una serie di servizi multimediali interattivi che avranno una influenza notevole sulla nostra vita. I principali sono:
- il commercio elettronico, che consentirà di fare acquisti senza muoversi da casa;
- il telebanking, cioè il poter fare operazioni bancarie dalla propria abitazione e dal proprio ufficio;
- la telefruizione di banche dati, la navigazione in Internet è un esempio lampante in questo senso;
- la telefruizione di beni culturali: cioè si potranno visitare i musei, stando seduti comodamente a casa.
Si potranno avere delle rivoluzioni nel nostro modo di vita, come:
- il telelavoro
- la teledidattica
- la telemedicina
e molti altri servizi che si aggiungono alla possibilità di fornire all’utente la cosiddetta televisione interattiva.
Prevarranno gli utenti Internet o gli utenti della TV digitale interattiva? Prevarrà il VOD, cioè il Video on Demand, o i servizi Internet? Vi sarà il Web TV o la TV on the Web? Sono tutti interrogativi che coloro che si occupano di previsioni si fanno continuamente. Vi sono segnali, a volte contraddittori, che mostrano l’andamento turbolento del mercato. Due anni fa negli negli Stati Uniti d’America il numero dei personal computer venduti ha superato quello dei televisori. Gli utenti Internet e gli utenti di telefoni mobili sono in crescita notevole e intorno al 2005 dovrebbero superare il numero degli utenti di telefoni fissi che attualmente, sono circa 800 milioni.
Lo sviluppo dei servizi Internet e della TV digitale interattiva comporta la necessità di disporre di mezzi trasmissivi di capacità adeguata che permettano all’utente l’accesso a questo tipo di servizi cioè alla cosiddetta "società dell’informazione". E tutti i paesi si stanno muovendo in questa direzione. In Giappone si prevede che entro il 2010 la rete in fibra ottica coprirà l’intero territorio nazionale e raggiungerà il 100% delle utenze residenziali. Negli Stati Uniti d’America l’Amministrazione Clinton vara il "National Information Infrastructure" che prevede la realizzazione delle "Information Super Highways". In Europa il Libro Bianco di Delors indica nella realizzazione delle grandi reti la rinascita competitiva europea.
Qual è il collo di bottiglia? Il collo di bottiglia è "the last mile", l’ultimo chilometro e mezzo, cioè il collegamento tra centrale e utente. E tutte le diatribe che abbiamo visto anche in questi giorni circa il progetto “Socrate”, prima iniziato e poi interrotto in molte delle nostre città, creando non pochi problemi ai Comuni e alle società che avevano ormai appaltato i lavori, sono certamente indicative delle difficoltà di fare previsioni. A fronte di investimenti ingenti, si cerca di adattare l’offerta alle prevedibili richieste dell’utente. Vari sono i sistemi in fibra ottica che vengono studiati: "Fiber to the home", la fibra fino a casa dell’utente; "Fiber to the building" cioè la fibra all’edificio; "Fiber to the curbe", cioè all’armadio che serve una serie di palazzi. D’altra parte, i grandi investimenti necessari per installare i sistemi in fibra ottica hanno fatto rivalutare l’umile doppino telefonico con tutti i sistemi XDSL dove l’"X" sta per una serie di sigle ed il resto è l’acronimo di "digital subscriber loop": si utilizza il doppino telefonico al massimo creando dei collegamenti sbilanciati, cioè con minore capacità verso la centrale perché le richieste di capacità utente-centrale saranno sicuramente minori di quelle centrale-utente. Sono attualmente in corso degli studi sulla possibilità di fornire Internet, ed i relativi servizi a larga banda, attraverso la radio. Si parla di televisione cellulare, un po’ come il telefonino cellulare. Si pensa che questo sistema sia di grande interesse soprattutto per i secondi e terzi operatori che devono entrare sul mercato e che non dispongono di una rete capillare. Vi sono anche i satelliti LEO e tra questi va citato il progetto Teledesic, il progetto di Bill Gates, che, con circa 840 satelliti, promette di dare entro qualche anno fino a 2Mbit/s al singolo utente, sicuramente di più di quanto oggi sia consentito con il doppino telefonico (36kbit/s o con una rete ISDN 128 kbit/s). Ed infine c’è qualcuno che ha pensato addirittura di utilizzare la rete elettrica, cioè i conduttori di elettricità che arrivano nelle nostre case, che con opportuni sistemi, potrebbero essere utilizzati per portare all’utente fino a circa 1Mbit/s.
Tutto questo sta ad indicare che siamo alle soglie di una rivoluzione epocale, che viene normalmente denominata società dell’informazione e che costituisce, a detta dei più illustri studiosi, una nuova frontiera per la società e l’economia. Questa società dovrebbe consentire il rilancio strutturale della competitività delle imprese, la creazione di nuove opportunità di occupazione, la trasformazione delle modalità dell’organizzazione del lavoro, un aumento dell’efficienza delle amministrazioni e delle istituzioni, in altre parole, il miglioramento della qualità di vita dei cittadini.
La rivoluzione è possibile grazie al progresso della tecnologia e alla rivoluzione numerica. Però è una rivoluzione che nasce dal "basso", dal mercato e dalla domanda che sono i veri motori del cambiamento. E quindi è chiaro che per questo è difficile fare previsioni di quali siano gli investimenti necessari a fronte di una domanda che ovviamente è ignota. L’utente non investe in tecnologie ma in servizi offerti a prezzi competitivi. Per ridurre i costi dei servizi è dunque necessaria l’abolizione dei monopoli, dei mercati chiusi, delle aree protette, dei prezzi politici. La regola deve essere il mercato e la concorrenza. Gli investimenti necessari sono certamente ingenti, devono essere reperiti nel privato e mossi dal mercato. Da qui nasce la necessità di diminuire l’attrito di primo distacco e la necessità di avere un progetto Europa a cui far seguire un progetto paese, di sviluppare la cultura informatica e di rendere sempre più semplice l’interfaccia uomo-macchina.
In Europa è stato preparato l’ormai famoso rapporto "Bangemann" in cui sono previste dieci applicazioni pilota proprio per facilitare la nascita della società dell’informazione in Europa. Una delle più importanti è quella del telelavoro, cioè di propagandare e di rendere possibile sempre più diffusamente la possibilità di lavorare a casa. C’è un grande risparmio energetico e una diminuzione dell’inquinamento ambientale, non c’è più bisogno del pendolarismo, si abbatte il concetto Tayloristico, nato nella prima rivoluzione industriale, dell’unità di luogo e di tempo per il lavoro: il luogo di lavoro potrebbe coincidere con il luogo di vita come era prima della rivoluzione industriale. Importanti sono le possibilità offerte ai lavoratori più svantaggiati come ad esempio, le donne, specie con figli piccoli, e i disabili. Maggiore tempo libero e possibilità di organizzarsi secondo i propri ritmi e le proprie inclinazioni. Certamente vi sono anche alcune perplessità: aumenteranno veramente le possibilità di lavoro? Vi saranno problemi di solitudine dell’uomo che non socializza più o socializza di meno?
Gli spunti di riflessione investono l’intera società dell’informazione. Il primo riguarda la tutela della privacy: molte attività quotidiane, ad esempio il teleshopping, lasceranno delle tracce elettroniche che potranno essere memorizzate. L’insieme interpretato di queste tracce consentirà di conoscere gli orientamenti e i comportamenti dei singoli. Siamo in presenza del grande fratello? Il secondo riguarda la TV interattiva e il broadcasting tradizionale: l’utente da bersaglio, da “target”, può diventare protagonista. Sarà questo appannaggio solo dei ricchi e degli istruiti? Aumenterà con questo le divaricazioni nella società?
Sono tutti spunti che certamente sono di grande interesse per i sociologi. Non essendo io un esperto in questo settore, ritorno rapidamente alla tecnologia, che mi è più congeniale, per indicare quali sono, secondo me, le tre grandi evoluzioni che condizioneranno sempre di più questo passaggio alla società dell’informazione.
La prima è l’evoluzione delle fibre ottiche. Già oggi le fibre possono trasmettere fino a 10 Gbit/s: in un piccolo filo di vetro delle dimensioni poco più grandi di un capello si possono trasmettere fino a 10 miliardi di informazioni al secondo. Con i sistemi WDM, "wavelength division multiplex", utilizzando più lunghezze d’onda, più "colori", all’interno della stessa fibra si sono raggiunte già velocità del Terabit/s, cioè 1000 miliardi di bit/s e per il 2005 ci si pone l’obiettivo del Petabit/s, cioè 1 milione di miliardi di bit/s.
La seconda evoluzione tecnologica che sarà estremamente importante è quella del computer. E' noto che maggiore è il numero dei transistor che costituiscono il processore del computer e maggiore è la capacità di calcolo. Negli anni '70 si aveva l'Intel 4004 che era l'ultimo ritrovato e che conteneva 2300 transistor. Negli anni '95 il Pentium oppure il Power PC contengono 3,5 milioni di transistor. Entro un decennio si pensa di poter contenere dentro il piccolo microprocessore fino a 100 milioni di transistor. Mantenendo l'attuale ritmo evolutivo, cioè un ordine di grandezza ogni 15/20 anni, sarà possibile arrivare intorno al 2020 a componenti elementari di dimensioni inferiori al nanometro, cioè un miliardesimo di metro, paragonabili quindi alle dimensioni degli enzimi delle cellule biologiche. Quindi la computer tecnology si confonderà con la biotecnology con delle conseguenze che oggi è difficile prevedere.
La terza grande evoluzione sarà quella della televisione. Si andrà verso una televisione tridimensionale in cui prevarrà la riproduzione della profondità, in cui gli oggetti sembrano avere un volume con estensione virtuale al di fuori dello schermo. La televisione tridimensionale è basata su sistemi che emulano il meccanismo della visione binoculare umana. Fino ad oggi si sono sviluppati sistemi con 2 telecamere con una distanza interassiale pari alla distanza di circa 65 mm, cioè la distanza tra gli occhi. Si possono prevedere più di due telecamere equispaziate che a coppie restituiscono diverse immagini stereoscopiche nella stessa scena vista da diverse posizioni. La restituzione potrebbe avvenire con un sistema di multiproiezione su schermo lenticolare. Non c'è bisogno di occhiali ma certamente elevata complessità di apparati e di schermo e un'enorme quantità di informazioni da trasmettere. Si va verso la realtà virtuale.
A fronte di questo scenario quale sarà il futuro? E' difficile rispondere a questa domanda. Per far intuire la difficoltà della risposta è interessante vedere come si collocano questi ultimi cento anni nel progresso della comunicazione umana e quale è stato il processo di accelerazione della tecnologia che ha portato alle soglie della società dell'informazione.
La prima vera pietra miliare della comunicazione umana si ebbe circa 3000 anni fa quando l'uomo inventa la scrittura e l'alfabeto moderno e la comunicazione passa da orale a scritta: non più Omero che tramanda l'Odissea e l'Iliade a voce, ma la scrittura, che rappresenta una forma inesauribile di immagazzinamento delle informazioni.
Occorre aspettare circa 2500 anni, cioè un lasso di tempo estremamente grande, per avere la seconda pietra miliare della comunicazione umana, quando 500 anni fa circa nasce la stampa a caratteri mobili. Guttemberg nel suo laboratorio di Magonza stampa la prima Bibbia: esplode la comunicazione che non è più solo nelle mani degli amanuensi e si attua la prima vera democratizzazione del sapere. Alcuni grandi eventi, come la diffusione delle idee illuministiche che poi portarono alla rivoluzione francese, forse non sarebbero avvenuti se non fosse stata inventata la stampa.
Duemilacinquecento anni fa tra la prima importante pietra miliare nella storia della comunicazione umana e la seconda. Passano solamente 400 anni fra la seconda e la terza, cioè quando 100 anni fa, come ricordavamo all'inizio di questa conversazione, nascono il telefono e la radio. Dal quel momento l'accelerazione delle scoperte tecnologiche è strabiliante: 60 anni fa nasce la televisione, 50 anni fa nasce il transistor, 25 anni fa nascono le comunicazioni via satellite, nasce il processore, nascono le fibre ottiche. Negli ultimi venti anni si sviluppa il personal computer con l'influenza sulla vita domestica e di lavoro che tutti conosciamo, si sviluppa il disco ottico come sostituto di enciclopedie e testi, esplode il numero dei telefoni cellulari, esplode il fenomeno Internet.
Oggi siamo alle soglie della società dell’informazione multimediale interattiva in cui sempre più i bit sostituiranno gli atomi.
Quale sarà dunque il futuro? Certamente è difficile prevederlo. A conclusione di questa mia chiacchierata vorrei riportare le conclusioni del Rapporto Bangemann: "i paesi che per primi entreranno nella società dell’informazione otterranno maggiori vantaggi. I paesi che, al contrario, ritarderanno il loro ingresso nella società dell’informazione, in meno di un decennio dovranno affrontare una disastrosa diminuzione di investimenti e di posti di lavoro".
E’ speranza comune che il nostro Paese possa essere all’avanguardia in questo settore e che possa anch’esso entrare nella società dell’informazione risolvendo così alcuni annosi problemi, non ultimo quello occupazionale che tanto angoscia tutta la società ed in particolare i giovani.
Con questa speranza concludo e ringrazio tutti per la cortese attenzione.
|
|
163)
Una chiave segreta ci protegge da truffe e da sguardi indiscreti
Fedi, F., W. Wolfowicz TELEMA n. 17/18, 1999 pp 66-70
|
|
164)
COST : European Cooperation in Science and Technology
Fedi, F.,
Abstract
COST ( COoperation in the Scientific and Technical Field ) is the oldest and widest European intergovernamental network for cooperation in research. Established by the Ministerial Conference in November 1971, COST now includes 35 European countries. The Ministerial Conferences that followed after 1971 ( Vienna in 1991, Prague in 1997, Dubrovnik in 2003 ) confirmed the continuing commitment to COST as a valuable and flexible instrument for promotion of European research and technological development by means of coordinated Actions among a large number of participants.
INTRODUCTION
“COST constitutes an experimental laboratory for European cooperation which will provide valuable information for the future”. With these prophetic words Mr. Camillo Ripamonti, Italian Minister of Scientific and Technological Research and Chairman of the Ministerial Conference convened in Brussels in November 1971, concluded the activities of the Conference which opened for 19 European countries the possibility of cooperation in the field of scientific and technical research.
The Conference - the first milestone of the history of COST - was the conclusion of an intense preparatory work carried out in the late 1960’s when the six countries then belonging to the European Community ( Belgium, Federal Republic of Germany, France, Italy, Luxembourg and the Netherlands) decided to take adequate initiatives as a reponse to the international challenging situation. The book written in that period by the famous French journalist Jean Jacques Servan Schreiber “ Le defi Americain” ( the American Challenge) is indeed a sign of the pressure of that time. The European Community of the Six realized that the only way to cope with the dangerous international competition was to recuperate the delays that Europe had accumulated in many areas of scientific and technical research. It also became evident that European industrial and scientific competitiveness could be secured in the long term only if research activities transcended narrow national confines and were carried out within Europe on a multinational basis involving the exchange of results.
In 1964 the Council of Ministers of the six Members States of the Community decides to establish a “ Committee for Medium-Term Economic Policy” which in 1965 sets up a Working Party on “ Scientific and Technical Research Policy”, known as PREST. In 1967 the first report from PREST - called the MARECHAL Report after the name of the Working Party’s Chairman – proposes to undertake a European cooperation in seven areas of scientific research (informatics, telecommunications, transport, oceanography, materials, environment and meteorology) and to open this cooperation to other 13 European countries. The cooperation is called COST, the acronym of European COoperation in the field of Scientific and Technical Research. In 1969 the AIGRAN Report - bearing the name of the new Chairman of PREST- is submitted to the Council of the six Ministers cointaining the proposal of 50 research themes for possible cooperation. In 1970 seven Technical Committees - one for each suggested research areas- are formed to examine the feasibility of the 50 research Actions and a Committe of Senior Officials is also appointed to coordinate the activities of the Technical Committees. The Ministerial Conference of the 22 and 23 November 1971 which brougth together the Ministers of Research of the 19 COST countries approved the first seven COST research Actions proposed by the Committee of Senior Officials and instructed the Committee to foster the European cooperation which the Conference had initiated.
Up to 1978, however, the launch of a new Action was a particularly difficult task since it required the ratification of the Parliaments of the countries who wanted to participate. It was only in 1978, with the adoption by the Council of the “ Memorandum of Understanding” as a legal instrument to speed up the procedures for the launching new Actions, that COST acquired a real flexibility and saw a considerable expansion of its activities.
In 1971 COST Actions are the only form of cooperation in science and technology at the European level and in many instances they pave the way to the subsequent initiatives of cooperation. In 1974 the European Science Foundation is established. In 1983 the First Framework Programme and in 1985 the EUREKA Programme are launched. The existence of these programmes notwithstanding, the interest of the European Scientific Community in COST constantly increased. From the first 7 Actions of 1971 COST has now an average of 200 Actions each year. From the 19 original countries, COST presently has 35 countries associated to its activities.
COST CHARACTERISTICS
Bottom- up approach. The initiative of launching a COST Action comes from the scientists and technical experts themselves. This approach has proven to be particularly suited to promote research of pre-competitive nature or of societal importance, to meet a growing demand from the scientific community and to anticipate and usefully complement the other research programmes of the European Union. COST is based on the coordination of national research initiatives funded through national funds. Duplications and gaps are therefore avoided and the consequent synergy allows a more efficient use of the national resources. The sole purpose of COST central funding- usually less than 1% of the national funds necessary to carry out an Action- is to establish the research “network” and to provide the organizational and operational basis for cooperation.
“A’ la carte” participation. Only the countries interested in the Action sign the relevant “Memorandum of Understanding”. The signature does not need parliamentary ratification. A minimum number of 5 signatures is needed to start a COST Action.
Equality of access. Participation is open without any restriction also to countries not belonging to the European Union . COST has therefore the ability to anticipate the evolving European political situation constituting a “bridge” towards the scientific communities of emerging countries.
Flexibiliy .Easy implementation and agile management of research Actions trough a simple structure. The Committee of Senior Officials ( CSO) is the main decision-making body and is made of representatives of all COST member countries. It formulates the general strategy of COST, appoints the various Technical Committees, approves the research Actions to be launched and prepares the relevant Memorandum of Understanding to be signed by the interested countries.The Technical Committees (TC) are responsible for a particular research domain and are formed by representatives of the COST countries.They evaluate the proposals for new Actions, monitor the Actions in progress and evaluate the results obtained by completed Actions. When necessary, they act as a catalyst to promote proposals for new Actions in particular areas.The Management Committees( MC) ( one for each Action), formed by national experts of the signatory countries, coordinates the activities of the Action and report to the relevant Technical Committee.
The secretariat to the CSO is provided by the Secretariat General of the Council of the European Union. Until 2002 the scientific secretariat to the Technical Committees and to the Actions was provided by the European Commission. Starting from 2003 the Scientific Secretariat to the COST Technical Committees and to the Actions is provided by the European Science Foundation ( ESF) through a COST Office located in Brussels. The ESF is the implementing Agent of COST and receives from the European Commission the COST fund that for the four years period of the sixth framework programme will be in the range of 50-80 M Euro.
QUALITY CONTROL
It i s ensured by the COST Technical Committees which follow the established “COST Guidelines “ for the assessment of new Actions, the monitoring of Actions in progress and the evaluation of completed Actions. The assessment of proposals for new Actions is usually performed by a Panel composed by the “Rapporteur “ appointed by the TC, the Scientific Secretary and by two external experts. The Panel prepares an “ Assessment Report”, which, after the approval of the Committee, is sent to the CSO together with the relevant MoU of the Action. The monitoring of the Actions in progress is based on the annual “ Progress Report” prepared by the MC of the Action and usually presented by its Chair during the yearly meeting with the relevant TC. The evaluation of completed Actions is performed by a Panel composed by the TC Rapporteur, the Scientific Secretary and external experts. The Panel prepares the “ Final Evaluation Report” which is presented to the TC by the Rapporteur and which, after TC approval, is given a wide circulation.
RESULTS
Scientific importance. Testified by the very high number of papers published in excellent scientific and technical journals or presented in the most important international Conferences. COST is well recognized also by the scientific communities outside Europe and, in particular, in the USA and in Japan.
Contribution to European competitiveness in the global market. Testified by the many contributions to normative and standardization bodies where COST results, COST models, COST methods are commonly referred to and recommended, by the many Small Enterprises originating in Europe from COST activities at the frontiers of modern technology and by the many examples of transfer of results to the European industry.
Societal importance as in the case of delicate issues arising from new technologies. With COST, the public is reassured that the solution of these issues is not restricted to individual countries and that is obtained in a high – standard, industry - independent , environment.
Contribution to the European Research Area. Shown by the many research projects in the framework programmes derived from ideas originated in COST and by the considerable number of Networks of Excellence deriving from COST Actions in the sixth Framework Programme.
OBJECTIVES FOR THE 2004-2007 PERIOD
The main COST objectives for the period 2004-2007 established by the new COST Presidency are the following.
-To position COST in the ERA stressing both the main characteristics of COST and the impact of the main results obtained and following the developments of the FP7 also to ensure adequate financial resources for COST.
-To introduce suitable reforms in COST and in particular: to increase the strategic role and the efficiency of the CSO, to optimize the structure of the domains, to fully utilize the potentialities of the COST Technical Committees and of the COST Office and to improve the quality of the Actions and the impact of the results.
-To increase the synergy with the European Commission, with the European Science Foundation, with EUREKA and with other European organizations.
-To increase the COST visibility and dissemination of results with political decision-makers, with regulatory and standardization bodies and with industry.
-To stimulate international cooperation in science and technology at the borders of Europe, particularly with the newly Independent States in the East and with the Mediterranean and Middle East Countries in the South and South East.
-To examine the possibilities and advantages to review the legal status of COST examining various alternatives for the longer term.
-To appoint a Panel of independent Scientific Experts to assess the reforms introduced and the results obtained also in view of a possible COST Ministerial Conference to be organized at the end of the 2004-2007 period.
CONTRIBUTION OF COST TO THE EUROPEAN RESEARCH AREA
In the recent official communication from the European Commission “Science and Technology, the key to Europe’s future – Guidelines for future EU policy to support research “six major objectives were identified. To most of these objectives COST- while retaining its characteristics- can give a substantial contribution. The COST Committee of Senior Officials is preparing an official COST position on this important and strategic issue..
“Improving the coordination of national research programmes “
This is what COST has been doing for more than 30 years being the oldest and widest European intergovernamental network for the coordination of research projects supported by national funds.
Multiplier effect. The funds provided by COST are less than 1% of the total value of the projects : with only about 20 million € per year, more than 30.000 European scientists are involved in research whose total value exceeds 2 billion € per year.
“Creating European centres of excellence through collaboration between laboratories”
COST can continue to make a substantial contribution to this objective. Precursor of advanced multidisciplinary research COST has always had a very important role in anticipating and complementing the activities of the Framework Programmes and in fostering the establishment of “Networks of Excellence” in many key scientific domains. In the field of Telecommunications and Information Science alone six Networks of Excellence in the Sixth Framework Programme - each involving from 40 to 70 key European Research Institutions - derived from COST Actions.
“Launching European technological initiatives”
In key areas like transport, mobile communications and nanoelectronics already identified by the Commission COST has had an active presence for a number of years. The contribution of COST to the standardization of the GSM mobile system- a European technological success- the transfer of results to the antennas industry or the development of a number of SMEs originating from COST Actions are only a few examples. COST will continue to involve industry in its activities also developing increased synergy with the industrial networks of EUREKA.
“ Making Europe more attractive for the best researchers”
COST has been at the forefront of this approach by: (a) creating a high-level stimulating scientific environment (b) encouraging the mobility of researchers across Europe through ” Short-Term Scientific Missions”,primarily used by young researchers, and “training schools” and “high-level research conferences”, used by senior and junior researchers for forefront research discussions.
CONCLUSIONS
During the past 32 years the COST framework has been of paramount importance for the founding in Europe of consolidated scientific traditions in many key areas at the frontiers of scientific knowledge, for the establishment of networks of thousands of leading Scientists, for the increase of mobility of researchers in Europe and for the improvement both of cooperation in science and technology and of a better understanding among European countries.On the basis of the outstanding results obtained by COST we may expect in the future a full appreciation of COST potentialities, an increasing support to COST activities and the full recognition of the role of COST in the European Research Area.
|
|
165)
Assessment, monitoring, final evaluation of COST Actions
Fedi, F.,
1. INTRODUCTION
COST (European CO-operation in the field of Scientific and Technical FieldResearch) is the oldest longest running and widest European intergovernmental network for cooperation in research. Established by a Ministerial Conference of 19 European states in November 1971, COST is at present serving the scientific communities of 35 European countries to cooperate in common research Actions supported by national funds. The funds provided by COST and obtained from the Framework Programmes - less than 1% of the total value of the Actions - support the COST cooperation network.
“Bottom up approach” (the initiative of launching a COST Action comes from the European scientists themselves), “à la carte participation” (only countries interested in the Action participate), “equality of access” ( participation is open also to European countries not belonging to the European Union ) and “flexible structure” (easy implementation and light management of the research initiatives ) are the main characteristics of COST.
The Committee of Senior Officials (CSO) is the main decision-making body and is made of representatives of all COST member countries. The Domain Committees (DC) are responsible for a particular research domain and are also formed by representatives of the COST countries. The Management Committees (MC) - one for each Action and formed by national experts nominated by the countries participating in the Action - coordinate the activities of the Action and report to the relevant Domain Committee. The secretariat to the CSO is provided by the Secretariat General of the Council of the European Union. The scientific and administrative Secretariat to the COST Domain Committees and to the Actions is provided by the European Science Foundation (ESF) - the implementing Agent of COST- through a COST Office located in Brussels on the basis of an “ad hoc”contract established between the European Commission and ESF for COST.
As precursor of advanced multidisciplinary research COST has a very important role for the realisation of the European Research Area (ERA) anticipating and complementing the activities of the Framework Programmes, constituting a “bridge” towards the scientific communities of neighbouring countries, increasing the mobility of researchers across Europe and fostering the establishment of scientific excellence in many key scientific domains. It covers basic and more applied research and also addresses issues of pre-normative nature or of societal importance.
Today there are more than 200 ongoing COST Actions and there have been several hundred Actions over the years. The scientific importance and relevance of COST results is well recognised even by the scientific communities outside Europe. They have also contributed to European competitiveness through many contributions to normative and standardisation bodies, many Small Enterprises originating in Europe from COST activities at the frontiers of modern technology and many examples of transfer of results to the European industry.
COST is unique in combining the following characteristics in a single, flexible structure. It is:
- a European "exploratorium" of new ideas in the most promising fields of research, thus functioning as a generator of initiatives in the Framework Programmes and as a potential source of industrial applications in EUREKA;
- a high-level scientific network able to tackle problems of societal importance;
- a framework able to ensure both scientific excellence and networking among European researchers;
- an effective tool to coordinate nationally funded research activities encouraging synergy and work sharing and avoiding duplications and gaps thus and synergy and work sharing encouraged allowing a more efficient use of national resources. A“ multiplier effect” is achieved: with the funds provided for COST networking bringing together a volume of research activities worth about 100 times as much is coordinated;
- an active partner in the European “neighbourhood” policy towards the scientific communities of emerging the EU’s "near neighbours";
- an asset for the EU RDT policy in its relation to the rest of the world.
2. QUALITY CONTROL AND EXPLOITATION OF RESULTS
In the activities for quality control and exploitation of results of COST Actions, the following four levels are identified:
- Assessment of proposals of new Actions
- Monitoring of Actions in progress
- Evaluation of completed Actions
- Dissemination of results.
Assessment, monitoring and evaluation activities are the main responsibility of the Domain Committees ( DCs) which are assisted by the COST Office and by the consistent mandatory use of external peer reviewers both for the assessment of full proposals for new Actions and for the final evaluation of completed Actions. These activities are aimed at maintaining the excellence of COST Actions combining best practices used in the scientific community with the traditional bottom up approach, equality of access and flexibility peculiar to COST. The COST Office co-operates with the DCs in ensuring the overall scientific quality control of COST Actions. Dissemination of results is mainly a responsibility of the COST Office.
Funding for the quality control and for the exploitation of results is provided by the COST Office using the funds from the RTD Framework Programmes allocated to COST.
3. ASSESSMENT OF PROPOSALS OF NEW ACTIONS
The assessment and selection of proposals for new Actions are based on a Continuous Open Call for Proposals based on a two stage process (preliminary and full proposal) normally with two cut-off dates per annum for the preliminary proposals. Preliminary proposals submitted after a cut-off date are retained for the next collection date.
The with th objective of the Call is toof increaseing the penetration and transparency of COST whileand of keeping the excellence through a peer review process and the scientific assistance of the COST Domain Committees as a key criterion inof COST activities. The Call maintains the special COST peculiar characteristic of “”bottom up” and uses a and the two stages process with of preliminary and full proposals in order to have the objective of avoiding, as far as is possible, oversubscription and to decrease the unavoidable disillusion of a low acceptance rate.
The selection criteria is based first on the evaluation of preliminary proposals carried out by the COST Domain Committees : only those proposals deemed of sufficient interest and potential intrinsic quality are invited to submit a full proposal. The full proposals are then examined through a peer-review procedure with external peer reviewers the results of which are presented to the relevant COST Domain Committee. The proposals recommended by the Domain Committees are then examined by the Committee of Senior Officials for final approval. In some cases the DC may act as a catalyst to promote the presentation of new Actions in promising strategic research areas. In case of rejection, the COST Office informs the proposer of this rejection.
The duties of the Domain Committees are specified in their Terms of Reference, which state that within the framework of the COST Continuous Open Call and the two stage submission process, the DC will assess proposals for new COST Actions relevant to its domain. The Domain Committee are responsible for the assessment and acceptance of preliminary proposals, for implementing quality control, through external peer review, of full proposals and for making recommendations for new Actions to the CSO.
Such Actions should:
a. have an innovative character and a high scientific/technological standard and contribute substantially to the coordination of research efforts;
b. give a strong and visible contribution to the European Society; through being of potential interest across Europe to scientific communities and research organisations; public environmental authorities; policy institutions; and to private companies and industry;
c. be based on careful considerations of interests, resources and budgetary consequences in the interested countries, as well as on assessments of the added value expected to be achieved through the coordination;
d. be broad and flexible enough to permit an interdisciplinary approach and later inclusion of activities not foreseen during the preparation, taking due consideration of point 10 below;
e. identify and take into account R&D efforts in other fora;
f. assist in the mobility of European young researchers.
When submitting a new Action to the CSO for approval:
g. the COST Office should ensure that the Technical Annex to the Memorandum of Understanding is structured as set out in the "Guide for Proposers of new COST Actions”
h. the DC should provide the CSO with an Assessment Report and any additional information that the CSO may need for making a decision on the Action.
Preliminary Proposals.
Within the framework of the COST Continuous Open Call and the two stage submission process, the initiative of preparing a proposal for a new Action is normally taken by a group of researchers belonging to the European scientific community following the traditional "bottom up" approach of COST. The "Coordinator" of this Group ( the “proposer” ) sends the preliminary proposal for the new Action to the COST Office using a specific template for Preliminary Proposals. Proposals may be submitted at any time. However, in order to fit in with DC and CSO meeting cycles, “cut off” dates – normally two per year - are usually set in accordance with these cycles.
The COST Office will perform a pre-check and reject any proposals which do not meet the criteria for COST support, e.g. proposals requesting research funding, and will then allocate the remaining preliminary proposals to the respective Domains based on proponent’s preference and its own judgment. Preliminary proposals that are not allocated to a COST Domain will be considered as “Interdisciplinary Exploratoria” (IE) and referred to an “IE Group”. A Chair of an IE will be nominated by the CSO President in consultation with the Executive Group of the COST CSO ( the JAF Group). The IE Chair will normally be a member of the CSO and, with the support of the COST Office, will form a small group of appropriate experts to guide the IE proposals through the selection process.
The preliminary proposal are reviewed by the DC which will rank their respective anonymised Preliminary Proposals. The automated ranking of Preliminary Proposals requires the attribution of 1 to 4 points to each criterion for each proposal in an automated process. The points attributed are added and a ranking established. Access to the ranking database is password protected. A minimum of eight DC members or experts have to rank each proposal to validate the assessment. A process of normalisation is then applied. Proposals not reaching the threshold of 17 points are not invited to submit a full proposal.
Full Proposals. The COST Office invites a predefined number of the top ranked Preliminary Proposals to submit Full Proposals. If selected, the proposer will be invited by the COST Office to submit a full proposal for a COST Action. A clear and comprehensive dissemination plan is requested in the full proposals and Proposers are advised that dissemination goes beyond publications and that COST already supports publications in peer reviewed research journals, special publications and books published through commercial publishers. Proposers are also adviced about the need to look at the final user community, if this is not already involved in the Action, and to develop workshops and other similar dissemination events aimed at such communities (standardisation bodies, industry, policy makers etc).
The COST Office, in close cooperation with the DCs, will convene external experts (taking also into consideration the pool of “DC experts”) to establish one comparative reviewing panel per Domain for each collection date (the External Expert Panels [EEP]). The EEPs will assess the Full Proposals on the basis of specific selection criteria. In the case of IE Full Proposals a similar process will be carried out by the IE Group. A “Rapporteur” from each DC will coordinate the EEP for that Domain and participate in the relevant EEP meetings. The COST Office will be represented by the respective Science Officer. The proposer of the Action will be invited to present the proposal to the EEPs. The Rapporteurs will present the EEPs’ proposals to the DCs. A meeting of DC chairs will be held afterwards to compile a ranking list of all Full Proposals on the basis of a proposal by the COST Office. On the basis of this overall ranking list, the JAF group will propose a shortlist for the CSO to approve within the given financial envelope. Each selected IE will be assigned to one DC for monitoring and evaluation upon completion.
3. MONITORING OF ACTIONS IN PROGRESS
Monitoring of Actions in progress is the second important task of the COST DC's.
The DC's Terms of Reference state that the DC will:
i. monitor the implementation of its COST Actions to ensure that the objectives as set out in their Memoranda of Understanding are met;
j. ensure coordination and exchange of information, as required, as well as complementarity and synergy between its Actions as well as with relevant activities in other Domain Committees in COST, the Community R&D programmes, EUREKA, the European Science Foundation, other European cooperative research frameworks and standardisation bodies and will appoint members of the DC as liaisons with these bodies, as appropriate;
k. take account of interdisciplinarity within its domain and with other domains and of new developments in its domain;
and that the DC will give an opinion to the CSO on any proposal pertaining to one of its COST Actions and concerning:
l. an extension or prolongation of an Action,
m. a change of the title or a modification of the objectives of an Action, or
n. participation of an international organisation or an institute from a non-COST country in an Action.
Such an opinion shall be given with full knowledge of the views of the Management Committee of the Action concerned; a decision on the proposal will then be taken by the CSO.
The DC advises the Actions assigned to its domain with regard to the scientific aspects within the objectives as laid down in the respective MoU. During the course of the Action, the DC will encourage the MCs to enter into dialogue with bodies such as EUREKA and CEN in order to link to industry and standardisation activities.
In the monitoring process, the DC is assisted by its Science Officer. The member of the DC appointed as Rapporteur is encouraged to attend meetings of the MC of the Action whenever it is considered necessary by the DC.
The Monitoring of an Action in progress is based on the annual "Progress Report" which each of the Actions is required to provide in accordance to a specific layout and forwarded to the Science Officer of the DC. The report is a "cumulative" report, i.e. it is updated annually and covers the period beginning from the start date of the Action. The entire set of Progress Reports of the Actions in progress in a certain domain is made available to the members of the DC. This is normally placed on the COST website with other Action documents.
The monitoring of Actions in progress is performed every year during a joint meeting between the relevant DC members and MC Chairs who present their Progress Report.
When the result of the monitoring is positive, no further action is taken by the DC. If the progress of an Action is found to be unsatisfactory, or may require some revision to the direction of the activities, the DC will inform the MC Chair who will be asked to respond to the comments and take appropriate measures. In the case of a very negative result of the monitoring, the DC will inform the CSO and recommend appropriate remedial measures or the termination of the Action.
The results of the monitoring of the Actions in progress will be taken into account by the DC in the allocation of the COST budget assigned to the Action.
4. EVALUATION OF COMPLETED ACTIONS
At the end of the Action, the MC will prepare a final report. The MC is encouraged to produce an extended version to be published and circulated as widely as possible with the aim to reach the scientific community and the users of the results achieved. However, the minimum requirement for the final report is the last updated version of the progress report covering the entire period of the Action.
The evaluation of completed Actions is the third important duty of a DC, which according to the DC's Terms of Reference "is responsible for the evaluation of its COST Actions on completion of each Action".
The final evaluation of the Action should be completed within six months of the termination date of the Action.
The basic objective of the final evaluation is to identify and describe how well the Action has reached its stated objectives, including the initiation of any follow-up activities and its impact on R&D activities in the area covered by the Action. The Action is evaluated as a whole examining the scientific and added value and the co-ordination and management aspects. Issues relating to possible future activities should be considered in the evaluation.
The final evaluation (peer review) of the Action is performed by the DC through an Evaluation Panel, which is supported by the Science Officer. The Panel normally comprises the DC Rapporteur, who will act as Coordinator of the Panel, additional DC members who may be appointed by the DC and up to two external experts and, if appropriate, a representative of the European Commission. The external experts are appointed by the COST Office on the basis of the recommendations of the DC Rapporteur from a database established by the COST Office on the basis of similar databases of the ESF and the European Commission. The views of the European Commission, through its Contact Points involved in DCs and those of other bodies, including the ESF Standing Committees, are normally taken into account by the Panel. In those cases, when it is impossible or difficult to convene the Evaluation Panel, the final evaluation may be carried out through a written process.
The updated last progress report of the Action, the final report or its draft, if available, and any other additional document considered useful will be made available to the members of the Evaluation Panel.
If the final results of the Action are presented in a Workshop or a Conference, the DC Rapporteur is encouraged to attend such a Workshop or Conference. Copies of any proceedings of such a Workshop or Conference will be made available to the Evaluation Panel members. The DC Rapporteur is also encouraged to attend the Final Meeting of the MC of the Action.
The Evaluation Panel will prepare the "Final Evaluation Report" according to a specific layout. The DC Rapporteur will act as Editor of the Report and will present it to the DC at the next DC meeting held after the issue of the Report.
The DC will complete the Evaluation Report and approve it. The Evaluation report will then be placed on the COST website and a summary will be prepared by the COST Office for inclusion in the COST Annual Report to be presented to the CSO.
5. DISSEMINATION OF RESULTS
Dissemination and exploitation of the results are also important tasks of the MC’s, the DC’s, and especially of the COST Office.
In their Terms of Reference it is envisaged that the DC should take all the measures it considers necessary to ensure efficient dissemination and/or exploitation of the results of its COST Actions, in close cooperation with the relevant Management Committees and taking account of the COST Policy on Dissemination and Monitoring the Impact of COST Results as set out in doc. COST 327/05 or in any new document amending or replacing it.
At the end of the penultimate year of operations, a revised dissemination plan is presented to the DC, as part of the annual report of the MC, for approval by the DC .
Two years after the completion of an Action, the COST Office endeavours to trace, whenever possible, any additional outcomes and impacts which may have been achieved by the Action.
The COST Office routinely publishes reports stressing outcomes and impacts of all Actions and overview documents highlighting achievements of COST Actions, as part of its general publicity and dissemination policy.
A general COST condition is that subject to copyright and licensing arrangements, a copy of publications arising from and supported by COST (including journal articles, books and conference and workshop proceedings) are deposited in an appropriate e-print repository of the COST Office.
|
|
166)
The Experience of COST
Fedi, F.,
1. Introduction
COST – the acronym for European CO-operation in the field of Scientific and Technical Research- is the longest running and widest European intergovernmental network for cooperation in research.
Established by a Ministerial Conference of 19 European States in November 1971, COST is at present serving the scientific communities of 35 European countries to cooperate in common research projects supported by national funds. The COST countries are:
the 34 COST Member States:
a) the 27 EU European countries (Austria,Belgium, Bulgaria, Cyprus, Czech Republic, Denmark, Estonia, Finland, France, Germany, Greece, Hungary, Ireland, Italy, Latvia, Lithuania, Luxembourg, Malta, The Netherlands, Poland, Portugal, Romania, Slovakia, Slovenia, Spain, Sweden, United Kingdom)
b) 7 European countries not belonging to the European Union (Croatia, Former Yugoslav Republic of Macedonia, Iceland, Norway, Serbia, Switzerland, Turkey) and the COST Cooperating State: Israel.
COST is a cornerstone for the development of the European Research Area (ERA) and instrumental in achieving the objectives set by the European Councils of Lisbon in 2000 and Barcelona in 2002. It is a unique instrument with a clear role in the ERA combining the following characteristics in a single, flexible structure:
- a European "exploratorium" of new ideas in the most promising fields of research, thus functioning as a generator of initiatives in the Framework Programmes and as a potential source of industrial applications in EUREKA;
- a high-level scientific network able to tackle problems of societal importance;
- a framework able to ensure both scientific excellence and networking among European researchers;
- an effective tool to coordinate nationally funded research activities encouraging synergy and work sharing and avoiding duplications and gaps thus allowing a more efficient use of national resources. A“ multiplier effect” is achieved: with the funds provided for COST networking a volume of research activities worth about 100 times as much is coordinated;
- an active partner in the European “neighbourhood” policy towards the scientific communities of the EU’s "near neighbours";
- an asset for the EU RDT policy in its relation to the rest of the world.
This paper describes the COST characteristics, its major successes and its recent developments. The
confirmed confidence and enthusiasm in the COST research community, the assured support from the
EU Seventh Framework Programmes and the consequent brilliant future for COST represents an
important opportunity for the scientific community on a world basis.
2. COST Characteristics
“Bottom up approach” (the initiative of launching a COST Action comes from the European researchers themselves), “à la carte participation” (only countries interested in the Action participate), “equality of access” (participation is open also to research communities of countries not belonging to the European Union) and “flexible structure” (easy implementation and light management of the research initiatives) are the main characteristics of COST.
As a precursor of advanced multidisciplinary research COST has a very important role for the realisation of the European Research Area (ERA) anticipating and complementing the activities of the Framework Programmes, constituting a “bridge” towards the scientific communities of emerging countries, increasing the mobility of researchers across Europe and fostering the establishment of scientific excellence in many key domains such as:
• Biomedicine and Molecular Biosciences
• Food and Agriculture
• Forests, their Products and Services
• Materials, Physical and Nanosciences
• Chemistry and Molecular Sciences and Technologies
• Earth System Science and Environmental Management
• Information and Communication Technologies
• Transport and Urban Development
• Individuals, Societies, Cultures and Health
COST contributes to reduce fragmentation in research investments in Europe and to open the European
Research Area to the cooperation on a world basis.
3. COST Structure
The Committee of Senior Officials (CSO) is the main decision-making body and is made of representatives of all COST countries. The Domain Committees (DC) are responsible for a particular research domain and are also formed by representatives of the COST countries. The Management Committees (MC) - one for each Action - are formed by national experts nominated by the countries participating in the Action, coordinate the activities of the Action and report to the relevant Domain Committee. The secretariat to the CSO is provided by the Secretariat General of the Council of the European Union, thus underlining the intergovernmental character of COST. The scientific and administrative Secretariat to the COST Domain Committees and to the COST Actions is provided by the European Science Foundation (ESF) - the implementing Agent of COST - through the COST
Office in Brussels.
4. COST Actions
COST networks, called Actions, are networks centred around research projects nationally funded in fields that are of interest to at least five COST countries. COST Actions cover basic and precompetitive research for peaceful purposes as well as activities of public utility, as part of the Lisbon objectives.
Every COST Action has an objective, defined goals and clear deliverables. They achieve results through network building activities such as meetings, workshops, training schools and short-term scientific missions. Existing COST Actions operate across a wide spectrum of scientific fields, can be multi-disciplinary in nature, and their results often maintain beyond their normal four-year duration.Today there are more than 200 ongoing COST Actions and there have been many hundred Actions over the years.
5. COST Open Call
A continuous COST Open Call with two collection dates per year to attract the best proposals for new COST Actions is used. The continuous call is thematically open and proposals playing a precursor role for other European programmes and/or initiated by early-stage researchers are particularly welcome. Proposers are invited to locate their topic within one Domain. However, inter-disciplinary proposals not fitting readily into a single Domain are also welcome.
Proposals are assessed in two stages. Preliminary Proposals, consisting of a brief overview and an impact description, are checked for eligibility first and, when eligible, assessed by the relevant DC against established criteria. The top ranked Preliminary Proposals are then invited to submit a Full Proposal which is peer reviewed according to the established assessment criteria. The time between the collection date and the approval of the best Full Proposals is approximately 6 months. Detailed information is available in the COST website: http://www.cost.esf.org
6. Scientific quality control
The scientific quality control of COST Actions is carried out by the COST Domain Committees assisted by the COST Office according to the COST “Guidelines for Assessment, Monitoring, Evaluation and Dissemination of Results of COST Actions” and it is composed of the following four steps:
- Assessment of proposals for new Actions.
- Monitoring of the Actions in progress. An Annual“ Progress Report” is presented by the MC Chair of
the Action in the yearly meeting with the relevant DC
- Evaluation of completed Actions.
- Dissemination of results.
7. COST Funding
The funds provided by COST are obtained from the European Research Framework Programmes. The support to COST Actions is less than about 1% of the total value of the Actions. During the Sixth Framework Programme (FP6) with around 20 million per year, more than 30.000 European scientists were involved in COST networking with their projects representing a total value which exceeded 2 billion euro per year. COST funding covers the coordination costs associated with organising and attending meetings, workshops and conferences; short-term scientific missions as well as publications and other dissemination activities. The research activities themselves (staff, infrastructure etc.) are supported through national funds and are not supported by COST.
8. COST Results
The scientific importance and relevance of COST results is testified by the thousands of scientific papers published in the most important scientific journals and by the many doctoral degrees obtained by students working in COST Actions. COST results have also contributed to European competitiveness through the many contributions to normative and standardisation bodies, the many Small Enterprises originating in Europe from COST activities at the frontiers of modern technology and by the many examples of transfer of results to the European industry. The societal importance of COST results has also to be underlined concerning delicate issues arising from pressing societal needs. The contribution of COST to the ERA is also particular important being COST in many instances a precursor of research projects and activities in the Framework Programmes.
9. COST contributes to reduce fragmentation of national research efforts in the ERA
The mission of COST is to be a flexible, fast, effective and efficient tool to network and coordinate nationally funded research activities at project level (Actions), bringing good scientists together under light strategic guidance and letting them work out their ideas. This is particularly important to contribute to reduce fragmentation of national research efforts in Europe where about 95% of the investments in research are done at a national level and only 5% is managed at the EU level.
10. COST contributes to increase the cooperation on a world basis
One of the key features of COST is its openness towards the rest of the world on the basis of mutual benefit. Institutions from non-COST countries can join an Action on a case- by- case basis once the mutual benefit has been ascertained, without the need for any formal arrangements at government or agency level. With such easy accessibility and light and fast procedures, COST has always been a “bridge” for the scientific communities both of the European neighbouring countries and on a world basis. More than 190 Institutions from non-COST countries are presently participating in COST Actions.
In general researchers from Institutions from non-COST countries do not receive economic support from COST. However COST established a particular strategy to encourage the participation in COST Actions of researchers from the so-called near-neighbouring countries: the Balkan and Eastern countries (Albania, Bosnia and Herzegovina, Armenia, Azerbaijan, Belarus, Georgia, Moldova, Russia, Ukraine) and the Mediterranean and north-African countries (Algeria, Egypt, Libya, Lebanon, Morocco, Syria, Tunisia, Jordan and the Palestinian Authority). For Institutions of these countries for each COST Action up to two researchers from each country may be reimbursed for attendance at the meetings of the Action and are eligible to be supported to participate in other activities decided at the level of individual Actions (short-term scientific missions, training schools and conferences).
In July 2007, two pilot schemes entered into force to facilitate the participation by Australian and New Zealand researchers in COST Actions. Developed in collaboration with the Australian Academy of Science and the Royal Society of New Zealand, and drawing on dedicated funds from their respective governments, the reciprocal agreements support the travel and subsistence costs of researchers from Australia and New Zealand participating in COST Actions. Within ten months the participation from these two countries has more than tripled. Presently, South Africa, India and Argentina are looking at the possibility of similar arrangements.
11. The future of COST
In December 2006 the EU Council decided to give to COST up to 250 million Euro for the duration of the EU Seventh Framework Programme (2007-20013).The increase of about 80% of the financial support to COST with respect to the Sixth Framework Programme is an acknowledgment of the excellence of COST and a reward of paramount importance for the entire COST community.
For the members of the COST Committee of Senior Officials whose dedication and sense of ownership made it possible to introduce a number of reforms which are real milestones in the history of COST. For the Chairs and members of the scientific COST Domain Committees, nominated among the most outstanding European scientists.
For the participants in the COST Actions, the real “ raison d’etre” of COST and, in general, for the entire European scientific community which with their overwhelming response to the COST Calls for the selection of new Actions confirmed all the vitality of the COST framework.
For the COST Secretariat provided, since the very beginning of COST, by the General Secretariat of the EU Council.
For the COST Office established by the European Science Foundation in Brussels acting as COST implementing agent.
12. Conclusions
It has to be hoped that the expected brilliant future of COST will continue to be an important opportunity to contribute:
- to reduce fragmentation of national research efforts in the ERA, and
- to enlarge the cooperation of the ERA to the European neighbouring countries and to the scientific community on a world basis.
|
|
167)
L’evoluzione della tecnologia della comunicazione negli ultimi cento anni della Nunziatella
Fedi, F., Conferenza” Dai Borbone alla Società dell’Informazione” Centro Alti Studi Difesa, Dicembre 2000
E’ il 1887. La Scuola Militare Nunziatella celebra il primo centenario della sua storia iniziata nel 1787 per volere dei Borbone. A capo del nuovo Esercito Italiano, come primo Capo di Stato Maggiore, vi è il Generale Enrico Cosenz ex allievo della Scuola di Napoli.
Nello stesso anno il fisico tedesco Heinrich Hertz dimostra sperimentalmente l’esistenza delle onde elettromagnetiche preconizzate in via teorica quattordici anni prima dal fisico inglese James Clerk Maxwell nel suo “Trattato di Elettricità e Magnetismo”.
Otto anni piu’ tardi, nel 1895 ,Guglielmo Marconi ha le sue geniali intuizioni. La prima è quella di utilizzare le onde elettromagnetiche a fini pratici per trasmettere informazioni a distanza "senza fili". La seconda è quella di ritenere che le onde elettromagnetiche possono propagarsi superando gli ostacoli. Sulla base di queste intuizioni effettua la trasmissione di un segnale telegrafico, la famosa lettera "S", i tre punti dell’alfabeto Morse, con le onde radio al di là della "collina dei Celestini", una collina che ancora oggi si vede davanti a Villa Marconi a Pontecchio vicino Bologna. Questo esperimento può considerarsi come la "nascita" di quelle telecomunicazioni che, attraverso tappe intermedie su cui evidentemente non posso soffermarmi, hanno portato nelle nostre case i tre strumenti che oggi in qualche modo condizionano e condizioneranno sempre di più la nostra vita: il telefono, la televisione e il computer.
Il telefono nasce circa 20 anni prima dell’esperimento di Marconi con il famoso brevetto di Graham Bell. L’inizio del telefono è difficile: il buono e il cattivo tempo viene fatto dalle potenti compagnie telegrafiche e l’annedotica vuole che esse non vedessero nessun futuro in questo "giocattolo elettrico". Nel 1890 nascono invece le centrali di commutazione elettromeccanica ed il telefono si diffonde su scala mondiale.
Le centrali di commutazione vengono collegate tra loro attraverso la cosiddetta “ rete di giunzione”. Sulla terra ferma , all’inizio, è il cavo coassiale che ha il predominio. A partire dagli anni '50 però molte delle dorsali a lunga distanza vengono realizzate con i cosiddetti "ponti radio": la ricostruzione della rete telefonica italiana, subito dopo la seconda guerra mondiale, avviene per circa la metà in cavo coassiale e per l’altra metà in ponte radio. A partire dal 1970 la fibra ottica ha il sopravvento e la quasi totalità della rete di giunzione è oggi realizzata in fibra ottica.
Per quanto riguarda invece i collegamenti transoceanici è interessante notare che dagli anni '30 agli anni '50, la rete di giunzione si realizza attraverso la radio, la famosa radio a "onde corte". Nel 1956 si allestiscono le prime navi “ posacavi ” e si posa il primo cavo coassiale transoceanico, con tutte le difficoltà che possiamo immaginare. Negli stessi anni vengono attuati i primi collegamenti radio via satellite geostazionario. Cos’è il satellite geostazionario? E’ un satellite che ha un’orbita sul piano equatoriale a circa 36.000 km di distanza dalla terra: a questa distanza la forza centrifuga e la forza centripeta si equivalgono e quindi il satellite rimane geostazionario, cioè fisso rispetto alla superficie terrestre. In realtà l’intuizione di poter avere questi satelliti a questa distanza e quindi con solo tre satelliti servire tutta la superficie del globo, era stata pubblicata nel 1945 da Arthur Clark , l’ astronomo diventato poi anche scrittore di fantascienza con il famoso "2001 Odissea nello Spazio". Ma bisognava aspettare il 1957 per avere la prima realizzazione di un collegamento con un satellite geostazionario: bisognava realizzare i razzi che portassero il satellite a questa distanza, bisognava realizzare delle apparecchiature a bordo del satellite che resistessero a condizioni estremamente gravose di temperatura e di accelerazione di gravità, occorreva costruire a terra delle enormi antenne e degli amplificatori a così basso rumore che potessero captare i debolissimi segnali che venivano dallo spazio. Nel 1957 viene lanciato il primo satellite russo "Sputnik" seguito nel 1958 dall’americano "Explorer". Solamente pero’ nel 1965 viene lanciato il primo satellite commerciale della serie Intelsat, l’Intelsat I, il famoso " Early Bird" che permette di avere 240 circuiti telefonici tra Europa e Nord America. Da quel momento il numero dei canali telefonici attraverso sia i collegamenti via satellite e sia attraverso il cavo coassiale transoceanico, realizzato in seguito in fibra ottica, aumentano considerevolmente , i costi per canale diminuiscono e si ha una costante competizione tra cavi sottomarini e satelliti geostazionari.
I collegamenti tra centrale di commutazione ed utenti, la cosiddetta “rete di distribuzione”, si realizza via cavo con il famoso "doppino telefonico" di rame che porta nelle nostre case il segnale telefonico insieme all’ energia elettrica che fa funzionare il sistema. Gli oltre 800 milioni di abbonati del mondo sono oggi collegati tra loro attraverso questa "ragnatela" di cavi.
Qual è il futuro del telefono? Nel futuro la situazione potrebbe invertirsi. Molti ritengono che il futuro del telefono, nato via cavo, sia infatti la radio. Questo è dovuto alla richiesta di "mobilità" degli utenti: tutti noi abbiamo assistito alla nascita dei sistemi "cordless" e, soprattutto, all’ esplosione del numero dei telefoni cellulari. Si stima che, intorno al 2005, il numero dei telefoni cellulari dovrebbe superare il numero dei telefoni fissi. A questi si aggiungono i sistemi LEO, i famosi” Low Earth Orbit Satellites”, cioè i satelliti a bassa quota, tipo Iridium e Globalstar, che sono situati non più su orbite a 36.000 km di distanza dalla terra ma solamente a circa 800 km di distanza. Essi non sono più fissi rispetto all’osservatore e quindi, affinchè l’osservatore sia sempre collegato , occorre disporre di una serie di satelliti , con numeri che assomigliano a circa 70 satelliti per sistema. A queste piccole distanze le potenze di trasmissione necessarie possono essere minori e quindi è possibile realizzare collegamenti diretti utente-satellite con un piccolo strumento che assomiglia a un telefono cellulare di quelli che conosciamo oggi. Viene realizzato il sogno di comunicare "anytime, anywhere, with anyone": in ogni momento, in ogni punto del globo, con chiunque.
E veniamo al secondo strumento, divenuto così importante nella nostra vita di tutti i giorni: la televisione. La televisione nasce in via sperimentale alla fine degli anni '20 sebbene il servizio regolare in bianco e nero inizi in Europa e negli Stati Uniti d’America soltanto alla fine anni '30. Alla fine degli anni '50 il servizio si estende in modo capillare e agli inizi degli anni '60 nasce la televisione a colori con tre sistemi diversi: NSTC in America, SECAM nei paesi di lingua francese e PAL in Germania, Italia e nel resto del mondo. La televisione nasce via radio: nelle reti radio terrestri il segnale del ripetitore viene ricevuto dalla selva di antenne che vediamo oggi sui nostri palazzi. Si tratta delle antenne Yagi – Uda dal nome dei due Professori giapponesi che le inventarono intorno al 1930 non pensando che in quel modo avrebbero sì contribuito alla diffusione della televisione, ma anche ad imbruttire il panorama delle nostre città. Sempre più si va diffondendo la diffusione diretta da satelliti geostazionari determinando la crescita del numero delle antenne paraboliche sulle nostre case, anche se vi sono tentativi di non ripetere la brutta esperienza delle antenne Yagi – Uda, ma di avere una sola antenna parabolica per ogni condominio. In alcuni paesi, non in Italia, la televisione si sviluppa anche via cavo, la cosiddetta CATV. La televisione via cavo in Italia non si sviluppa a causa di una famosa legge varata nel 1975 secondo la quale chi realizzava un impianto di televisione via cavo poteva trasmettere un solo programma: cioè faceva evidentemente perdere qualunque attrattiva economica a questo tipo di impresa.
Qual è il futuro della televisione? Il futuro della televisione è nel passaggio dalla televisione analogica alla televisione numerica. Per tutti i vantaggi che il mondo numerico offre. Innanzi tutto l’ambiente multimediale, vale a dire la possibilità che immagini, suoni, dati, testi diventino tutti "numeri", diventino tutti "bits" che possono viaggiare insieme. E secondo perché la televisione digitale permette la cosiddetta "interattività" dell’utente: non più un utente passivo che deve sottostare ad un palinsesto creato da qualcun altro ma un utente attivo che può creare un proprio palinsesto secondo i propri gusti.
E veniamo al terzo strumento che ormai alberga e trova posto in un numero sempre crescente nelle nostre case : il computer. Il primo calcolatore nasce nel 1946, circa 50 anni fa. Era l’ENIAC, cioè l’ “Electronic Numerical Integrator And Computer” con 18.000 valvole, diversi kW di assorbimento e capacità di calcolo modesta, una capacità di calcolo che farebbe sorridere i piccoli computer con cui si realizzano i giochi dei nostri bambini. L’evoluzione, soprattutto nella tecnica dei microprocessori, nella tecnica del software e nella tecnica delle interfacce- basta pensare al famoso "mouse"- rende rapidamente obsoleto il "calcolatore" dei primi tempi: strumento ingombrante, situato in stanze climatizzate, per pochi addetti ai lavori. Ricordo ai tempi della mia tesi quando per far "girare", come si diceva, un programma al calcolatore si andava con scatole intere di "schede perforate" di carta che venivano affidate ai "sacerdoti" con il camice bianco che operavano in queste stanze climatizzate e che poi restituivano i tabulati con i risultati del programma.
Intorno al 1976 si passa da questo tipo di calcolatore al personal computer, di facile uso e di larghissima diffusione. Il personal computer non rimane a lungo "isolato". Nasce spontanea l’esigenza di comunicare con altri personal computer. Nel 1986 nasce Internet , la "rete delle reti". Nel 1992 nasce nel CERN di Ginevra il sistema multimediale World Wide Web. Gli utenti Internet crescono al ritmo di circa 10% al mese e se la crescita continuasse con questo ritmo si stima che nel 2003 ogni abitante della terra sarebbe connesso a Internet.
Nella prima fase di Internet , cioè nella seconda metà degli anni '80, i servizi offerti sono sostanzialmente quelli di posta elettronica ( e-mail ) e trasferimento di archivi ( file-transfer ). Nella seconda fase di Internet , cioè nella seconda metà degli anni '90, con lo sviluppo del World Wide Web nasce la possibilità di fornire all'utente una serie di servizi multimediali interattivi che avranno una influenza notevole sulla nostra vita. I principali sono:
- il commercio elettronico, che consentirà di fare acquisti senza muoversi da casa;
- il telebanking, cioè il poter fare operazioni bancarie dalla propria abitazione e dal proprio ufficio;
- la telefruizione di banche dati, la navigazione in Internet è un esempio lampante in questo senso;
- la telefruizione di beni culturali: si potranno visitare i musei, stando seduti comodamente a casa;
- il telelavoro;
- la teledidattica ;
- la telemedicina
e molti altri servizi che si aggiungono alla possibilità di fornire all’utente la cosiddetta televisione interattiva.
Prevarranno gli utenti Internet o gli utenti della TV digitale interattiva? Prevarrà il VOD, cioè il ” Video on Demand”, o i servizi Internet? Vi sarà il “Web TV” o la” TV on the Web”? Sono tutti interrogativi che coloro che si occupano di previsioni economiche si fanno continuamente. Vi sono segnali, a volte contraddittori, che mostrano l’andamento turbolento del mercato. Due anni fa negli negli Stati Uniti d’America il numero dei Personal Computer venduti ha superato il numero dei televisori. Gli utenti Internet e gli utenti di telefoni mobili sono in crescita notevole e intorno al 2005 dovrebbero superare il numero degli utenti di telefoni fissi.
Lo sviluppo dei servizi Internet e della TV digitale interattiva comporta la necessità di disporre di mezzi trasmissivi di capacità adeguata che permettano all’utente l’accesso a questo tipo di servizi ,cioè alla cosiddetta "società dell’informazione". Il mezzo trasmissivo che meglio puo’ fornire le capacità di informazione necessarie è la fibra ottica. E tutti i paesi si stanno muovendo in questa direzione. In Giappone si prevede che entro il 2010 la rete in fibra ottica coprirà l’intero territorio nazionale e raggiungerà il 100% delle utenze residenziali. Negli Stati Uniti d’America l’Amministrazione Clinton vara il "National Information Infrastructure" che prevede la realizzazione delle "Information super highways". In Europa il” Libro Bianco” di Delors indica nella realizzazione delle grandi reti la rinascita competitiva europea.
Qual’ è il collo di bottiglia? Il collo di bottiglia è "the last mile", l’ultimo chilometro e mezzo, cioè il collegamento tra centrale e utente. E tutte le diatribe che abbiamo sentito qualche tempo fa circa il progetto Socrate, prima iniziato e poi interrotto creando non pochi problemi ai Comuni e alle società che avevano ormai appaltato i lavori, sono certamente indicative delle difficoltà di fare previsioni: a fronte di investimenti ingenti, si cerca di adattare l’offerta alle difficilmente prevedibili richieste dell’utente. Vari sono i sistemi in fibra ottica che vengono studiati. L’intero collegamento in fibra cioè il "fiber to the home", la fibra fino a casa dell’utente. Oppure collegamenti ibridi fibra-cavo coassiale: "fiber to the building" cioè la fibra solo fino all’edificio; "fiber to the curbe", cioè la fibra fino all’armadio che serve una serie di edifici. I notevoli investimenti necessari per installare sistemi in fibra ottica hanno fatto rivalutare l’umile doppino telefonico con i sistemi ADSL dove l’"A" sta per “asymmetric” ed il resto è l’acronimo di "digital subscriber loop": si utilizza il doppino telefonico al massimo delle possibilità creando dei collegamenti sbilanciati, cioè con minore capacità utente-centrale e maggiore capacità centrale-utente.
Sono attualmente in corso studi sulla possibilità di fornire Internet ed i relativi servizi a larga banda attraverso la radio. Si parla di “accesso radio” come possibilità di grande interesse per gli operatori che devono entrare nel mercato e non dispongono di una rete capillare. Grande scalpore ha suscitato la gara svolta in Italia per l’assegnazione delle cinque licenze dei telefonini di terza generazione: molti vedono nell’ UMTS la strada italiana verso Internet. Sono allo studio anche sistemi via satelliti LEO e tra questi va citato il progetto Teledesic di Bill Gates che, con circa 840 satelliti, promette di dare entro qualche anno fino a 2Mbit/s al singolo utente, sicuramente di più di quanto oggi sia consentito con il doppino telefonico( 36kbit/s ) o con una rete ISDN (128 kbit/s). Ed infine c’è qualcuno che ha pensato addirittura di utilizzare la rete elettrica, cioè i conduttori di elettricità che arrivano nelle nostre case, rete che con opportuni sistemi potrebbe essere utilizzata per portare all’utente fino a circa 1Mbit/s.
Tutto questo sta ad indicare che siamo alle soglie di una rivoluzione epocale che dovrebbe condurci verso la “società dell’informazione” e che costituisce, a detta di molti illustri studiosi, una nuova frontiera per la società e l’economia. Questa società dovrebbe consentire il rilancio strutturale della competitività delle imprese, la creazione di nuove opportunità di occupazione, la trasformazione delle modalità dell’organizzazione del lavoro, un aumento dell’efficienza delle amministrazioni e delle istituzioni, in altre parole il miglioramento della qualità di vita dei cittadini.
La rivoluzione è possibile grazie al progresso della tecnologia e alla rivoluzione numerica. E’ una rivoluzione che nasce dal "basso", dalla domanda del mercato che è il vero motore del cambiamento. A fronte di una domanda difficilmente prevedibile non è semplice pianificare gli investimenti necessari. L’utente non investe in tecnologie ma in servizi offerti a prezzi competitivi. Per ridurre i costi dei servizi si è resa necessaria l’abolizione dei monopoli, dei mercati chiusi, delle aree protette, dei prezzi politici e l’introduzione della concorrenza. Occorre stimolare la domanda : da qui nasce la necessità di avere un progetto Europa a cui far seguire un progetto paese, di sviluppare la cultura informatica e di rendere sempre più semplice l’interfaccia uomo-macchina.
In Europa è stato preparato l’ormai famoso rapporto "Bangemann" in cui sono state previste dieci applicazioni pilota proprio per facilitare la nascita della società dell’informazione . Una delle più importanti è quella del telelavoro, cioè rendere possibile sempre più diffusamente la possibilità di lavorare a casa. Un grande risparmio energetico e una diminuzione dell’inquinamento ambientale. Non c’è più bisogno del pendolarismo, si abbatte il concetto Tayloristico, nato nella prima “Rivoluzione Industriale”, dell’unità di luogo e di tempo per il lavoro: il luogo di lavoro coincide nuovamente con il luogo di vita come era prima della Rivoluzione Industriale. Importanti sono le possibilità offerte ai lavoratori più svantaggiati come in molti casi le donne e i disabili. Maggiore tempo libero e possibilità di organizzarsi secondo i propri ritmi e le proprie inclinazioni. Certamente vi sono anche alcune perplessità. Aumenteranno veramente le possibilità di lavoro? Vi saranno problemi di solitudine ?
Spunti di riflessione che investono l’intera società dell’informazione. Qualche esempio. La tutela della privacy : molte attività quotidiane, ad esempio il teleshopping, lasceranno delle tracce elettroniche che potranno essere memorizzate. L’insieme interpretato di queste tracce consentirà di conoscere gli orientamenti e i comportamenti dei singoli. Siamo in presenza del grande fratello previsto da George Orwell ?. La TV interattiva e il broadcasting tradizionale: l’utente da bersaglio, da “target” può diventare protagonista. Sarà questo solo appannaggio dei ricchi e degli istruiti? Aumenteranno con questo le divaricazioni nella società?
Sono tutti spunti che certamente sono di grande interesse per i sociologi. Non essendo io un esperto in tale settore, ritorno rapidamente nel campo della tecnologia che mi è più congeniale per indicare quali sono, secondo me, le due grandi evoluzioni che condizioneranno sempre di più il passaggio alla società dell’informazione.
La prima è l’evoluzione delle fibre ottiche. Già oggi le fibre possono trasmettere fino a 10 Gbit/s: in un piccolo filo di vetro delle dimensioni poco più grandi di un capello si possono trasmettere fino a 10 miliardi di informazioni al secondo. Con i sistemi WDM “ wavelength division multiplex” utilizzando più lunghezze d’onda all’interno della stessa fibra si sono raggiunte già velocità del Terabit/s, cioè 1000 miliardi di bit/s e per il 2005 ci si pone l’obiettivo del Petabit/s, cioè 1 milione di miliardi di bit/s. Non vi saranno limiti per le capacità trasmissive. L’utente potrà “scaricare” immagini e filmati quasi istantaneamente evitando le lunghe fastidiose attese di oggi di fronte agli schermi dei nostri computer.
La seconda evoluzione tecnologica che sarà estremamente importante è quella del computer. E' noto che maggiore è il numero dei transistor che costituiscono il processore di silicio del computer e maggiore è la capacità di calcolo. Negli anni '70 si ha l'Intel 4004 con 2300 transistor. Negli anni '95 il Pentium e il Power PC contengono piu’ di tre milioni di transistor. Entro un decennio si pensa che il piccolo microprocessore potrà contenere fino a 100 milioni di transistor. Mantenendo l'attuale ritmo evolutivo, un raddoppio circa ogni anno, sarà possibile arrivare intorno al 2020 a componenti elementari di dimensioni inferiori a 50 nanometri, cioè 50 miliardesimi di metro. A queste dimensioni si verificheranno fenomeni di meccanica quantistica e tra questi l’ “effetto tunnel ” : l’interruttore “aperto” potrebbe far passare comunque un po’ di corrente. Il silicio sarà probabilmente abbandonato. Sono già allo studio molecole organiche che possano comportarsi come “interruttori”: si raggiungono cosi’ dimensioni di pochi nanometri che permetteranno di avere su un singolo “chip “ miliardi di elementi. Avremo computer microscopici inseriti dovunque: sotto la pelle, per controllare la nostra salute; nei prodotti dei supermercati, per il pagamento automatico tramite Internet; nelle auto, per conoscere esattamente la località in cui ci troviamo tramite sistemi satellitari del tipo GPS ( global positioning systems), prenotare l’albergo piu’ vicino e guidare l’auto fino all’albergo.
A fronte di questo scenario quale sarà il futuro? E' difficile rispondere a questa domanda. Per intuire la difficoltà della risposta è illuminante vedere come si collocano questi ultimi cento anni nella storia del progresso della comunicazione umana e quale è stato il processo di accelerazione della tecnologia che ha portato alle soglie della società dell'informazione.
La prima vera pietra miliare della storia della comunicazione umana si ha circa 3000 anni fa quando l'uomo inventa la scrittura e l'alfabeto moderno: la comunicazione passa da orale a scritta, non più Omero che tramanda l'Odissea e l'Iliade a voce, ma la scrittura, che rappresenta una forma inesauribile di immagazzinamento delle informazioni. Si attua la prima democratizzazione del sapere che non è piu’ patrimonio dei ristretti cenacoli che hanno la possibilità di ascoltare la voce del maestro.
Occorre aspettare circa 2500 anni per avere la seconda pietra miliare della comunicazione umana, cioè quando 500 anni fa circa nasce la stampa a caratteri mobili. Guttemberg nel suo laboratorio di Magonza stampa la prima Bibbia: esplode la comunicazione che non è più appannaggio solo dei pochi in possesso dei testi diligentemente copiati dai monaci dei conventi. Si attua la seconda importante democratizzazione del sapere che porta, ad esempio, ad una rapida diffusione delle idee illuministe.
Duemilacinquecento anni tra la prima importante pietra miliare della storia della comunicazione umana e la seconda. Passano solamente 400 anni tra l’invenzione della stampa e la nascita del telefono e della radio circa 100 anni fa. Dal quel momento l'accelerazione delle scoperte tecnologiche è strabiliante. Sessanta anni fa nasce la televisione, 50 anni fa nasce il transistor, 25 anni fa nascono le comunicazioni via satellite, nasce il processore, nascono le fibre ottiche. Negli ultimi venti anni si sviluppa il personal computer, con l’influenza sulla vita domestica e di lavoro che tutti conosciamo; si sviluppa il disco ottico, che si propone come sostituzione di enciclopedie e testi; esplode il numero dei telefoni cellulari; esplode il fenomeno Internet. Oggi siamo alle soglie della società dell’informazione multimediale interattiva in cui sempre più i” bit” sostituiranno gli “atomi” ed in cui la vera ricchezza sarà possedere e trasmettere l’ “informazione”.
Quale sarà dunque il futuro? Certamente è difficile prevederlo. E’ pero’ interessante riportare le conclusioni del Rapporto Bangemann: "i paesi che per primi entreranno nella società dell’informazione otterranno i maggiori vantaggi. I paesi che, al contrario, ritarderanno il loro ingresso nella società dell’informazione, in meno di un decennio, dovranno affrontare una disastrosa diminuzione di investimenti e di posti di lavoro".
E’ speranza comune che il nostro paese possa collocarsi all’avanguardia in questo settore e che possa cosi’ contribuire a risolvere il problema occupazionale che tanto angoscia tutta la società ed in particolare i giovani. Come ex allievo desidero sottolineare che la Nunziatella ha affrontato con successo la nuova sfida di questa svolta epocale ed è entrata a pieno titolo con il suo sito Web nella società dell’informazione .
|
|
168)
COST : 30 Years of European Success in Science and Technology
Fedi, F., COST DAY, December 2004
INTRODUCTION
“COST constitutes an experimental laboratory for European cooperation which will provide valuable information for the future”. With these prophetic words Mr. Camillo Ripamonti, Italian Minister of Scientific and Technological Research and Chairman of the Ministerial Conference convened in Brussels in November 1971, concluded the activities of the Conference which opened for 19 European countries the possibility of cooperation in the field of scientific and technical research.
The Conference - the first milestone of the history of COST - was the conclusion of an intense preparatory work carried out in the late 1960’s when the six countries then belonging to the European Community ( Belgium, Federal Republic of Germany, France, Italy, Luxembourg and the Netherlands) decided to take adequate initiatives as a reponse to the international challenging situation. The book written in that period by the famous French journalist Jean Jacques Servan Schreiber “ Le defi Americain” ( the American Challenge) is indeed a sign of the pressure of that time. The European Community of the Six realized that the only way to cope with the dangerous international competition was to recuperate the delays that Europe had accumulated in many areas of scientific and technical research. It also became evident that European industrial and scientific competitiveness could be secured in the long term only if research activities transcended narrow national confines and were carried out within Europe on a multinational basis involving the exchange of results.
From 1971 to 1983 COST Actions are the only form of cooperation in science and technology at the European level and in many instances they pave the way to the subsequent initiatives of cooperation. In 1974 the European Science Foundation is established. In 1983 the First Framework Programme and in 1985 the EUREKA Programme are launched. The existence of these programmes notwithstanding, the interest of the European Scientific Community in COST constantly increased. From the first 7 Actions of 1971 COST has now an average of 200 Actions each year. From the 19 original countries, COST presently has 35 countries associated to its activities.
COST CHARACTERISTICS
COST has several essential characteristics that have contributed to its success and which are not all encountered together in other European scientific frameworks.
Bottom-up approach.
The initiative of launching a COST Action comes from the scientists and technical experts themselves. This approach has proven to be particularly suited to promote research of pre-competitive nature or of societal importance, to meet a growing demand from the scientific community and to anticipate and usefully complement the other research programmes of the European Union. COST is based on the coordination of national research initiatives funded through national funds. Duplications and gaps are therefore avoided and the consequent synergy and work sharing allows a more efficient use of the national resources. The sole purpose of COST central funding - usually less than 1% of the national funds necessary to carry out an Action - is to establish the research “network” and to provide the organizational and operational basis for cooperation.
“A la carte” participation.
Only the countries interested in the Action agree to participate by signing the relevant “Memorandum of Understanding” to establish the research network (COST Action). A minimum number of 5 signatures is needed to start a COST Action, thereby ensuring a European dimension.
Equality of access
Participation is open without any restriction also to countries not belonging to the European Union. COST has therefore the ability to anticipate the evolving European political situation constituting a “bridge” towards the scientific communities of countries belonging to the whole of Europe.
Flexibility and light management
Easy implementation and agile management of research Actions through a simple structure. The Committee of Senior Officials (CSO) is the main decision-making body and is made of representatives of all COST member countries. It formulates the general strategy of COST, appoints the various Technical Committees, approves the research Actions to be launched and endorses the relevant Memorandum of Understanding to be signed by the interested countries. The Technical Committees (TC) are responsible for a particular research domain and are formed by representatives of the COST countries. They evaluate the proposals for new Actions, monitor the Actions in progress and evaluate the results obtained by completed Actions. When necessary, they act as a catalyst to promote proposals for new Actions in particular areas and liaise with relevant other international organisations or committees. The Management Committees (MC) (one for each Action), formed by national experts of the signatory countries, coordinate and implement the activities of the Action (duration 4-5 years), disseminate the results of the Action and report to the relevant Technical Committee.
The secretariat to the CSO is provided by the Secretariat General of the Council of the European Union. Until 2003, the scientific secretariat to the COST scientific advisory structure, the Technical Committees, and to the Actions was provided by the European Commission. Starting from 2003 the scientific, administrative and technical Secretariat to the COST Technical Committees and to the Actions is provided by the European Science Foundation (ESF) through a COST Office located in Brussels. The ESF is the implementing Agent of COST and receives from the European Commission the operational funds for COST which for the four year period of the Sixth Framework Programme should be at a final level of €80 M. Thus, COST is a significant example of developing synergies in a multi-level partnership between COST, the General Secretariat of the EU Council, the European Commission and the ESF and of devolved management by the Commission.
QUALITY CONTROL
The quality control in COST is ensured by the COST Technical Committees (TC) which follow the established “COST Guidelines“ for the assessment of new Actions, the monitoring of Actions in progress and the evaluation of completed Actions.
The assessment of proposals for new Actions is usually performed by a Panel including a “Rapporteur“, appointed by the TC, and external experts. A wide consultation is also performed to ensure maximum synergy and minimum duplication between the Action and related activities in Europe. This consultation includes the European Commission in relation to the Framework Programme and other activities across the various Directorates-General; with other European agencies (e.g. the European Environment Agency –EEA); the ESF; EUREKA and others, including industrial groupings and standards bodies. The Panel prepares an “Assessment Report”, which, after the approval of the Committee, is sent to the CSO together with the relevant MoU of the Action.
The monitoring of Actions in progress is based on the annual “Progress Report” prepared by the MC of the Action and usually presented by its Chair during the yearly meeting with the relevant TC.
The evaluation of completed Actions is performed by a Panel composed by the TC Rapporteur, and external experts. The Panel prepares the “Final Evaluation Report” which is presented to the TC by the Rapporteur and which, after TC approval, is given a wide circulation so that its impact is known and can be assessed.
IMPACT OF COST RESULTS
Scientific importance and relevance
This is testified by the very high number of papers published in excellent scientific and technical journals or presented in the most important international Conferences. COST is also well recognized by the scientific communities outside Europe and, in particular, in the USA, in Canada and in Asia.
Contribution to European competitiveness in the global market
Testified by the many contributions to normative and standardization bodies where COST results, COST models, COST methods are commonly referred to and recommended. It is also testified by the many Small Enterprises originating in Europe from COST activities at the frontiers of modern technology and by the many examples of transfer of results to the European industry. The COST contribution to the standardisation of the GSM system - a European success - or the European Centre for Medium-Range Weather Forecasting (ECMWF) in Reading, UK, grown out of an early COST Action in the meteorology domain are only two of many examples.
Societal importance
This is the case of delicate issues arising from new technologies. With COST, the public is reassured that the solution of these issues is not restricted to individual countries and that it is obtained in a high-standard, industry-independent, environment. The establishment of the exposure limits to base stations for mobile communications by a COST Action is one example in this direction. COST has relations with a series of International and European bodies such as World Meteorological Organization, (WMO), World Health Organization ( WHO), International Telecommunications Union ( ITU), European Standardization Telecommunications Institute ( ETSI) etc.
Contribution to the Framework Programmes
Shown by the many research projects in the framework programmes derived from ideas originated in COST and by the considerable number of Networks of Excellence deriving from COST Actions in the Sixth Framework Programme.
CONTRIBUTION OF COST TO THE EUROPEAN RESEARCH AREA
In the Commission’s Communication published in June 2004 (“Science and technology, the key to Europe’s future – Guidelines for future EU policy to support research” ) six major objectives have been identified. COST- with its defining characteristics- can make a substantial contribution to most of these objectives.
1. “Creating European centres of excellence through collaboration between laboratories”. COST can continue to make a substantial contribution to this objective. Precursor of advanced multidisciplinary research, COST has had a very important role in anticipating and complementing the activities of the Framework Programmes and in fostering the establishment of “Networks of Excellence” in many key scientific domains. In the field of Telecommunications and Information Science alone, six Networks of Excellence in the Sixth Framework Programme derived directly from COST Actions.
2. “Launching European technological initiatives”. In key areas like transport, mobile communications and nanoelectronics already identified by the Commission COST has had an active presence for a number of years. The contribution of COST to the standardization of the GSM mobile system- a European technological success- the transfer of results to the antennas industry or the development of a number of SMEs originating from COST Actions are only a few examples. COST will continue to involve industry in its activities also developing increased synergy with the industrial networks of EUREKA.
3. “Stimulating the creativity of basic research through competition between teams at European level”. COST could be a natural partner in developing basic research through networking. The proposed ERC has still to find its place, role, objectives and interrelations within ERA, but since COST has always contributed to basic science, COST’s experience and in-struments should be considered when, once established, the ERC will find it nec¬essary to seek support for networking objectives and procedures. It has to be noted that COST is a true all-European cooperation mechanism that offers opportunities both for science-driven and society-driven research and that is unique in cooperating also with non-EU countries.
4. “Making Europe more attractive to the best researchers”. COST has been at the forefront of this approach by: (a) creating a high-level stimulating scientific environment (b) encouraging the mobility of researchers across Europe through ” Short-Term Scientific Missions”, primarily used by young researchers, and “training schools” and “high-level research conferences”, used by senior and junior researchers for forefront research discussions.
5. “Developing research infrastructure of European interest”. Although not focused directly on infrastructure development, COST initiatives have led to such developments (e.g., the European Centre for Mid-range Weather Fore¬casts).
6. “Improving the coordination of national research programmes”. It is the mis¬sion of COST to provide networking for research supported by national funds and this is what COST has been doing for more than 30 years. In this re¬spect COST has anticipated many European RTD collaborative mechanisms. The role of COST should be developed and strengthened in the perspective of the ERA and FP7. It is important that research networking at a European level – for which the COST mechanism is excellent – be properly recognised and funded within this axis. Taking into ac¬count that an essential part of all national research activities in Europe are not included in programmes, this axis shall not be limited to coordination of for¬mal, national research programmes but should include the networking of researchers. Thus, ERA-NET and Art.169 on one side and COST on the other side cannot be considered as overlapping, but are complemen-tary as COST coordinates at researcher level while ERA-NET and Art.169 act at programme level.. One might envisage that COST Ac¬tions could generate ERA-NETs on top¬ics/issues where a critical mass and interest has been gathered through a large number of countries through various COST activities. Similarly, COST Actions could be also very helpful in implementing research and applica¬tion activities addressing identified strategic cross-national topics and issues by established ERA-NETs, not to speak of fully opened national R&D programmes. Consequently, contacts between COST and ERA-NETS in appropriate fields in order to establish a mutual information flow shouldbe established.
CONCLUSIONS
COST ( Cooperation in the field of Scientific and Technical Research) is the oldest and widest European intergovernamental network for cooperation in research. Established by the Ministerial Conference in November 1971, COST now includes 35 European countries. The Ministerial Conferences that followed after 1971 ( Vienna in 1991, Prague in 1997, Dubrovnik in 2003 ) confirmed the continuing commitment to COST as a valuable and flexible instrument for promotion of European research and technological development by means of coordinated Actions among a large number of participants.
During the past 32 years the COST framework has been of paramount importance for the founding in Europe of consolidated scientific traditions in many key areas at the frontiers of our knowledge, for the establishment of networks of thousands of leading Scientists, for the increase of mobility of researchers in Europe and for the improvement both of cooperation in science and technology and of a better understanding among European countries.On the basis of the outstanding results obtained by COST we may expect in the future a full appreciation of COST potentialities, an increasing support to COST activities and the full recognition of the role of COST in the European Research Area.
|
|
169)
Europe needs the brilliant outsider
Fedi, F., Research Europe – View from the Top, February 2005
EUROPE NEEDS TO OPEN ITS DOOR TO THÈ BRILLIANT OUTSIDER.
Europe has come a long way since the launch of the first Framework Programme over twenty years ago. How, we have political commitment for the European Research Area in the form of the Lisbon and Barcelona summits, although the recent report by Wim Kok showed how far we still have to go to meet these objectives.
The political acceptance of the need for a well-funded research base is encouraging. This base is necessary to strengthen the EU and its economy, to compete with the US and the emerging challenges from Asia. The Commission broke new ground in its document "Guidelines for future EU policy to support research"; not least in the creation of an open debate in the community. It has also responded to calls from researchers for a pan-European initiative to support basic research through competition—the European Research Council.
I certainly welcome this move. We really must ensure that we identify the best researchers in Europe and give them the support they deserve. The problem, as always, lies in the detail. In my opinion, the ERG has to guard against being overly conservative in its approach, and specifically, it has to make room for 'brilliant outsiders'.
The ERG must take risks, reward strong ideas even if they are unfashionable, and help young researchers. Barriers to genuinely new thinking within the academic establishment are not without precedent. One famous example is of Guglielmo Marconi who was the first to come up with the idea of using electromagnetic waves to transmit information. Around 1900 Marconi was planning to connect Europe and Canada using radio waves, but ran up against obstacles in the form of preconceptions in academia. Famous mathematicians had calculated that the maximum distance radio waves could cover was only about 300 km, much less than the breadth of the Atlantic. Why? Because at that time, nobody knew about the existence of the ionosphere, the atmospheric layer that bends radio waves, allowing them to propagate over much greater distances. About 20 years later Appleton experimentally demonstrated the existence of the ionosphere and received the Nobel prize for this work.
What is the relevance of Marconi's experience to the debate about the ERG? In building this structure we must be careful to support young scientists with brilliant ideas even if they do not belong to the existing order or 'club' of academia. During discussions on the ERG at the Euroscience Open Forum in Stockholm in 2004, the geneticist Barry Holland made the point that in the UK, a scientist maybe master of his scientific destiny when he is around 30 but that in other countries he is suffocated by the 'old lions' and has to wait until at least 40 to fulfill his potential.
It is imperative that Europe builds an ERG that is open to new ideas and ready to help young scientists. For example, this could take the form of a number of highly competitive support schemes allowing the most promising to set up their own research group for a period of some years.
Such career development would attract brilliant students to research and, as independently funded scientists, these budding researchers would be protect-ed from old establishment rules, and relatively free from pressure to conform to prevailing ideas from 'above'.
Another issue with the ERG approach is whether a wholly competitive research allocation mechanism is sufficient. Researchers are both intensely competitive and yet wish to cooperate with one another. We neglect this aspect of European research at our peril. We have to encourage cooperation between scientists from all parts of Europe, and ensure that less developed parts of the EU are not excluded because of competition. Indeed, they may become very competitive if they are able to work with partners from the more developed parts of Europe. To make this happen is not only a moral obligation but makes strong political sense—the human potential of the new member states will be critical in supplying the estimated 700,000 new researchers needed by 2010 to meet the objectives of Lisbon and Barcelona.
In this debate we should not forget the existing instruments available for the future policy of European research. The European Cooperation in the field of Scientific and Technical Research (COST) System of research cooperation is a good example: this helps young researchers collaborate via a fast and efficient framework under strategic guidance that gives them the freedom to work out their ideas. We need an ERG but, equally, we need to ensure that other instruments with a proven track record like COST are supported so that we can truly develop the European Research Area.
Francesco Fedi
|
|
170)
The contribution of COST to the future european research policy
Fedi, F.,
COST- the acronym for European COoperation in the field of Scientific and Technical Research - is the oldest and widest European intergovernamental network for cooperation in research. Established at the initiative of the Council of then European Communities by a Ministerial Conference of 19 European states in November 1971, COST is at present serving the scientific communities of 35 European countries to cooperate in common research projects supported by national funds. The funds provided by COST and obtained from the current Framework Programme FP 6 - less than 1% of the total value of the projects - support the COST cooperation network through which, with only around 20 million € per year, more than 30.000 European scientists are involved in researchs having a total value which exceeds 2 billion €per year. This is the financial worth of the European added value which COST achieves. “Bottom up approach” (the initiative of launching a COST Action comes from the European scientists themselves), “à la carte participation” (only countries interested in the Action participate), “equality of access” ( participation is open also to European countries not belonging to the European Union ) and “flexible structure” (easy implementation and light management of the research initiatives ) are the main characteristics of COST. As precursor of advanced multidisciplinary research COST has a very important role for the realisation of the European Research Area (ERA) anticipating and complementing the activities of the Framework Programmes, constituting a “bridge” towards the scientific communities of emerging countries, increasing the mobility of researchers across Europe and fostering the establishment of “Networks of Excellence”in many key scientific domains such as: Physics, Chemistry, Telecommunications and Information Science, Nanotechnologies, Meteorology, Environment, Medecine and Health, Forests, Agriculture and Social Sciences. It covers basic and more applied research and also addresses issues of pre-normative nature or of societal importance.
For the immediate future, especially over the coming triennium, COST will be facing a number of challenges to which it is responding with ambitious objectives.
The first concerns the positioning of COST in the European Research Policy stressing both the main characteristics of COST and the impact of the main results obtained and following the developments of the next Framework Programme (FP7) also to ensure adequate financial support to COST. Considering the axes set out by the recent EU Competitiveness Council held on March 16, it appears that COST can make a substantial contribution to the European Research Policy. Through its networks, it provides a very efficient mechanism for the training of researchers and for the interchange of ideas and people between participating institutions in Europe. COST seeks research excellence of world class quality in Europe in a wide range of sectors and disciplines and achieves this through peer reviews conducted by its Technical Committees of national experts. The exploitation of results of basic research through the transfer of knowledge between researchers, centres of excellence and enterprises has always been a characteristics of COST. COST Actions link laboratories from all parts of the research spectrum and involve universities, national research organisations and industry. They have led to results which have reinforced the European competitiveness : the contribution to the standardisation of the GSM system -a European success- is only one of the many examples . The significant number of networks of excellence originated from COST Actions in FP6 is another sign of the COST effectiveness. Special mention to mark the results of COST Actions deserves also the European Center for Medium and Long Term Weather Forecasts in Reading, UK, which has grown out of an early Action in the meteorology domain.
The second important objective is to promote the participation of the European Commission (EC) in COST activities and to increase the synergy with the European Science Foundation (ESF) and with other European frames such as EUREKA and ESA. Active involvment of representatives of the different departments of the European Commission – DG Research, in particular, but also other DGs, for instance, DG Environment and Entreprise and DG Agriculture and Fisheries - in the work of the Technical Committees should follow the existing highly valued participation of DG Information Society in the relevant COST Technical Committee. At the same time, COST would welcome the Commission to take part at other levels of COST activities and governance. The future form of the Commission’s active participation in COST might be clarified in the FP 7 proposals. Synergy with the ESF is already under way: since last year the ESF has become the implementing agent for COST and provides the scientific secretariat to COST Technical Committes and Actions through a dedicated and newly created COST Office based in Brussels. The European research community has much to gain from this collaboration which, with adequate and enhanced funding, should create a really solid basis for the achievement of the ERA.
The third objective is to follow COST traditions in stimulating international cooperation in science and technology at the borders of Europe, particularly with the newly Independent States in the East and with the Mediterranean and Middle East Countries in the South and South East. In this respect, the General Secretariat of the Council of the EU which provides the secretariat to the COST governing body, the Committee of Senior Officials, will play a crucial role especially in legal and political issues.
All research organizations need to look at their objectives and methodologies and COST has always been open to such independent scrutiny. Following on from the last assessment performed by a panel of independent experts before the last Ministerial Conference held in Dubrovnik in 2003, the fourth important objective is to introduce a number of reforms in COST and in particular: to increase the strategic role and the efficiency of the Committee of Senior Officials, to optimise the structure of the research domains, to maximise the potentialities of the COST Technical Committees and of the COST Office and to improve the impact of the results of its Actions. Many of the reforms are already set into motion or under way taking also into account the cross-the board analysis of a recent special report of the EU’s Court of Auditors on FP spending, which underlines the advantage of simplicity and comprehensibility of contracts and procedures for the “users” . A new executive group has been formed in the Committee of Senior Official and the work of this Committee is being developed so that it really does become the main governance and strategic body on behalf of the COST Ministers. . Domain reviews are now being put in hand, the first addressing chemical and physical sciences. The new COST Office, provided by the ESF, is expected to introduce much more flexibility into the system. Ways in which the period of delay between approval of Actions and their initiation can be substantially reduced while still preserving the inter-governmental nature of the cooperation are presently under examination. Following the COST tradition, it is envisaged that a Panel of independent scientific experts will be appointed at the end of this triennium to assess the reforms introduced and the results obtained also in view of a future COST Ministerial Conference.
I believe that, although the first and oldest networking research structure, COST has maintained its entire validity for the European scientific community and that it can play an increasingly important role in fulfilling the European Council’s ambition of Europe being the World’s leading knowledge-based economy by 2010. It is a major challenge to which we are looking forward.
|
|
171)
COST: A European Network for researchers
Fedi, F., First Latin American Forum of Science, Technology, Enterprise and Society (FIBECYT), Buenos Aires, 4-7 December 2006
COST – the acronym for European CO-operation in the field of Scientific and Technical Research- is the longest running and widest European intergovernmental network for cooperation in research. Established by a Ministerial Conference of 19 European states in November 1971, COST is at present serving the scientific communities of 35 European countries to cooperate in common research projects supported by national funds.
COST is a cornerstone for the development of the European Research Area (ERA) and instrumental in achieving the objectives set by the European Councils of Lisbon in 2000 and Barcelona in 2002. It is a unique instrument with a clear role in the ERA combining the following characteristics in a single, flexible structure:
- a European "exploratorium" of new ideas in the most promising fields of research, thus functioning as a generator of initiatives in the Framework Programmes and as a potential source of industrial applications in EUREKA;
- a high-level scientific network able to tackle problems of societal importance;
- a framework able to ensure both scientific excellence and networking among European researchers;
- an effective tool to coordinate nationally funded research activities encouraging synergy and work sharing and avoiding duplications and gaps thus allowing a more efficient use of national resources. A“ multiplier effect” is achieved: with the funds provided for COST networking a volume of research activities worth about 100 times as much is coordinated;
- an active partner in the European “neighbourhood” policy towards the scientific communities of the EU’s "near neighbours";
- an asset for the EU RDT policy in its relation to the rest of the world.
The paper describes the history of COST its characteristics, its major successes and its recent developments. The confirmed confidence and enthusiasm in the COST research community, the assured support from the Framework Programmes and the consequent brilliant future for COST represents an important opportunity for the scientific community on a world basis.
|
|
172)
Report of the COST President 2004-2006
Fedi, F.,
After the serious difficulties encountered in 2002 and 2003, COST experienced a period of “renaissance” in the subsequent three years. Now, there is renewed confidence and enthusiasm in the COST research community, further strengthened by the secured support from the EU RTD Framework Programme.
2006 was the third year of this “renaissance” which started at the beginning of 2004 with the establishment of the fully operative COST Office in Brussels on the basis of a contract between the European Science Foundation - acting as implementing agent for COST - and the European Commission.
The intense period of reforms within COST that followed has further contributed to the COST “renaissance”.
The complete and profound restructuring of the COST scientific domains - the first one after 35 years – has proved to be a major milestone for COST and a real “Copernican revolution”. It has launched COST into the future, being a true “exploratorium” of new ideas in the most promising fields of science. The restructuring was not obtained by simply reducing the number of COST domains, as requested by the COST Ministerial Conference held in Dubrovnik in 2003. It was achieved by starting again from a “tabula rasa” and by establishing a completely new structure now based on 9 new scientific domains. With this decision the CSO proved to be a real strategic body for COST by establishing and implementing a sound scientific strategy for the future. Now, COST is a modern network for European cooperation in science and technology at the service of European researchers. COST has been re-positioned so that it can act as a real pre-cursor for the Framework Programmes. Moreover COST can provide an essential collaboration system to underpin the European Research Council and support the younger generation of researchers. Most importantly, COST proved to be a key element of the European Research Area and to be able to contribute significantly to achieving the Lisbon and Barcelona objectives.
The notion of interdisciplinarity has been a key issue of the reformed scientific domains. Not only the domains themselves are inter-disciplinary; this interdisciplinarity is also ensured through the “Strategic Workshops”, organized by COST on subjects of intrinsic interdisciplinary nature. In the past three years, COST organised and held strategic workshops on “Environment and Health”, “European Cultural Heritage”, “Food and Health” and “Nanosciences”.
Another major reform introduced in COST concerned the introduction of a continuous Open Call for Proposals, together with a strengthened and consistent use of external peer reviews. This continuous Open Call for proposals is based on a two-stage process, reconciling the advantages of the COST tradition and the need for a highly transparent process of presenting proposals for new Actions . The call is continuous, i.e. the scientific community can present a proposal for a new Action at any time and on any subject, following the successful tradition of COST. The call is open, i.e. the selection process follows the `bottom-up` tradition of COST. The process is based on a call for proposals: the benefits of Calls for Proposals, generally seen as raising visibility within the research community and creating openness, have been introduced. The call is based on a two-stage
process (preliminary proposal and full proposal). Preliminary proposals of maximum three pages
length are sought to act as an initial filter of proposals to be followed . Only those deemed of sufficient interest, potential intrinsic quality, and European added value are invited to submit a full proposal. This should reduce the disadvantages Calls generally have to face, such as the problem of oversubscription (i.e. a large number of new full proposals, frequently not of sufficient quality), a huge workload in processing proposals within the COST Office, the review system and the disillusion which may arise within the research community due to the rejection of a large number of full proposals.
Monitoring the Actions in progress and their final evaluation of completed Actions (including external peer reviews) has always been a tradition in COST and a very good example of `Quality Control` in the European Research Area. Quality control is essential in all research endeavours, both for direct research funding and for networking of researchers. In all these cases, peer review is normally applied to determine the quality of the research being undertaken. COST has established guidelines for the assessment, monitoring and evaluation process. These guidelines have been reviewed and have to be followed by all the Domain Committees which are obliged to involve external reviewers - both in the assessment of new proposals and in the evaluation of completed Actions. In order to obtain the services of top quality reviewers, remuneration for experts has been
introduced.
COST Governance has been the third important reform introduced in COST. The strategic role of the Committee of Senior Officials (CSO), bringing together representatives of the governments of the 35 COST countries, was reinforced. A major activity of the CSO will be dedicated to discussion and approval of COST strategic and political goals such as the COST mission in the ERA, COST’s contribution to the Lisbon objectives, COST communication strategy, COST penetration in quantity and quality, COST as an instrument of integration across Europe, COST as an asset for the implementation of the European RTD policy towards the rest of the world. and similar topics of a strategic nature. The CSO role in COST governance was also addressed and strengthened. It was decided that the CSO will continue to stay abreast of developments taking place in the scientific community, this being reflected, in particular, in the assessment, monitoring and final evaluation of COST Actions. These decisions, together with the introduction of voting procedures based on a ¾ majority - another milestone in the history of COST - has allowed the CSO to develop its role as a truly strategic body.
The role of the CSO Executive Group - the so called JAF Group -, formed by the President and Vice-President of the CSO together with five other CSO members (two of them rotating every year), was also reinforced. The main tasks of the JAF Group were established as follows: recommendation of new Actions; generation, evaluation and revisions of documents for the CSO; monitoring the management of the COST budget and the COST Office activities; approval of prolongations of Actions, and scrutiny of applications of participation in COST Actions from
Institutions from non-COST countries.
The delegation of the management of the Actions from the COST Office to the Actions themselves will be introduced starting from 2007. This delegation is a further milestone in the process of reforming COST governance. Streamlining the approval of Actions will be the final challenge to complete the modernisation of COST governance.
In October 2006, COST confirmed the European Science Foundation (ESF) as the legal entity to act as the implementing agent for COST and to provide the scientific, technical and administrative secretariat to COST Domain Committees and to COST Actions during the next Seventh Framework Programme. To this end and with the objective of strengthening COST and ESF as separate instruments within the ERA and of further developing the synergy between them, while maintaining a clear distinction between their individual characteristics and their complementary roles, an Addendum to the current COST-ESF Memorandum of Understanding established in 2002 was agreed by the COST Committee of Senior Officials and by the ESF Governing Council.
The reform process underway in COST was fully recognized by the High Level Panel established by the European Commission for the Mid-Term Review of the EC-ESF contract for COST. The Panel recognized the important role of COST for achieving the Lisbon and Barcelona objectives and recommended to the European Commission to release the entire sum of 80M€ from FP6, the upper limit of support for COST within the sixth Framework Programme (FP6), and, particularly important, to continue to support COST in the future with increased support within FP7.
The European Commission, in its latest proposal for FP7, stated its intention to enhance the synergy between FP7 and COST and to include financial support for COST and its activities. Furthermore, an active cooperation with the Commission has been introduced, supervised by a High level Group between COST and the European Commission, and co-chaired by the Director General of DG Research and the COST CSO President. This is a sign of renewed confidence in COST and has enabled the development of a strong partnership between COST and the European Commission.
At the political level, COST has been acknowledged on a number of occasions. Several times, the Competitiveness Council of Ministers of the European Union stressed “the importance of reinforcing the ties between the Framework Programmes and European intergovernmental organizations such as COST” and underlined “that European technology initiatives should achieve synergies with existing schemes such as COST taking into account its important contribution to R&D”. Such political recognition of COST is especially important in securing future support.
COST has also built links with the European Parliament. COST has been explicitly mentioned in the Report of the Rapporteur to the European Parliament on the Seventh Framework Programme. A very successful COST exhibition in the European Parliament has been held from 18 to 21 April 2006, with the participation of Commissioner Dr Janez Potocnik, of the Chair of the Committee on Industry, Research and Energy (ITRE) of the European Parliament, Mr Giles Chichester, and of Professor Buzek, the Rapporteur to the European Parliament for the Seventh Framework Programme.
During 2006 COST strove for ensuring the wide dissemination of the results of its Actions to “user” communities, including policy makers at all levels. Where appropriate, COST encouraged the use of results to foster European commercial and industrial competitiveness. The development and intensification of links with EUREKA is a cornerstone of this approach, and there has been an ongoing consultation between COST and EUREKA. COST participated in the EUREKA Ministerial Conference held in Prague in June at the invitation of the Czech EUREKA Presidency. This participation was the result of mutual presentations by the COST and EUREKA Presidencies at the level of EUREKA's High Level Group and COST's Senior Officials Committee and regular
exchanges of information at the level of specific domains and the respective secretariats. The visibility of COST in the various COST countries was raised by the numerous COST information Days organized in Italy (Milan, Rome, and Bologna), in Turkey (Ankara), in Scotland (Edinburgh), in the Netherlands (Utrecht), in Romania (Bucharest and Timisoara), in Ireland (Dublin), in France ( Nice) and in Bulgaria ( Sofia).
COST has demonstrated its ability to be an asset for the implementation of the European RTD policy towards the rest of the world. It does this with considerable success thanks to COST flexibility and the ease of access of participation for third country institutions in COST Actions. Consequently COST did not restrict itself to only serving the European research community, and it did not confine itself geographically. Following its traditions, it continued to be an open networking system, encouraging the participation - on the basis of mutual interest and benefit - of researchers and colleagues from all over the world. COST Information Days were organized in China (Bejing and Shangai), in Ukraine (Kyiv), in Argentina (Buenos Aires), and in Australia and New Zealand.
The European scientific community continues to acknowledge COST as a “fast, efficient, effective flexible framework to bring European researchers together, under light strategic guidance, to let them work out their ideas”. This perception was confirmed by a survey which revealed that “if COST did not exist it would be necessary to invent it”. The interest of the European scientific community in COST has been recently confirmed by the overwhelming response to the COST Open Call for Proposals launched in May 2006 where more than 800 preliminary proposals were received for the selection of only some 40 new COST Actions.
The reforms introduced in COST in the last three years together with the role that COST has had within the European Research Area in the past 35 years have been fully recognised. This includes the development of European scientific endeavours in many key areas at the frontiers of our knowledge, the establishment of networks of thousands of leading Scientists, the increase of mobility of researchers across Europe, the improvement of cooperation in science and technology and the creation of a better understanding among European countries.
In December 2006, the Council of the European Union adopted a Decision concerning the Specific Programme "Cooperation" implementing the Seventh Framework Programme of the European Community, according to which at least EUR 210 million and up to EUR 250 million should be attributed to COST, subject to the mid-term evaluation. This financial support will be provided through a grant which will be paid on the basis of a grant agreement between the Commission and a legal entity designated by COST as its implementing agent and communicated to the Commission by the General Secretariat of the Council and identified in the Work Programme.
The increase of between 50% and possibly more than 78% of the financial support to COST with respect to the Sixth Framework Programme is a reward of paramount importance for the entire COST family. For the members of the COST Committee of Senior Officials whose dedication and sense of ownership made it possible to introduce a number of reforms which are real milestones in the history of COST. For the Chairs and members of the newly appointed scientific COST Domain Committees, nominated among the most outstanding European scientists. For the participants in the COST Actions, the real “ raison d’être” of COST, and, in general, for the entire European scientific community whose more than 800 proposals presented as response to the first COST Call for the nselection of some 40 new Actions confirmed all the vitality of the COST framework. For the COST Office established by the European Science Foundation in Brussels acting as COST implementing agent. For the COST Secretariat provided, since the very beginning of COST, by the General Secretariat of the EU Council. I wish to express the gratitude of the entire COST family to the members of the European Parliament who confirmed the interest in COST that has emerged in the COST exhibition in the Parliament held in April 2006, to the European Commission and “dulcis in fundo” to the Council of the European Union and, in particular, to the members of its Research Working Party which gave this strong support to COST.
All these achievements give great confidence for the future of COST at the service of the European scientific community and for the benefit of the European citizens.
On 21 March 2007 the representatives of the 35 COST countries, during the meeting of the COST Committee of Senior Officiala (CSO) convened in the European Parliament in Strasbourg, reelected me as President of COST for the next trennium. The Italian Ministry of Universities and Research was encouraged to present my candidature by the many delegations of the COST CSO who had expressed the view that a continuity in the COST CSO Presidency was indeed necessary in this delicate moment for COST, had stated an open appreciation for the outstanding results obtained by the Italian Presidency and had announced their support when in the latest CSO meeting they had "indicated that they would be favourably disposed towards a re-election of the President-in- office, were he willing to continue”.
Following this election the following main objectives for the period 2007-2010 have been identified:
1. To consolidate and monitor the considerable number of reforms introduced in COST in the past three years.
2. To consolidate the relationship and to strengthen the ties with the European Commission (EC) and with the European Science Foundation (ESF), with particular attention to the ECESF contract for COST.
3. To maintain and increase the role of COST as a unique instrument in the European Research Area and its complementarity with the EU Seventh Framework Programme.
4. To increase the visibilty of COST in the scientific community, in the user community, among politicians and decision makers presenting COST potentialities and success stories.
5. To strengthen the synergy with other intergovernmental networks, in particular with. EUREKA, and with standardization bodies.
6. To implement the COST strategy to increase the role of COST as an active partner in the European “neighbourhood” policy towards the scientific communities of the EU’s "near neighbours"and as an asset for the EU RDT policy in its relation to the rest of the world.
7. To implement the COST strategy for an increased involvement of researchers early in their careers in the frame of COST co-operation.
Professor Dr. Ing. Francesco Fedi
President COST Committee of Senior Officials
Roma, 12 April 2007
|
|
173)
COST: its recent past and its future
Fedi, F.,
1. INTRODUCTION
COST – the acronym for European CO-operation in the field of Scientific and Technical Research- is the longest running and widest European intergovernmental network for cooperation in research. Established by a Ministerial Conference of 19 European states in November 1971, COST is at present serving the scientific communities of 35 European countries to cooperate in common research projects supported by national funds.
The funds provided by COST - less than 1% of the total value of the projects - support the COST cooperation network through which in the years 2003-2006, with only around 20 million € per year, more than 30.000 European scientists were involved in research having a total value which exceeded 2 billion €per year. This is the financial worth of the European added value which COST achieves.
“Bottom up approach” (the initiative of launching a COST Action comes from the European scientists themselves), “à la carte participation” (only countries interested in the Action participate), “equality of access” (participation is open also to European countries not belonging to the European Union)
and “flexible structure” (easy implementation and light management of the research initiatives) are the
main characteristics of COST.
The Committee of Senior Officials (CSO) is the main decision-making body and is made of representatives
of all COST member countries. The Domain Committees (DC) are responsible for a particular research domain and are also formed by representatives of the COST countries chosen among the most outstanding European Scientists. The Management Committees (MC) - one for each Action- are formed by national experts nominated
by the countries participating in the Action, coordinate the activities of the Action and report to the relevant Domain Committee. The secretariat to the CSO is provided by the Secretariat General of the Council of the European Union. The scientific and administrative Secretariat to the COST Domain Committees and to the Actions is provided by the European Science Foundation (ESF) – the implementing Agent of COST- through a COST Office located in Brussels. As precursor of advanced multidisciplinary research COST has a very important role for the realisation of the European Research Area (ERA) anticipating and complementing the activities of the Framework Programmes, constituting a “bridge” towards the scientific communities of emerging countries, increasing the mobility of researchers across Europe and fostering the establishment of scientific excellence in many key domains such as: Biomedicine and Molecular Biosciences; Food and Agriculture; Forests, their Products and Services; Materials, Physical and Nanosciences; Chemistry and Molecular Sciences and Technologies; Earth System Science and Environmental Management; Information and Communication Technologies; Transport and Urban Development; Individuals, Society, Culture and Health. It covers basic and
more applied research and also addresses issues of pre-normative nature or of societal importance. The scientific importance and relevance of COST results is testified by the very high number of papers published in excellent scientific and technical journals or presented in the most important international Conferences. COST is well recognised by the scientific communities outside Europe and, in particular, in the USA, in Canada and in Asia. The contribution to European competitiveness in the global market is testified by the many contributions to normative and standardisation bodies where results, COST models COST, COSTmethods are commonly referred to and recommended. It is also testified by the many Small Enterprises originating in Europe from COST activities at the frontiers of modern technology and by the many examples of transfer of results to the European industry. The COST contribution to the standardisation of the GSM system - a European success - or the European Centre for Medium-Range Weather Forecasting (ECMWF) in Reading, UK, grown out of an early COST Action in the meteorology domain, are only two of many examples. The societal importance of COST results is particularly relevant in the case of delicate issues arising from new technologies. With COST, the public is reassured that the solution of these issues is not restricted to individual countries and that it is obtained in a high-standard, industry-independent, environment. The establishment of the exposure limits to base stations for mobile communications by a COST Action is one example in this direction. The contribution of COST to the Framework Programmes is shown by the many research projects derived from ideas originated in COST and by the considerable number of Networks of Excellence deriving from COST Actions in the Sixth Framework Programme.
COST is a cornerstone for the development of the European Research Area (ERA) and instrumental in achieving the objectives set by the European Councils of Lisbon in 2000 and Barcelona in 2002.
It is a unique instrument with a clear role in the ERA combining the following characteristics in a single, flexible structure:
- a European "exploratorium" of new ideas in the most promising fields of research, this functioning as a generator of initiatives in the Framework Programmes and as a potential source of industrial applications in EUREKA;
- a high-level scientific network able to tackle problems of societal importance;
- a framework able to ensure both scientific excellence and networking among European researchers;
- an effective tool to coordinate nationally funded research activities encouraging synergy and work sharing and avoiding duplications and gaps thus allowing a more efficient use of national resources. A “multiplier effect” is achieved: with the funds provided for COST networking a volume of research activities worth about 100 times as much is coordinated;
- an active partner in the European “neighbourhood” policy towards the scientific communities of the EU’s "near neighbours";
- an asset for the EU RDT policy in its relation to the rest of the world.
2. THE RECENT PAST
The history of COST in the last five years may be summarised as a rapid transition from the “dark” period of the years 2002 and 2003 - when there had even been some talk of an “honourable funeral” for COST- to the COST “ renaissance” of 2004, 2005 and 2006. There is now renewed confidence and enthusiasm in the COST research community and the assured support from the Framework Programmes.
2.1 The dark period
The years 2002 and 2003 were a very difficult period for COST. The main reasons for these difficulties emerged in 2002 and were: the necessity to ensure adequate funds in the Sixth Framework Programme (FP6) for COST and the intention of the European Commission to cease to provide the scientific secretariat and the financial administration of COST.
The greatest problem was that COST did not have a legal personality and therefore could not receive funds directly from the Framework Programme and could not administer these funds: a task carried out until that moment by the European Commission. The first solution examined by the COST CSO in early 2002 was to devolve the administration of COST under the Secretariat General of the EU Council. The legal services of the Council, however, declared this solution not conceivable for institutional reasons, since the Council as colegislator would then execute part of the Framework Programme. A second solution was studied by the COST CSO investigating the possibility of creating a nonprofit International Association under the Belgian law. In June 2002 a well- structured proposal was presented to the COST CSO but the proposal was not approved due to the opposition of some delegations, revealing a very weak point of COST, namely the necessity of “consensus”. This meant that the “veto” of only one or two of the 35 COST delegations was sufficient to reject a proposal. COST CSO was expected to have the same efficiency as a board of Directors of an important international enterprise using the same approval procedures as the General Assembly of the United Nations. Subsequently, the CSO started discussions with the European Science Foundation ( ESF) - a nonprofit Association under the French (Alsace) law located in Strasbourg – and this led to the establishment of a COST-ESF Memorandum of Understanding in September 2002 according to which ESF was “prepared, as from 1 January 2003, to act as the legal entity to provide and manage the administrative, technical and scientific secretariat for COST, its
Technical Committees and its Actions, dependent on the appropriate funding for the COST activities being made available from the EU RTD Framework Programme”. As the implementing agent for COST, ESF was able to receive funds from the European Commission and to administer these funds following the decisions of the CSO which remained the COST “ decision -making body”. For the scientific secretariat of the Technical Committees and of the Actions, an “ad hoc” COST Office to be implemented by the ESF in Brussels, could carry out the tasks which were carried out by the European Commission in the past. Both the ESF and the COST CSO ratified the COST-ESF MoU in late 2002 but from the COST side it was necessary that the Danish Presidency of the European Union officially communicated this decision to the European Commission. This again underlined the difficulty arising from the lack of legal personality of COST which, as somebody said, from a juridical point of view “ did not exist”. Following the start of FP6 in January 2003, the ESF was asked to submit a proposal for the support of COST which it did in mid- May 2003, following discussions with the European Commission. Following review of the proposal, negotiations between the ESF and the European Commission took place, the outcome of which was agreed by the CSO in July 2003. The EC-ESF contract for COST was concluded and signed on 26 August 2003. The EC then sought a bank guarantee from ESF, the terms of which were not defined until early October.
Obtaining the guarantee was a complex task which further delayed the start of the contract and the opening of the COST Office. The problem of the guarantee was not resolved until December although ESF took the risk to make a number of financial commitments in advance of final agreement with the banks in order to secure premises and carry out the necessary conversion work and equipping as well as the recruitment of staff plus financing the launching of new Actions which had been on hold for many months.
The first period of 2003 was therefore the worst period for COST since, with the exception of the domain “Telecommunications and Information Science and Technology” (TIST) which was supported directly through annual grants by the EC Directorate General Information Society, all other COST domains which were supported by the EC Directorate General Research were left without funds and without any scientific and technical secretariat following the decision of the European Commission to cease its support to COST starting from January 2003. A very active action was carried out both by the COST CSO to ensure adequate funds for COST in FP6 and by the Chairs of the COST Technical Committees who, in April 2003, wrote an official letter to the Ministers of Research of the 35 COST countries “on behalf of the COST scientific community to express their concern about the delay in the implementation of the new COST secretarial organisation and its detrimental effects on funding of ongoing and new research activities and to ask for the support. of the Ministers”. Luckily in the same month of April the European Commission informed COST that 5 M€ had been committed for already planned COST activities (TC and MC meetings only) in 2003 and that the Commission was ready to continue to provide the scientific and technical support to COST until the ESF-EC contract was operative. The COST CSO was also informed that, following the co-decision of Council and Parliament, the funds in FP6 for COST had been established between 50M€ and 80M€, the upper limit depending on the successful introduction of reforms in COST based on the recommendations contained in an Assessment Report on COST, the so-called Busch Report.
In May 2003, the Representatives of the Governments of the COST Member States met at the COST Ministerial Conference in Dubrovnik. The Conference replaced the one that had been planned in Copenhagen at the end of 2002 but that was cancelled due to the difficulties encountered by COST. The Representatives of the Governments of the COST Member States confirmed the continuing commitment to COST as a valuable and flexible instrument for promotion of European research, endorsed the COST-ESF MoU, welcomed the initiatives taken for the further modernisation of COST in conformity with relevant proposals by the Busch Assessment Panel and, in the event of the necessary reform of COST, as highlighted in the Assessment Panel Report, and in line with the Decision of the Council of the EU of 30 September 2002, recommended that the European Commission allocate to COST a total budget of 80 million Euro for the duration of FP6.
2.2 The renaissance
The COST “renaissance” started at the beginning of 2004 with an intense period of reforms.
a) Reforms of the COST Governance The following reforms were introduced in the COST Governance. Committee of Senior Officials (CSO): Strengthening of the CSO strategic role (setting strategic & political
goals, mission in the ERA); reinforcement of COST governance (strengthening contacts with the scientific community and assessment and evaluation of Actions); Introduction of voting procedures in the CSO based on a qualified majority: a real milestone in the history of COST which, in the past 35 years, was able to decide only by consensus, whatever the issue.
Devolution of non-strategic tasks to the CSO Executive Group (JAF): scrutiny of proposals for new Actions; prolongations of Actions; participation by institutions from non-COST countries; evaluation and revision of documents for the CSO; monitoring budget management and COST Office activities. Confirmation of the appointment of the European Science Foundation (ESF) as the implementing agent for COST; establishment of the COST Office in Brussels to provide pro-active support for the COST system including the scientific secretariat of COST Domain Committees and Actions. Devolution to the Actions of the day-to-day management by the Actions themselves through a system of ad hoc grants replacing the former centralized system.
b) Reforms of the COST Scientific Domains This milestone in the history of COST concerned the complete and profound restructuring of the COST scientific domains, the first introduced after 35 years and really a “Copernican revolution” that has launched COST into the future as a true “exploratorium” of new ideas in the most promising fields of science. The restructuring was not obtained by simply reducing the number of the COST domains - as requested by the COST Ministerial Conference held in Dubrovnik in 2003 but by starting again from a “tabula rasa” and by building a completely new structure which is now based on 9 new scientific domains. With this decision the CSO showed itself to be a really strategic body for COST by establishing a sound scientific strategy for the future. COST is now a modern network for European cooperation in science and technology at the service of European researchers. It has repositioned COST so that it can act as a real precursor for the Framework Programme, it can provide an essential collaboration system to underpin the proposed European Research Council and can support the younger generation of researchers. Most importantly, it shows that COST is a key element of the European Research Area and that it can contribute significantly to the achieving the Lisbon and Barcelona objectives. Interdiciplinarity was a key issue of the reformed scientific domains. Not only are the domains themselves inter-disciplinary but this is also ensured through the “ Strategic Workshops” organized by COST on subjects of intrinsic interdisciplinary nature. During 2005, COST organised and held two strategic workshops. The first, held in Brussels on 16-18 February 2005 brought together around 100 participants from across Europe and Korea to discuss a wide range of issues on “Environment and Health”. The discussion built on previous activities carried out in the context of the series of meetings of European Ministers of Environment and Health, the research being carried out under the Framework Programme, the ESF/WHO (Europe)/European Commission workshops and also focused on the European Environment and Health Action Plan, 2004-2010. The conclusions of these strategic workshops have been published and widely disseminated. The second strategic workshop on “COST and Cultural Heritage: Crossing Borders” was organised in Florence from 20 to 22 October 2005. More than 100 participants from 18 countries from the European Union and also from Lebanon and Egypt participated in the Workshop. Their background and contributions covered an extremely broad variety of topics: members of the European Parliament stressed the responsibility of politicians for the preservation of the common European Cultural Heritage, physicists gave talks on how to analyse a painting or sculpture without damaging it, the so-called “non-destructive” analytical techniques; geologists and archaeologists illustrated investigations below ground; and historians reflected about what artefacts were valuable for preservation. The European Commission, the European Science Foundation, the Italian National Research Council and international organisations dealing with cultural heritage, such as the International Institute for Conservation (IIC) or the International Centre for the Preservation of Monuments and Sites (ICCROM), were also represented at the Workshop. Two other Strategic Workshops on “Food and Health” and on “Nanosciences and Technologies” have been held in 2006.
c) Reform of assessment and selection of proposals for new Actions Another important major reform introduced in COST concerned the introduction of a continuous Open Call for Proposals together with a strengthened and consistent use of external peer reviews. With the continuous Open Call for proposals, based on a two-stage process, the advantages of the COST tradition and the need of rendering the process of presenting proposals for new Actions as transparent as possible are combined. The call is continuous, i.e. the scientific community can present a proposal for a new Action at any time, following the successful tradition of COST. The call is open, i.e.: the process follows the `bottom-up` tradition of COST. The process is based on a call for proposals: the benefits of Calls for Proposals, generally seen as raising visibility within the research community and creating openness, have been introduced. The call is based on a two-stage process (preliminary proposal and full
proposal). Preliminary proposals of maximum three pages length are sought to enable an initial filter of proposals to be conducted. Only those deemed of sufficient interest, potential intrinsic quality, and European added value are invited to submit a full proposal. This should avoid the disadvantages with Calls such as the problem of oversubscription, i.e. a large number of new full proposals, frequently not of sufficient quality, an over large workload in processing proposals within the COST Office and the review system and the disillusion which may arise within the research community due to the lack of acceptance of a large number of full proposals. COST monitoring of the Actions in progress and final evaluation, with external peer reviews of completed Actions, has always been a tradition in COST and a very good example of `Scientific Quality Control` in the European Research Area. Quality control is essential in all research endeavours, whether these be for direct research funding or for networking of researchers. In all these cases, peer review is normally applied to determine the quality of the research being undertaken. COST has guidelines for the assessment, monitoring and evaluation process which will be reviewed as necessary and which are to be followed by all the Domain Committees which will have to involve external reviewers, both in the assessment of new proposals and in the evaluation of completed Actions. In order to obtain the services of top quality reviewers, remuneration for experts has been
introduced. The results of the first call launched in April 2006 with a deadline of the end of May 2006 has been astonishing: more than 800 proposals for new Actions have been received from which a maximum of 25 Actions have to be selected. The rigorous selection procedure involving the COST Domain Committees, the COST Office and the external peer Reviewers will be completed in November 2006.
d) Reforms of the COST Strategy for young Researchers In response to the need to encourage more researchers early in their careers into R&D cooperation in Europe a COST strategy and consequent initiatives are presently examined to put focus on networking possibilities and more extensive involvement of young researchers in the frame of COST co-operation.
The European neighbouring countries Introduction of support measures for researchers involved in COST Actions from the EU’s “near neighbours”.
Dissemination and monitoring of the impact of COST results Ensuring, through post-hoc reviews, that results from Actions and their impacts can be assessed; improved dissemination of the outcome of Actions to end-users, and generally reinforced dissemination procedures.
Strengthening links with other European bodies New and strengthened partnerships are in place or being developed with the European Commission, EUREKA, the European Science Foundation and other relevant organisations, including promoting joint activities for mutual benefit.
3. ACKNOWLEDGMENTS
COST has received acknowledgments from: the European scientific community which continues to look at COST as a “fast, efficient, effective flexible framework to bring European researchers together, under light strategic guidance, to let them work out their ideas”. This has been confirmed by a survey which showed as a result that “if COST did not exist it would be necessary to invent it” and by the astonishing number of more than 800 proposals for new COST Actions received in May 2006; the High-Level Panel established by the European Commission for the mid-term review of the ECESF contract for COST which recognised the important role of COST for achieving the Lisbon and Barcelona objectives and recommended continued support for COST in the future with an increase level of funding in FP7; the European Commission which, in its Proposal for FP7, included as objectives enhancing the synergy between FP7 and COST and financial support for the administration and coordination activities of COST; the Council of the EU which, in March 2006, concluded that there should be an enhancement of the complementarily and synergy between the Framework Programme and intergovernmental structures such as EUREKA, EIRO-forum and COST and that financial support for COST should be provided so that COST can continue to contribute to coordination between nationally funded research teams; the European Parliament (EP) which explicitly mentioned COST in the Report of the Rapporteur to the EP on FP7 and which sponsored a COST exhibition in the Parliament in April 2006 with the participation - among others - of Commissioner Potočnik, of Mr. Chichester, Chair of the Committee on Industry, Research and Energy (ITRE) of the European Parliament, and of Professor Buzek , Rapporteur to the Parliament for FP7.
4. THE FUTURE OF COST
In June 2006 the COST CSO prepared a Statement on the financial support for COST from FP7 in which it is proposed:
1. to increase the yearly support to the Actions (from 70 to 90 K€) in order:
- to secure sufficient funding for basic networking activities such as workshops, training schools, inter-laboratory visits that are not adequately carried out at present due to scarce funding;
- to allow for the introduction of ad hoc grants for the devolution of Action management, as suggested in the Mid-Term Review, and for providing more flexibility for scientific activities;
2. a gradual growth in the number of Actions (from 200 to 260 over the period of FP7) as requested by the European scientific community; more than 800 preliminary proposals for new Actions have been received by the deadline of 31 May 2006 as a result of the COST Call for proposals launched in April 2006
3. to allocate additional funding for initiatives that contribute to the more extensive involvement of researchers
early in their careers in COST cooperation
4. provisions for the transition from FP7 to FP8. The total required budget over the 7 years period (2007-2013) for this COST development plan was estimated at 280 M€ at current prices.The budget of 280M€ represents less than 1% of the budget proposed by the Commission for the Specific Programme “Cooperation”. A suitable contract, covering also the transition period to FP8 in 2013/2014, would enable ESF-COST to provide an effective and reliable service with clear accountability and sufficient flexibility to cope with developments during the period of FP7. The role that COST has had, in the past 35 years, inthe development of European scientific endeavours in many key areas at the frontiers of our knowledge, in the establishment of networks of thousands of leading Scientists, in the increase of mobility of researchers across Europe, in the improvement of cooperation in science and technology and in the creation of a better understanding among European countries, has been particularly important and fully acknowledged. Consequently, COST expects a full appreciation of its potential and the full recognition of its role in the European Research Area through the necessary support to its activities. The expected brilliant future of COST will be an important opportunity for the European scientific community.
|
|
174)
COST: un modello europeo per la cooperazione scientifica
Fedi, F., Informatica e documentazione, n. 1/2006
Il COST – la prima e piu’ vasta forma intergovernativa di cooperazione nel campo della ricerca istituita nel 1971 ed utilizzata dalla comunita' scientifica Europea per collaborare in progetti comuni di ricerca finanziati dai vari paesi partecipanti – continua a dimostrare la sua efficacia. Con i modesti fondi forniti dal programma, che non superano l'1% del valore complessivo dei progetti e che sono impiegati per il finanziamento della rete di collaborazione, si riesce a coinvolgere in Europa ogni anno piu' di 30.000 ricercatori in ricerche il cui valore complessivo supera i 2 miliardi di euro. Numerosi i risultati ottenuti in ambito COST e tra questi: il contributo alla standardizzazione del sistema GSM - successo Europeo nel campo dei telefoni cellulari usato in tutto il mondo; il Centro di eccellenza di Reading in Inghilterra per le previsioni meteorologiche su scala mondiale derivato da una Azione COST nel campo della meteorologia; esempi di “chimica verde” per la creazione di materiali facilmente biodegradabili; l’uso della luce del sole per rendere l’acqua potabile; esempi di conservazione di opere d’arte del patrimonio culturale Europeo con tecniche laser; l’utilizzo delle piante per la bonifica dei terreni; il telefono ed internet per gli anziani ed i disabili; alcune realizzazioni di autobus per il facile accesso dei disabili ed esempi di uso avanzato delle nanotecnologie 1. Origini E' la metà degli anni Sessanta. L'Europa comincia ad avvertire il pericolo costituito dalla crescente potenza industriale degli Stati Uniti d'America che rischia di relegare il vecchio continente nel novero dei paesi arretrati. Jean-Jacques Servan-Schreiber, il leggendario direttore del "L'Express" francese, lancia l'allarme con il suo famoso libro Le défi américain e scrive del «pericolo del naufragio dell'Europa come focolaio di civiltà» e della «guerra da combattere a colpi di fantasia creativa e di tessuto organizzativo»(1). L'Europa si rende conto del ruolo fondamentale che la ricerca nel campo della scienza e della tecnologia può giocare nello sviluppo economico del continente e quindi nella possibilità di reazione alla "sfida" americana e dell’assoluta necessità di una collaborazione europea in questo settore. Nel 1964 il Consiglio dei ministri dell'allora Europa dei "sei" (Belgio, Repubblica Federale di Germania, Francia, Italia, Lussemburgo, Paesi Bassi) decide di creare un Comitato per la politica economica a medio termine (CPEMT) per coordinare le strategie economiche. Nel 1965, il CPEMT crea un sotto-comitato Politica della Ricerca Scientifica e Tecnologica (PREST) con il mandato di esplorare la possibilità di cooperazione in campo europeo. La cooperazione prende il nome di COST, acronimo di European COoperation in the field of Scientific and Technological Research (Cooperazione europea nel campo della ricerca scientifica e tecnologica). Il primo Presidente del gruppo PREST è A. Marechal, Direttore generale della ricerca scientifica e tecnologica in Francia. Nel 1967 è presentato al Consiglio dei Ministri il primo rapporto PREST, denominato rapporto MARECHAL. In tale rapporto si propone di intraprendere una collaborazione europea nei settori: informatica, telecomunicazioni, trasporti, oceanografia, meteorologia, metallurgia e protezione dell'ambiente. Si propone altresì di formare un Comitato Tecnico per ciascuno dei settori e di associare ai lavori anche i paesi europei non facenti parte della Comunità. Il Consiglio approva tale proposta e dà mandato al gruppo PREST di continuare i lavori. Le lingue ufficiali prescelte in ambito COST (nonostante il Regno Unito non faccia ancora parte della Comunità Europea) sono l'inglese, il francese e il tedesco. 2 Nel 1969 viene presentato il rapporto AIGRAIN - dal nome del nuovo Presidente del gruppo PREST - che contiene 47 proposte di temi di ricerca da sviluppare in collaborazione. Viene deciso di invitare a collaborare alla messa a punto dei progetti di ricerca e a partecipare al loro svolgimento 13 paesi non facenti allora parte della Comunità: Austria, Danimarca, Finlandia, Grecia, Irlanda, Iugoslavia, Spagna, Norvegia, Portogallo, Svizzera, Svezia, Turchia e Regno Unito. Questa decisione dà luogo alla cosiddetta Europa COST, ben più ampia dell'Europa della Comunità. Nel 1970 vengono formati sette comitati tecnici - uno per ogni settore di ricerca - con esperti provenienti dai 19 paesi per esaminare la fattibilità dei vari progetti. Viene anche formato un Comitato di Alti Funzionari (Senior Officials), composto dai rappresentanti dei Ministri della Ricerca dei 19 paesi, con il compito di coordinare le attività dei sette Comitati Tccnici. Il Comitato degli Alti Funzionari si riunisce per la prima volta il 19 ottobre 1970. Il 22 e 23 novembre 1971, durante una Conferenza cui partecipano i Ministri della Ricerca dei 19 paesi, viene firmata una risoluzione che esprime la volontà dei rispettivi governi «di cooperare nel campo della ricerca scientifica e tecnica e di ricorrere, a questo scopo, a delle forme di collaborazione le più flessibili possibile e in particolare a un coordinamento dei lavori dei propri organismi di ricerca». Nella stessa occasione vengono varati i primi sette progetti di ricerca COST, denominati “Azioni”. «COST constitutes an experimental laboratory for European cooperation which will provide valuable information for the future»: con queste parole, che si riveleranno profetiche, il Ministro della Ricerca italiano Camillo Ripamonti, Presidente della Conferenza, conclude i lavori. La data del novembre 1971 viene considerata come la data di nascita del COST. 2. Un esempio di Azione COST Ai lavori preparatori del Comitato Telecomunicazioni degli anni 1970 e 1971 partecipa, su delega del Ministro della Ricerca, l'allora Direttore dell'Istituto Superiore delle Poste e Telecomunicazioni il quale chiede al sottoscritto, allora ricercatore presso la Fondazione Bordoni, di far parte della delegazione italiana. Il motivo è che uno dei temi indicati dal nostro paese come possibile argomento di collaborazione europea è lo studio delle caratteristiche di propagazione delle onde radio a frequenze superiori a 10 GHz. Su questo argomento il sottoscritto, per conto della Fondazione Bordoni, sta coordinando un impegnativo programma di ricerca teorico e sperimentale per conto dell'Amministrazione PT italiana (2). Ma perché questo tema è considerato così importante e adatto a una collaborazione europea? A metà degli anni sessanta era apparso chiaro che la progressiva saturazione delle bande di frequenza allora disponibili al di sotto di circa 10 GHz avrebbe potuto rallentare la crescita, che si preannunciava esplosiva, dei servizi di telecomunicazioni tradizionali e la diffusione di nuovi servizi: ciò rendeva indispensabile l'utilizzo di frequenze più elevate. Questo cozzava però con le incognite legate alla radiopropagazione: a queste frequenze corrispondevano infatti lunghezze d'onda centimetriche e millimetriche che avevano dimensioni analoghe a quelle delle gocce di pioggia e, quindi, potevano essere da queste fortemente attenuate in presenza di precipitazioni piovose. Cioè a queste frequenze si sarebbe potuto verificare ciò che, come è ben noto, si verifica per lunghezze d'onda e particelle ancora più piccole allorché la luce visibile viene fortemente attenuata in situazioni di nebbia fitta. Ma in che misura questo avveniva, come dipendevano questi fenomeni dalla frequenza adoperata e dalla località prescelta per il collegamento e come poteva essere calcolata l'entità dell'attenuazione? La Fondazione Bordoni aveva previsto l'importanza dell'argomento e aveva proposto all'Amministrazione PT un programma di ricerca che, accanto a studi teorici, prevedeva la realizzazione di un impianto sperimentale di notevole complessità per misure meteorologiche e radioelettriche. L'obiettivo del programma era quello di riuscire a prevedere le statistiche di attenuazione dovuta a pioggia sui radiocollegamenti a partire dai dati di intensità di precipitazione 3 piovosa ricavabili, con relativa facilità, nelle varie zone di interesse. Dopo circa venti anni di accese discussioni nell'ambito della comunità scientifica, il gruppo della Fondazione Bordoni aveva dimostrato la possibilità di calcolare l'attenuazione subita dalle onde elettromagnetiche a partire dall'intensità di precipitazione piovosa, considerando la reale forma non sferica delle gocce di pioggia (3). Per avere validità statistica probante occorreva però estendere alle varie zone climatiche europee le metodologie di calcolo sviluppate in Italia. La proposta del nostro paese incontrò grande favore: al progetto, denominato COST 25/4, che fu varato nel 1971 parteciparono 13 paesi che misero insieme un apparato sperimentale e una base di dati estremamente ragguardevole e che instaurarono una solida tradizione scientifica europea nel campo della propagazione delle onde radio (4). Per la prima volta fu effettuata una caratterizzazione della piovosità del continente europeo: le zone più intensamente piovose non risultarono quelle in cui si raccoglievano i più elevati valori di altezza annuale di pioggia, come la Gran Bretagna, ma quelle nelle quali minori valori di altezze annuali si concentravano in pochi ma intensi temporali, come le coste occidentali dell'Italia e della Grecia. Per la prima volta l'Europa si presentò all'Unione Internazionale delle Telecomunicazioni (UIT) di Ginevra con una massa di risultati che non aveva eguali né negli Stati Uniti d'America né in Giappone. In quell'occasione la metodologia di calcolo dell'attenuazione sviluppata presso la Fondazione Bordoni e presentata dall'Amministrazione italiana venne preferita a tutte le altre e adottata in tutti i paesi del mondo per il dimensionamento dei radiocollegamenti terrestri a frequenze superiori a 10 GHz. Nel 1978, verso il termine del progetto 25/4, si pensò di estendere le ricerche sulla propagazione delle onde radio a frequenze superiori a 10 GHz anche ai collegamenti terra-satellite. In quel momento erano operativi e ricevibili in Europa due satelliti sperimentali: il satellite europeo OTS e il satellite italiano SIRIO ma non vi era nessun meccanismo organizzativo che permettesse di creare una base di dati comuni e di utilizzare simultaneamente le possibilità offerte dai due satelliti. I partner europei chiesero all'Italia di svolgere il lavoro preparatorio per il varo di un nuovo progetto che prese il nome di Azione COST 205 (5). Nel Memorandum of Understanding che fu firmato nel 1979 da 14 paesi europei e dall'Agenzia spaziale europea (ESA) si proponeva che «la presidenza del progetto venisse affidata all'Italia per avere messo a disposizione i dati del satellite Sirio e per aver assicurato la presidenza del passato progetto in modo così efficace». Al termine del progetto COST 205, ancora una volta, l'Europa si presentò in sede internazionale con risultati ottenuti da un apparato sperimentale che non aveva eguali in altre parti del mondo. E ancora una volta, le metodologie di previsione dell'attenuazione che, nel frattempo, la Fondazione Bordoni aveva, con felice intuizione, esteso ai collegamenti terra-satellite vennero adottate in tutti i paesi del mondo per il dimensionamento dei radio collegamenti via satellite a frequenze superiori a 10 GHz (6). Se oggi si riesce a ricevere con una piccola parabola e con un ricevitore commerciale i programmi televisivi direttamente dal satellite, questo è anche merito di questi risultati. Grazie dunque alla sinergia COST, l'Europa, con il ruolo fondamentale dell'Italia, aveva avviato a soluzione uno dei più importanti problemi di ricerca nel campo della propagazione delle onde radio, aveva fornito dati essenziali per lo sviluppo delle radiocomunicazioni future e aveva assunto una posizione di indiscusso leader mondiale in questo settore. Da quel momento i giovani ricercatori provenienti dai paesi in via di sviluppo cominciarono a non attraversare più l'oceano per recarsi nei laboratori americani ma a preferire i centri di ricerca europei, e in particolare italiani, per approfondire la loro preparazione. 3. Il COST oggi. Che cos'è oggi il COST? Per meglio rispondere a questa domanda è bene subito dire quello che il COST non è. Il COST non è un organo della Comunità, non ha personalità giuridica e non è stato 4 istituito con un trattato. Il COST è un "framework". E' cioè un "contesto" adatto a una collaborazione europea nel campo della ricerca scientifica e tecnologica che si basa su una struttura estremamente flessibile istituita da accordi intergovernativi durante la Conferenza Ministeriale del 22 e 23 novembre 1971. La cooperazione COST si realizza attraverso progetti di ricerca denominati "Azioni" che nascono con la firma, per ogni Azione, di un Memorandum of Understanding da parte dei paesi interessati a quel progetto di ricerca. La firma è in genere fatta tramite le Rappresentanze diplomatiche presso l'Unione europea e non necessita di una ratifica parlamentare. La partecipazione ai progetti è volontaria e à la carte. Solamente i paesi interessati alla singola Azione firmano il relativo Memorandum of Understanding: per varare un'Azione occorre che il Memorandum sia firmato da almeno cinque paesi. La vocazione del COST è quella di essere un “ ponte” verso le comunità scientifiche di paesi Europei emergenti anticipando l'evolversi della situazione politica attraverso l'apertura della collaborazione anche a paesi non facenti parte dell'Unione Europea. Attualmente l'"Europa COST" comprende oltre ai 25 paesi dell'Unione Europea anche 10 paesi Europei che non ne fanno ancora parte. Ciò appare sempre piu importante se l’Europa vuole davvero avvicinarsi agli obiettivi fissati dal Consiglio dell’Unione Europea a Lisbona e Barcellona e cioè di devolvere almeno il 3% del PIL alla ricerca. E’ stato calcolato che, se questo avverrà, occorreranno almeno 700.000 nuovi ricercatori e questi molto probabilmente proverranno soprattutto dai paesi entrati da poco a far parte dell’Unione Europea, a causa della crescente disaffezione verso le materie scientifiche dei giovani dei paesi già facenti parte dell’Unione. Inoltre, trattandosi per molta parte di ricerche pre-normative e pre-competitive, la collaborazione COST è aperta anche a Istituti di ricerca e Università degli USA, della Cina, dell’India e del resto del mondo L'iniziativa delle azioni COST non è imposta dall'alto ma proviene dagli stessi studiosi e ricercatori. L'esperienza di circa trentacinque anni ha mostrato che questo processo "bottom up" è particolarmente adatto a promuovere ricerche a lungo termine di natura pre-competitiva, risponde con molta efficacia alla crescente domanda della comunità scientifica Europea e complementa molto utilmente i “programmi quadro” più applicativi e tipicamente “ top down” della Comunità. I progetti COST sono "azioni concertate" nel senso che implicano il coordinamento di attività di ricerca che sono finanziate a livello nazionale. Sebbene i partecipanti finanzino solo le proprie attività di ricerca essi hanno accesso a tutti i risultati ottenuti nell'Azione. Possono così essere eliminate sia lacune sia duplicazioni: la sinergia che ne consegue permette un uso più efficiente delle risorse nazionali destinate alle ricerche nei vari paesi. L'idea del COST è pertanto di unire insieme, all'interno di un determinato progetto di ricerca, istituti, università e industrie che vogliano far parte di questa forma di azione concertata. Sono i benefici della sinergia che i partner ottengono dalla collaborazione i motivi che spingono a partecipare a un progetto COST. Il COST, quindi, non è una sorgente di finanziamenti per le ricerche ma una struttura flessibile che è offerta come "contesto" per una collaborazione europea. Gli unici finanziamenti forniti dal COST sono per il cosiddetto “ networking”, cioè sono diretti ad assicurare l'organizzazione e la base operativa della collaborazione, le varie segreterie, il rimborso delle missioni e il supporto a workshop, seminari e pubblicazioni. Si ottiene cosi’ un effetto “ moltiplicatore”: con soli circa 20 Mall’anno si riesce a coordinare un volume di ricerca con un valore piu’ di cento volte maggiore e a coinvolgere ogni anno nelle Azioni COST piu’ di 30.000 ricercatori. Fin dall'inizio il COST ha optato per una struttura operativa estremamente agile e flessibile in modo da facilitare il più possibile l'implementazione e la gestione dei progetti di ricerca. Come già detto, il COST nasce da accordi intergovernativi stipulati dalla Conferenza Ministeriale del novembre 1971, accordi confermati dalle varie Conferenze Ministeriali che si sono susseguite nel tempo e che hanno aperto la porta della collaborazione COST a un numero sempre maggiore di paesi: dai 19 del 5 1971 ai 35 attuali. L’ultima Conferenza Ministeriale si è svolta a Dubrovnik nel 2003. Il Comitato dei “Senior Officials”, che il sottoscritto ha l’onore di presiedere, è l'organismo centrale della struttura COST ed è formato dai rappresentanti dei 35 paesi dell'Europa COST, in genere appartenenti ai Ministeri della Ricerca o alle varie università e accademie delle Scienze, che fungono da "Coordinatori nazionali". Esso formula la strategia generale della collaborazione COST, determina le aree di ricerca ed i relativi Comitati Tecnici, ne determina il mandato, approva il varo delle Azioni di ricerca e prepara i relativi Memorandum per la firma dei paesi interessati. Ciascun Comitato Tecnico è formato da un membro nominato da ogni paese dell'Europa COST. Il Comitato è responsabile della propria area di ricerca e, in questo ambito, esamina e approva le proposte delle nuove Azioni da presentare al Comitato dei Senior Officials, controlla l'implementazione, lo svolgimento e il coordinamento dei progetti ed effettua la valutazione dei risultati conseguiti. Le aree di ricerca COST sono 9: Biomedicine and Molecular Biosciences; Food and Agriculture; Forests, their Products and Services; Materials, Physical and Nanosciences; Chemistry and Molecular Sciences and Technologies; Earth System Science and Environmental Management; Information and Communication Technologies; Transport and Urban Development; Individuals, Society, Culture and Health. Per ogni Azione un Management Committee, formato da due delegati nominati da ogni paese firmatario del relativo Memorandum, è responsabile dell'implementazione e della gestione dell'Azione. I Management Committee rispondono al relativo Comitato Tecnico e preparano i rapporti annuali e un rapporto finale per illustrare e diffondere i risultati ottenuti nell'Azione. I servizi di segreteria del Comitato dei Senior Officials sono forniti dal Segretariato generale del Consiglio dell’Unione Europea. I servizi di segreteria dei Comitati Tecnici e dei Comitati di gestione delle varie Azioni sono forniti dalla European Science Foundation, in base ad un accordo stipulato con il COST nel 2002. 4. Il ruolo del COST nell’Area Europea di Ricerca Dal 1971 a oggi sono state varate più di 1000 Azioni COST con il coinvolgimento di molte decine di migliaia di ricercatori. Ciò ha creato in Europa una comunità scientifica COST particolarmente attiva e ha consolidato i rapporti tra un numero estremamente grande di Università e Centri di ricerca europei. E tutto questo con un minimo di fondi provenienti dalla Comunità. Un esempio per tutti. Nell'Azione COST 205 citata dianzi se si fossero dovuti sommare insieme i costi relativi alla costruzione, al lancio e alla gestione dei due satelliti SIRIO e OTS, dei radar, della strumentazione meteorologica, dei sistemi di acquisizione ed elaborazione dati e dei ricercatori dei quattordici paesi partecipanti, l'ammontare dei fondi da richiedere alla Comunità avrebbe assorbito una buona parte del budget totale destinato dalla Commissione alla ricerca. E invece, per l'Azione COST 205 la Commissione fornì soltanto la segreteria tecnica del progetto, perché, allora, non erano previsti neanche i rimborsi per le missioni effettuate dai partecipanti alle Azioni. Un minimo di fondi, dunque, per il COST, ma una grande e riconosciuta efficacia di risultati. Nel 1971 le Azioni COST sono l'unica forma di collaborazione nel campo della ricerca scientifica e tecnologica in Europa. Tra gli altri meriti, esse hanno quello di aver aperto la strada ai successivi programmi comunitari. Nel 1974 nasce la European Science Foundation, rete tra Consigli Nazionali della ricerca. Nel 1983 viene varato il primo Programma quadro della ricerca, cui seguono gli altri, tutti elaborati dalla Commissione Europea e approvati sia dal Parlamento Europeo che dal Consiglio dell’Unione Europea, con precisi obiettivi applicativi e finanziati dalla Comunità. Il prossimo, il settimo, partirà nel 2007 ed avrà una durata di sette anni Nel 1985 nasce il programma EUREKA che prevede una cooperazione "à la carte" tra le industrie europee. 6 Tutte queste iniziative avrebbero dovuto far diminuire l'interesse verso la forma di collaborazione COST e determinare una drastica diminuzione delle sue Azioni. E' accaduto, invece, esattamente il contrario. Il numero delle Azioni COST è andato aumentando nel tempo: dalle 7 Azioni del 1971 alle piu’ di 200 Azioni attuali. E la crescita non accenna a diminuire. Basti pensare che in risposta al COST Call for Proposals del Maggio 2006 in base al quale selezionare 25 nuove Azioni in sostituzione di quelle terminate nell’anno precedente, sono pervenute piu’ di 800 proposte di nuove Azioni. Le ragioni del successo COST vanno ricercate nella vocazione "europea allargata" della collaborazione COST, nella grande flessibilità di ideazione e agilità di gestione delle attività, ma, soprattutto, nella natura delle Azioni COST, cioè nel loro carattere di iniziativa spontanea e di ricerca di base e precompetitiva. Ciò fa assolvere talvolta al COST il ruolo di "precursore" nel senso che, sovente, idee maturatesi in ambiente COST si sono poi trasformate in progetti di ricerca comunitari. Tanto più aumenta il processo di competizione, tanto più quindi si restringe la possibilità di trovare facilmente fondi per ricerche di base che non abbiano obiettivi immediati, che siano spinte più dalla ricerca della conoscenza che da applicazioni già intraviste, che, anzi, talvolta possano non trovare un'applicazione immediata; tanto più aumenta il desiderio, quasi il bisogno, della comunità scientifica di trovare un ambiente dove "pensare insieme", dove cercare il nuovo senza eccessivi condizionamenti. Con una immagine molto felice, il ricercatore scientifico, a secondo che privilegi una ricerca spontanea che appaghi la sua sete di conoscenza o persegua precisi obiettivi per ottenere risultati predeterminati, è stato paragonato a Gilgamesh o a Serendip. Gilgamesh l'eroe positivo nato da un'epopea sorta nel Medio Oriente, preso comunemente a simbolo di chi cerca, con grande fermezza, qualcosa di preciso e ben determinato. Nel campo della ricerca scientifica egli può essere preso a emblema di grandi imprese, nate con un obiettivo preciso: lo sviluppo del radar, la fusione nucleare, la conquista della luna. Serendip, invece, il principe nato dalla fantasia di Horace Walpole che viaggia nel territorio dell'antica Sri Lanka «facendo, per caso, sempre nuove scoperte di cose piacevoli che non andava cercando». Sempre nel campo della ricerca scientifica Serendip è l'emblema delle scoperte nate dal caso, unito però a una costante voglia di "conoscere", come la mela di Newton, la rana di Galvani o la muffa di Fleming. Nel vocabolario inglese la parola “ serendipity” sta proprio ad indicare scoperte ottenute da attività “ curiosity driven”. E in un certo senso, con tutti i limiti di questo tipo di definizioni, nell'ambito della ricerca europea i programmi quadro comunitari sono Gilgamesh mentre le Azioni COST sono Serendip. Entrambi necessari. Non può esistere una ricerca finalizzata di successo se non esiste un ambiente di ricerca complessivo di livello estremamente elevato. “Serendip” ha dunque caratterizzato fin dall’inizio il COST: una ricerca “ curiosity driven”, pre-normativa e pre-competitiva, connaturata a un "alto rischio" di poter non trovare, talvolta, applicazioni immediate. Ma in questi casi basta una sia pur piccola percentuale di "successi" per ripagare tutto il resto. «Il novanta per cento della tua produzione scientifica non vale molto», sentii una volta dire da un ricercatore americano a un suo collega con quella brutale franchezza unita all'onestà intellettuale tipica della migliore comunità scientifica, «ma darei la mia vita per avere avuto il merito di aver prodotto il restante dieci per cento». Tuttavia, accanto al ruolo originario del COST come "esploratore" di conoscenza che poi possa tramutarsi, una volta matura, in attività di ricerca che perseguano precisi obiettivi nell’ambito dei Programmi Quadro o in operazioni di carattere industriale ad esempio nell’ambito di EUREKA, COST ha assunto nel tempo le seguenti altre caratteristiche che contribuiscono a renderlo un attore 7 importante nella European Research Area (Area Europea di ricerca). Una “rete” di alto livello scientifico capace di affrontare problemi di grande rilevanza per la società ( basti pensare, ad esempio, ai risultati COST nel campo della chimica “ verde”, o delle telecomunicazioni e dei sistemi di trasporto per i disabili); un “contesto” estremamente efficace per coordinare ricerche finanziate a livello nazionale ( basti pensare che il 95% circa dell’intero investimento Europeo in ricerca avviene a livello nazionale); un “antesignano” della politica Europea verso i paesi dell’Europa orientale e verso i paesi che si affacciano sul Mediterraneo; un “attore” importante per la collaborazione scientifica dell’Europa con gli USA, la Cina, l’India ed il resto del mondo. 5. Il recente passato, il futuro del COST ed il ruolo dell’Italia. Gli anni 2002-2003 sono stati gli anni “bui” durante i quali qualcuno adombrò finanche la possibilità di organizzare per il COST un “ honorable funeral”. Tutto ebbe inizio nel 2002 allorché la Commissione Europea manifestò la sua intenzione di non essere piu disposta, a partire dal 2003, a fornire il Segretariato ai Comitati Tecnici e alle Azioni COST né ad amministrare i fondi destinati al COST, come aveva fatto fino a quel momento. Inoltre vi erano difficoltà a reperire i fondi da destinare al COST dal sesto Programma Quadro ( FP6) per i quattro anni della sua durata ( 2003- 2006). Il primo problema derivava dal fatto che il COST non aveva una personalità giuridica e quindi non poteva ricevere direttamente fondi dal Programma Quadro. Si cercò allora di dare vita ad un’ Associazione COST senza scopo di lucro che avesse la necessaria personalità giuridica. La proposta in tal senso presentata al Comitato Senior Officials del COST nel giugno del 2002 non fu approvata per l’opposizione di due sole delegazioni. Ciò mise in luce l’altro punto debole del COST, quello di dover essere un organismo efficiente al passo con i tempi ed, allo stesso tempo, di avere le stesse modalità di votazione dell’Assemblea delle Nazioni Unite: bastava il “ veto” di una sola delegazione per bloccare qualunque proposta. Furono avviati allora contatti con l’European Science Foundation (ESF), come già detto rete tra i Consigli Nazionali di ricerca dei paesi Europei, avente sede a Strasburgo e personalità giuridica. Nel Settembre 2002 venne stipulato un Memorandum of Understanding COST-ESF secondo il quale l’ESF accettava di essere l’”implementing agent” del COST, di ricevere quindi i fondi da FP6 e di amministrarli per conto del COST e di fornire il segretariato ai Comitati Tecnici e alle Azioni COST. Venne all’uopo stipulato un contratto tra la Commissione Europea e l’ESF alla fine del 2003. D’altro canto furono reperiti nel FP6 i fondi per il COST e stabiliti pari a 50-80 Mper i quattro anni del FP6 : la cifra esatta sarebbe dipesa dalle riforme che il COST era stato invitato ad introdurre. Gli anni 2004-2006 - che fa piacere notare coincidono con la Presidenza Italiana del COST - sono stati gli anni definiti da qualcuno il “ rinascimento” del COST. L’ESF, per adempiere ai suoi impegni, ha dato vita ad un apposito COST Office a Bruxelles all’inizio del 2004. Entro la prima metà del 2006 sono state introdotte nel COST riforme epocali. Si è fortemente rafforzato il ruolo strategico del Comitato Senior Officials e - per la prima volta dopo 35 anni - si è introdotto, non senza enormi difficoltà, un sistema di votazione a maggioranza qualificata. Si sono completamente ristrutturate le aree scientifiche del COST- una rivoluzione copernicana che ha confermato per il COST il ruolo di “ precursore” nei piu’ importanti settori della ricerca scientifica - e si è provveduto a nominare i nuovi rappresentanti dei 35 paesi COST nei relativi Comitati Tecnici. Si sono organizzati tre “Strategic Workshops” su argomenti interdisciplinari di grande attualità: Conservazione dei beni culturali Europei, Nutrizione e Salute, Nanotecnologie. Si è introdotto un “Continuous Call for Proposals” in due stadi (proposte preliminari e proposte definitive) per aumentare la penetrazione del COST nella comunità scientifica rendendo estremamente obiettivo e rigoroso il processo di selezione. Si sono prese iniziative per un maggior coinvolgimento nelle Azioni COST dei giovani ricercatori Europei e di ricercatori delle comunità scientifiche dei paesi dell’Europa orientale e del Mediterraneo. 8 Questi risultati sonono stati ampiamente riconosciuti dai principali attori della ricerca scientifica Europea. Innanzitutto dalla comunità scientifica che, come gia detto, ha risposto entusiasticamente con piu’ di 800 proposte di nuove Azioni al bando del Maggio 2006. Dalla Commissione Europea che nella sua proposta per il settimo Programma Quadro fa esplicito riferimento alla necessità di continuare a fornire il necessario supporto al COST. Dal Consiglio dell’Unione Europea che ripetutamente ha raccomandato alla Commissione Europea di rafforzare i legami tra il Programma Quadro ed il COST. Ed infine dal Parlamento Europeo che, insieme al Consiglio dell’Unione Europea, dovrà decidere, entro il 2006, sul settimo Programma Quadro e sui relativi finanziamenti. Il futuro del COST pertanto appare brillante e costituisce una sicura opportunità per la ricerca Europea. Per quanto riguarda il nostro paese occorre sottolineare che il ruolo dell’Italia nel COST è stato sempre particolarmente rilevante, avendo l’Italia partecipato fin dall’inizio a quasi tutte le Azioni COST nelle varie aree scientifiche, e che questo ruolo si è ancor piu’rafforzato negli ultimi anni. Nel 2004 , per la prima volta dopo 34 anni e per la prima volta con voto unanime dei rappresentanti dei 35 paesi COST, l’Italia ha assunto la Presidenza del Comitato COST dei Senior Officials. L’Italia è stata uno dei primi paesi a nominare nel Marzo 2006 i propri rappresentanti nei nuovi Comitati Tecnici: 4 su 9 sono donne ed una di queste è stata eletta Presidente del relativo Comitato Tecnico. Insieme alla Germania l’Italia è il paese che ha presentato il maggior numero di proposte di nuove Azioni - piu’ di 100 - in risposta al recente bando di Maggio 2006. Talvolta, scherzando, affermo di avere contratto la “malattia COST” nel lontano 1971. Ed effettivamente la mia vita professionale è stata in tutti questi anni strettamente legata al COST: prima come Presidente di due Azioni di ricerca consecutive, poi come Presidente del Comitato Tecnico “ Telecommunications and Information Science” ed infine come Presidente del Comitato “ Senior Officials” (8). L’elevato livello dei rappresentanti Italiani nei Comitati Tecnici COST e l’ interesse nel COST recentemente cosi’ ampiamente confermato dalla comunità scientifica del nostro paese, mi rassicura che vi sono molti Colleghi contagiati dalla stessa malattia ai quali un giorno lasciare il testimone. 6. Bibliografia 1 J.J. Servan-Schreiber, Le défi américain, Denoël, Paris, 1967. 2 F. Fedi, B. Peroni, Programma di ricerca sulla propagazione di onde con frequenza superiore a 10 GHz, "Note, Recensioni, Notizie", vol XIX, n 3, 1970. 3 F. Fedi e altri, Attenuation: theory and measurements, "Journal de recherces atmosferiques", vol VIII, n 1-2, 1974. 4 F. Fedi, The Eurocop - Cost 25/4 project on radiopropagation above 10 GHz, Alta Frequenza, vol LXVI, n 4, aprile 1979. 5 F. Fedi, Project Cost 205: Influence of the atmosphere on Earth-Satellite radiopropagation at frequencies above 10 GHz, "Alta Frequenza", vol LIV, n 3, 1985. 6 F. Fedi, A contribution of radiopropagation research to radiocommunications development: prediction of attenuation due to rain, IEEE International Conference on Communications, Amsterdam 1984. 9 7 F. Fedi, New Frontiers for the european Cost in telecommunications, Conference Proceedings, Rome, 21 October 1992. 8. F. Fedi, Per la cooperazione scientifica COST è un modello, tutto europeo, Telèma n. 14, 1998. Pubblicato su Rivista INFORAV “Informatica e Documentazione” n. 1/2006
|
|
175)
Opening Address
Fedi,F., European Forum on Nanotechnologies, Brussels, October 2006
Welcome address
Distiguished guests, ladies and gentlemen, good morning.
It is indeed a great pleasure for me to welcome you to this “European Forum on Nanosciences” in my capacity as President of COST.
In my opinion “Convergence” is the word that characterizes this Conference and I wish to underline two main aspects of this convergence.
First the convergenge of the interests of so many Institutions and Instruments in the European Research Area: COST, the European Commission (EC), the European Science Foundation (ESF), the European Parliament (EP), and the ERA-NET Consortium on Nanosciences.
The first idea to organize a Conference on Nanosciences originated in COST at the beginning of last year when we were planning to organize a COST Strategic Workshop on this topic. The idea was further elaborated when in October of last year I visited Mr. Renzo Tomellini, Head of the Unit “Nanosciences and Nanotechnologies” of the Directorate General for Research of the European Commission. COST has very strong ties with the European Commission following the decision of the EC to become a more active partner of COST. During the meeting the synergies to be found between the EC activities and COST were carefully considered. Mr Tomellini expressed his wish for his Unit to cooperate with COST in the development of nanosciences and nanotechnologies and to contribute to the forthcoming planned COST strategic workshop on this topic. An Organizing Committee was formed and the first very wise decision and perhaps a prerequisite for the success of this Conference was to ask Dr Martin Grabert, Director of the COST Office, to chair this Committee and to involve in the preparation of this Conference Dr Hannelore Roemich of the COST Office. The interest of the EC is underlined by the presence this morning of the European Commissioner for Science and Research, Dr Janez Potocnic, who will deliver a key note address on “Nanoscale research with macro potential for growth and competitiveness”.
Soon afterwards it seemed natural to us to involve the European Science Foundation, The cooperation between COST and ESF started in 2002 and only a few days ago COST confirmed the ESF as its implementing agent for the Seventh Framework Programme. To this end both the COST CSO which I have the honour to chair and the ESF Governing Council approved the prolongation and the confirmation of the COST-ESF Memorandum of Understanding established in 2002 together with an Addendum to be considered as an integral part of the Memorandum. COST-ESF Agreements on operational issues were also established. The objective of both the Addendum and the Agreements is to further develop the synergy between COST and ESF while maintaining a clear distinction between their individual characteristics and their complementary roles. COST looks forward to the increased future collaboration with the ESF and to the support of the ESF through the COST Office to assist the COST Scientific Committeees and Actions. The presence of the ESF President, Professor Ian Halliday, who will speak after me, is a clear signal of this reinforced synergy.
Then the European Parliament which devoted particular attention to COST last year during the COST Exhibition in the European Parliament held in April and sponsored by MEP Pia Elda Locatelli, As it was reported in the media, Commissioner for Research, Dr Janez Potočnik, Mr. Giles Chichester, Chair of the EPs ITRE ( Industry, Trade, Research, Energy) Committee of the EP and Professor Buzek, Rapporteur to the EP for on FP7, “sung praises” of COST in the framework of the scientific networking in the ERA., The interest of the EP in this Conference is underlined by the active participation of the MEP Mr. Philippe Busquin, “father” of the ERA and President of the Scientific Technology Options Assessment Panel (STOA) of the EP. On the day before this Conference STOA organized at the European Parliament a discussion forum on “Will Nanoscience shape future society and how will citizens benefit from it?” This was an unique opportunity where “ Nanoscience met Politics” and during which the issues at stake were discussed such as: public and private support, legislative framework and standardization.
And last and certainly not least the ERA-NET Consortium on Nanoscience in the European Research Area. COST has a long tradition of complementarity with the instruments of the Framework Programmes. Acting as an exploratorium of new ideas COST has been the origin of many research projects and Networks of Excellence. COST which is typically networking among European Researchers and the ERA-NETs which are typically networking of national research programmes may benefit from each other and certainly the value of this Conference was increased with the interest of the ERA-NET Consortium on Nanoscience.
The convergence of the interests of so many Institutions and Instruments on such an important topic and the resulting synergy which has been obtained while keeping them as separate instruments, each with its own characteristics and complementary role within the European Reserach Area, is the best way, in my opinion, to contribute to the de-fragmentation in research without imposing pre-arranged top-down solutions that would contradict the free bottom-up spirit of the European scientific community.
Second the convergence of disciplines. What does “nano” mean? To really understand what “nano” means you should immagine to divide a millimeter into a million of parts. Nanosciences explore what happens on the "nanometric" scale and thus in a dimension where our understanding of rules gained on "macro" scale has to be completely revised. Nanosciences, being primarily the extension of existing sciences into the “extremely small”, are now advancing rapidly thanks to the strong convergence among disciplines, encouraging connections of biotechnology and biomedicine, information technology and computing science as well as with cognitive science and cognitive neuroscience. The main aim of this "European Forum on Nanosciences" is to explore the wide range of new possibilities, underlining the international and interdisciplinary character of this field. Many issues will be addressed: How can nano scale research improve the quality of life? Will future energy problems be powered on nano-scale? How will converging nanosciences transform information society? How societal and environmental aspects can be integrated into a broader perspective ? And finally, how can we better structure the research community to give a solution to these problems?
To answer these questions leading scientists have been invited to present keynote talks, to give their opinion on the different issues and to participate in the discussions.
I do hope that all our efforts will be successful and that this Forum will be a first milestone marking the way for a long lasting common engagement.
With this hope in mind I open this Forum on behalf of COST, I wish you every success in your activities and thank you very much for your attention.
|
|
176)
Research networks in Europe: the COST approach
Fedi, F., Assises nationales de la recherche scientifique et de l'innovation technologique, Tunis, 19 et 20 novembre 2007
1. Introduction
COST – the acronym for European CO-operation in the field of Scientific and Technical Research- is the longest running and widest European intergovernmental network for cooperation in research.
Established by a Ministerial Conference of 19 European States in November 1971, COST is at present serving the scientific communities of 35 European countries to cooperate in common research projects supported by national funds. The COST countries are:
the 34 COST Member States:
a) the 27 EU European countries (Austria,Belgium, Bulgaria, Cyprus, Czech Republic, Denmark, Estonia, Finland, France, Germany, Greece, Hungary, Ireland, Italy, Latvia, Lithuania, Luxembourg, Malta, The Netherlands, Poland, Portugal, Romania, Slovakia, Slovenia, Spain, Sweden, United Kingdom)
b) 7 European countries not belonging to the European Union (Croatia, Former Yugoslav Republic of Macedonia, Iceland, Norway, Serbia, Switzerland, Turkey)
and the COST Cooperating State: Israel.
COST is a cornerstone for the development of the European Research Area (ERA) and instrumental in achieving the objectives set by the European Councils of Lisbon in 2000 and Barcelona in 2002. It is a unique instrument with a clear role in the ERA combining the following characteristics in a single, flexible structure:
- a European "exploratorium" of new ideas in the most promising fields of research, thus functioning as a generator of initiatives in the Framework Programmes and as a potential source of industrial applications in EUREKA;
- a high-level scientific network able to tackle problems of societal importance;
- a framework able to ensure both scientific excellence and networking among European researchers;
- an effective tool to coordinate nationally funded research activities encouraging synergy and work sharing and avoiding duplications and gaps thus allowing a more efficient use of national resources. A“ multiplier effect” is achieved: with the funds provided for COST networking a volume of research activities worth about 100 times as much is coordinated;
- an active partner in the European “neighbourhood” policy towards the scientific communities of the EU’s "near neighbours";
- an asset for the EU RDT policy in its relation to the rest of the world.
This paper describes the COST characteristics, its major successes and its recent developments. The confirmed confidence and enthusiasm in the COST research community, the assured support from the EU Seventh Framework Programmes and the consequent brilliant future for COST represents an important opportunity for the scientific community on a world basis.
2. COST Characteristics
“Bottom up approach” (the initiative of launching a COST Action comes from the European researchers themselves), “à la carte participation” (only countries interested in the Action participate), “equality of access” (participation is open also to research communities of countries not belonging to the European Union) and “flexible structure” (easy implementation and light management of the research initiatives) are the main characteristics of COST.
As a precursor of advanced multidisciplinary research COST has a very important role for the realisation of the European Research Area (ERA) anticipating and complementing the activities of the Framework Programmes, constituting a “bridge” towards the scientific communities of emerging countries, increasing the mobility of researchers across Europe and fostering the establishment of scientific excellence in many key domains such as:
• Biomedicine and Molecular Biosciences
• Food and Agriculture
• Forests, their Products and Services
• Materials, Physical and Nanosciences
• Chemistry and Molecular Sciences and Technologies
• Earth System Science and Environmental Management
• Information and Communication Technologies
• Transport and Urban Development
• Individuals, Societies, Cultures and Health
COST contributes to reduce fragmentation in research investments in Europe and to open the European Research Area to the cooperation on a world basis.
3. COST Structure
The Committee of Senior Officials (CSO) is the main decision-making body and is made of representatives of all COST countries. The Domain Committees (DC) are responsible for a particular research domain and are also formed by representatives of the COST countries. The Management Committees (MC) - one for each Action - are formed by national experts nominated by the countries participating in the Action, coordinate the activities of the Action and report to the relevant Domain Committee. The secretariat to the CSO is provided by the Secretariat General of the Council of the European Union, thus underlining the intergovernmental character of COST. The scientific and administrative Secretariat to the COST Domain Committees and to the COST Actions is provided by the European Science Foundation (ESF) - the implementing Agent of COST - through the COST Office in Brussels.
4. COST Actions
COST networks, called Actions, are networks centred around research projects nationally funded in fields that are of interest to at least five COST countries. COST Actions cover basic and pre-competitive research for peaceful purposes as well as activities of public utility, as part of the Lisbon objectives.
Every COST Action has an objective, defined goals and clear deliverables. They achieve results through network building activities such as meetings, workshops, training schools and short-term scientific missions. Existing COST Actions operate across a wide spectrum of scientific fields, can be multi-disciplinary in nature, and their results often maintain beyond their normal four-year duration. Today there are more than 200 ongoing COST Actions and there have been many hundred Actions over the years.
5. COST Open Call
A continuous COST Open Call with two collection dates per year to attract the best proposals for new COST Actions is used. The continuous call is thematically open and proposals playing a precursor role for other European programmes and/or initiated by early-stage researchers are particularly welcome.
Proposers are invited to locate their topic within one Domain. However, inter-disciplinary proposals not fitting readily into a single Domain are also welcome.
Proposals are assessed in two stages. Preliminary Proposals, consisting of a brief overview and an impact description, are checked for eligibility first and, when eligible, assessed by the relevant DC against established criteria. The top ranked Preliminary Proposals are then invited to submit a Full Proposal which is peer reviewed according to the established assessment criteria. The time between the collection date and the approval of the best Full Proposals is approximately 6 months. Detailed information is available in the COST website: http://www.cost.esf.org
6. Scientific quality control
The scientific quality control of COST Actions is carried out by the COST Domain Committees assisted by the COST Office according to the COST “Guidelines for Assessment, Monitoring, Evaluation and Dissemination of Results of COST Actions” and it is composed of the following four steps:
- Assessment of proposals for new Actions.
- Monitoring of the Actions in progress. An Annual“ Progress Report” is presented by the MC Chair of the Action in the yearly meeting with the relevant DC
- Evaluation of completed Actions.
- Dissemination of results.
7. COST Funding
The funds provided by COST are obtained from the European Research Framework Programmes. The support to COST Actions is less than about 1% of the total value of the Actions. During the Sixth Framework Programme (FP6) with around 20 million € per year, more than 30.000 European scientists were involved in COST networking with their projects representing a total value which exceeded 2 billion € per year.
COST funding covers the coordination costs associated with organising and attending meetings, workshops and conferences; short-term scientific missions as well as publications and other dissemination activities. The research activities themselves (staff, infrastructure etc.) are supported through national funds and are not supported by COST.
8. COST Results
The scientific importance and relevance of COST results is testified by the thousands of scientific papers published in the most important scientific journals and by the many doctoral degrees obtained by students working in COST Actions. COST results have also contributed to European competitiveness through the many contributions to normative and standardisation bodies, the many Small Enterprises originating in Europe from COST activities at the frontiers of modern technology and by the many examples of transfer of results to the European industry. The societal importance of COST results has also to be underlined concerning delicate issues arising from pressing societal needs. The contribution of COST to the ERA is also particular important being COST in many instances a precursor of research projects and activities in the Framework Programmes.
9. COST contributes to reduce fragmentation of national research efforts in the ERA
The mission of COST is to be a flexible, fast, effective and efficient tool to network and coordinate nationally funded research activities at project level (Actions), bringing good scientists together under light strategic guidance and letting them work out their ideas. This is particularly important to contribute to reduce fragmentation of national research efforts in Europe where about 95% of the investments in research are done at a national level and only 5% is managed at the EU level.
10. COST contributes to increase the cooperation on a world basis
One of the key features of COST is its openness towards the rest of the world on the basis of mutual benefit. Institutions from non-COST countries can join an Action on a case- by- case basis once the mutual benefit has been ascertained, without the need for any formal arrangements at government or agency level. With such easy accessibility and light and fast procedures, COST has always been a “bridge” for the scientific communities both of the European neighbouring countries and on a world basis. More than 190 Institutions from non-COST countries are presently participating in COST Actions.
In general researchers from Institutions from non-COST countries do not receive economic support from COST. However COST established a particular strategy to encourage the participation in COST Actions of researchers from the so-called near-neighbouring countries: the Balkan and Eastern countries (Albania, Bosnia and Herzegovina, Armenia, Azerbaijan, Belarus, Georgia, Moldova, Russia, Ukraine) and the Mediterranean and north-African countries (Algeria, Egypt, Libya, Lebanon, Morocco, Syria, Tunisia, Jordan and the Palestinian Authority). For Institutions of these countries for each COST Action up to two researchers from each country may be reimbursed for attendance at the meetings of the Action and are eligible to be supported to participate in other activities decided at the level of individual Actions (short-term scientific missions, training schools and conferences).
11. The future of COST
In December 2006 the EU Council decided to give to COST up to 250 million Euro for the duration of the EU Seventh Framework Programme (2007-20013).The increase of about 80% of the financial support to COST with respect to the Sixth Framework Programme is an acknowledgment of the excellence of COST and a reward of paramount importance for the entire COST community.
For the members of the COST Committee of Senior Officials whose dedication and sense of ownership made it possible to introduce a number of reforms which are real milestones in the history of COST.
For the Chairs and members of the scientific COST Domain Committees, nominated among the most outstanding European scientists.
For the participants in the COST Actions, the real “ raison d’etre” of COST and, in general, for the entire European scientific community which with their overwhelming response to the COST Calls for the selection of new Actions confirmed all the vitality of the COST framework.
For the COST Secretariat provided, since the very beginning of COST, by the General Secretariat of the EU Council.
For the COST Office established by the European Science Foundation in Brussels acting as COST implementing agent.
12. Conclusions
It has to be hoped that the expected brilliant future of COST will continue to be an important opportunity to contribute
- to reduce fragmentation of national research efforts in the ERA, and
- to enlarge the cooperation of the ERA to Tunisia and the other European neighbouring countries.
At present Tunisia participates in two COST Actions: COST B27"Electric Neuronal oscillations and cognition (ENOC)" (Faculté des Sciences de Tunis) and COST 291"Towards DiGital Optical Networks" (Institut Supérieur d'Informatique et des Technologies de Communications (ISITC),University of Sousse).
The Tunisian scientific community is therefore strongly encouraged to take full advantage of the opportunities offered by COST and to increase its participation in COST Actions.
|
|
177)
La Posizione Italiana sul futuro del COST
COST Francesco Fedi
Francesco Fedi
Il COST è il primo e più vasto network intergovernativo per la cooperazione nell’ambito della ricerca.
Istituito da una Conferenza ministeriale di 19 Stati europei nel novembre del 1971, COST è attualmente al servizio delle comunità scientifiche di 35 Paesi europei per la cooperazione in progetti comuni di ricerca (Azioni COST) finanziati con fondi nazionali.
Finanziamento del COST
I fondi COST sono erogati dai Programmi Quadro Europei di Ricerca e finanziano unicamente le attività di coordinamento. Il sostegno alle Azioni COST rappresenta meno dell’1% del valore totale delle Azioni. Si ottiene così un “effetto moltiplicatore”: con i fondi previsti per le attività di networking in ambito COST il volume delle attività di ricerca vale circa 100 volte il valore del coordinamento.
Caratteristiche del COST
Queste le caratteristiche principali del COST: approccio “bottom up” (l’iniziativa per il lancio di un’Azione COST giunge dagli stessi ricercatori europei), partecipazione “à la carte” (partecipano soli i paesi interessati ad una determinata Azione), “parità di accesso” (la partecipazione è aperta anche alle comunità scientifiche di paesi che non fanno parte dell’Unione europea) e “struttura flessibile” (facile attuazione e gestione agile delle iniziative di ricerca).
Risultati del COST
L'importanza e il rilievo scientifico dei risultati del COST sono testimoniati dalle migliaia di articoli scientifici pubblicati sulle più importanti riviste di settore e dai numerosi titoli di dottorato conseguiti dagli studenti impegnati nelle Azioni COST. I risultati del COST hanno anche accresciuto la competitività europea attraverso il contributo agli enti normativi e di standardizzazione, attraverso lo sviluppo di molte piccole imprese in Europa alle frontiere della tecnologia grazie alle attività COST, nonché mediante numerosi esempi di trasferimento dei risultati al settore industriale europeo. L'importanza sociale del COST deve anche essere sottolineata in relazione alle delicate questioni derivanti dai sempre più pressanti bisogni sociali. Il contributo del COST all'ERA è di notevole importanza poiché il COST in molte circostanze si pone come precursore di progetti e attività di ricerca all'interno dei Programmi Quadro.
Il COST contribuisce a ridurre la frammentazione delle ricerche nazionali in ambito ERA
COST si contraddistingue per essere uno strumento flessibile, veloce ed efficace per favorire le relazioni e il coordinamento di attività di ricerca a livello progettuale (Azioni) finanziate su base nazionale, con il fine di riunire scienziati di valore sotto un limitato controllo strategico per permettere loro di elaborare le proprie idee. Ne derivano sinergie e condivisione del lavoro, si evitano duplicazioni e lacune che permettono un uso più efficiente delle risorse nazionali. Questo è particolarmente importante per ridurre la frammentazione dei sistemi di ricerca nazionali in Europa, dove circa il 95% degli investimenti in ricerca sono effettuati a livello nazionale e solo il 5% è gestito a livello europeo.
Il COST contribuisce ad aumentare la cooperazione su base mondiale
Una delle caratteristiche principali del COST è l’apertura verso il resto del mondo. Istituzioni di Paesi non COST possono entrare a far parte di un’Azione in base ad una valutazione caso per caso, una volta che sia stato appurato il vantaggio reciproco, senza la necessità di alcun accordo formale a livello di governo. Grazie alla facile accessibilità e a procedure snelle e veloci, il COST è sempre stato un “ponte” per le comunità scientifiche sia dei paesi europei limitrofi sia in ambito internazionale. Attualmente oltre 230 Istituzioni di paesi non COST partecipano ad Azioni COST.
In generale, i ricercatori afferenti ad Istituzioni di paesi non COST non ricevono supporto economico dal COST. Tuttavia il COST ha istituito una particolare strategia per incoraggiare la partecipazione alle Azioni COST di ricercatori provenienti dai paesi cosiddetti “del vicinato”: i Balcani, i paesi dell’Europa orientale, del Mediterraneo e del Nord Africa. I ricercatori di questi paesi ricevono supporto finanziario dal COST. Attualmente oltre 80 Istituzioni di questi paesi sono coinvolte in Azioni COST.
Nel luglio del 2007, sono entrati in funzione due programmi pilota per facilitare la partecipazione dei ricercatori australiani e neozelandesi alle Azioni COST. Sviluppati in collaborazione con la Australian Academy of Science e la Royal Society of New Zealand, questi programmi attingono a fondi nazionali specifici predisposti dai rispettivi governi, e finanziano le spese di viaggio e le diarie dei ricercatori australiani e neozelandesi impegnati nelle Azioni COST. A dieci mesi di distanza dal lancio del progetto la partecipazione di questi due Paesi è più che triplicata. Al momento Sud Africa, India e Argentina stanno valutando la possibilità di concludere degli accordi simili.
Il punto debole del COST
Il punto debole del COST è la mancanza di personalità giuridica. Il COST è stato il primo timido tentativo di istituire una collaborazione nel campo della ricerca in Europa. Ha avuto inizio nel 1971 attraverso uno scambio di lettere tra i Ministri di 19 Stati europei e una Conferenza ministeriale. Successive Conferenze ministeriali hanno continuato a sostenere le attività del COST e hanno esteso la cooperazione a 35 Paesi europei.
La mancanza di personalità giuridica è divenuta un problema nel 2002, quando la Comunità europea ha posto termine al supporto amministrativo e di segreteria al COST. COST non ha potuto così ricevere i fondi dai Programmi Quadro e si è trovato nella necessità di cercare delle soluzioni al problema.
Alla fine del 2002, è stata adottata la soluzione di nominare “ implementing agent for COST” l’European Science Foundation( ente avente personalità giuridica con sede a Strasburgo). Come chiaramente asserito nella Dichiarazione della Conferenza ministeriale COST di Dubrovnik nel 2003, COST era nel bisogno di trovare “un segretariato esperto ed efficiente in termini di costi per assistere il COST nello svolgimento del proprio lavoro” e questo segretariato veniva identificato nella European Science Foundation. Nel settembre 2002 è stato firmato un Protocollo d’intesa COST-ESF per effetto del quale “la ESF accettava il compito di agire in qualità di ente legale per il COST e di fornire e gestire il segretariato amministrativo, tecnico e scientifico per i Comitati tecnici COST e le Azioni, subordinato ad un adeguato finanziamento per le attività COST erogato dal Programma Quadro europeo di Ricerca e Sviluppo”.
Deve essere sottolineato che il COST è un network intergovernativo scientificamente autosufficiente organizzato in nove COST Domain Committees (Comitati scientifici di settore) formati da alcuni tra i più autorevoli scienziati europei. La principale responsabilità dei Comitati scientifici risiede nel controllo della qualità scientifica, valutata attraverso procedure molto rigorose stabilite dal Committee of Senior Officials (CSO) del COST che prevedono obbligatoriamente l’impiego di peer reviewers esterni (COST Guidelines). L’ESF fornisce solamente il COST Office a Bruxelles e la competenza amministrativa a Strasburgo. Nel 2003, nel corso del VI Programma Quadro, è stato firmato un contratto tra la Commissione europea e l’ESF che permetteva a quest’ultima di svolgere le attività previste nel Protocollo d’intesa COST-ESF per l’intera durata del VI Programma Quadro. Nel periodo 2002-2006 la cooperazione con l’ESF è stata proficua e ha contribuito allo sviluppo del COST come strumento estremamente efficiente dell’ERA.
Nel giugno 2006 il COST ha confermato l’ESF come agente esecutivo per il VII Programma Quadro e ha comunicato questa decisione alla Commissione europea attraverso il Segretariato Generale del Consiglio.
Nel gennaio 2007 hanno avuto inizio i negoziati tra la Commissione europea e la ESF per la definizione del contratto per il COST concernente il VII Programma Quadro. Sia il COST che l’ESF erano dell’avviso che fosse necessario mettere in atto ogni sforzo affinché il contratto tra la Commissione e l’ESF fosse firmato al più presto possibile per permettere una rapida attuazione della decisione del Consiglio sul Programma Specifico “Cooperazione”, secondo cui avrebbero dovuto essere attribuiti a COST “tra i 210 e i 250 milioni di euro, fatta salva la valutazione di medio termine”. I negoziati sono giunti a conclusione positiva e nell’agosto 2007 il contratto è stato firmato.
Le conclusioni del Rapporto del Panel di esperti designato dalla Commissione per la revisione finale del contratto con la ESF per il VI Programma Quadro sono state rese note solo nel giugno del 2007. Questo Rapporto è conosciuto come “Rapporto Monfret” dal nome del Presidente del Panel. Secondo le raccomandazioni del Rapporto Monfret o il COST avrebbe dovuto costituire un’entità giuridica indipendente o l’ESF avrebbe dovuto farsi carico di tutte le attività del COST inclusa la formulazione della strategia e i rapporti con gli Stati Membri.
Per il VII Programma Quadro, il COST ha deciso di proseguire con lo Status Quo. Questo è stato giustificato dal fatto che il contratto tra la Commissione e l’ESF era in via di conclusione e un cambiamento avrebbe comportato l’interruzione delle attività in seno alle Azioni COST. Questo approccio pragmatico è stato adottato a beneficio della comunità scientifica europea che rappresenta la sola e reale ragion d’essere del COST e che ha confermato il suo forte interesse per il COST con l’eccezionale risposta alle recenti Open Calls del COST per la presentazione di nuove Azioni.
Il COST, però, non poteva ignorare le raccomandazioni presenti nel Rapporto Monfret per il periodo successivo al VII Programma Quadro in vista della “ mid term review”del contratto tra la Commissione e l’ESF - prevista nei primi mesi del 2010 - e ha deciso di prendere in esame la questione dello Status giuridico del COST.
Le soluzioni per lo status giuridico del COST
Nel corso dell’ultima riunione del CSOdel Marzo 2009, sono state registrati gli orientamenti dei 34 Stati Membri in relazione allo status giuridico del COST e sono emerse due possibili soluzioni: il mantenimento dello Status Quo e la creazione di una COST Office Association. Quest’ultima soluzione ha ricevuto il maggiore sostegno.
Status Quo. Nessuna personalità giuridica per il COST. Il COST continuerebbe a servirsi dell’ESF come”implementing agent”. Questa soluzione prospetta i seguenti svantaggi.
Si tratta di un “mostro giuridico”. Il fatto che due enti (la Commissione europea e l’ESF) concludano un contratto che riguarda un terzo ente (COST) che non ha personalità giuridica e di conseguenza non è parte del contratto - e che al contempo deve dare la propria approvazione per qualunque richiesta la Commissione presenti all’ESF – non rappresenta certo la migliore soluzione da un punto di vista strettamente giuridico.
Questa soluzione non segue nessuna delle due raccomandazioni prospettate nel Rapporto Monfret con il rischio di pregiudicare una valutazione positiva per il COST alla revisione di medio termine dell’inizio 2010.
Vi sono anche preoccupazioni circa la stabilità interna dell’ESF. In seno all’ESF esistono varie opinioni nessuna delle quali propende per lo Status Quo. Da una parte la DFG (Fondazione tedesca per la Ricerca) ritiene che le Organizzazioni facenti parte dell’ESF dovrebbero ricoprire un ruolo più incisivo nelle attività del COST con l’obiettivo di trasferire tali attività nel portafoglio dell’ESF come pure i fondi previsti per il COST nell’ambito del Programma Quadro . Inoltre la stessa DFG ha minacciato di cessare il proprio sostegno all’ESF se questa dovesse mancare questo obiettivo. D’altra parte, il CNRS francese (Centro nazionale per la Ricerca Scientifica) ritiene che l’ESF dovrebbe porre termine al contratto con la Commissione per il COST, poiché in base a questo contratto i fondi sono gestiti solo dalle alte sfere dell’amministrazione dell’ESF senza controllo alcuno da parte delle Organizzazioni membri. Il Presidente dell’ESF e il CEO (Chief Executive Officer) dell’ESF non sembrano in grado di far fronte a questa situazione. Di conseguenza, dopo nove mesi, la domanda posta dal COST – ovvero se l’ESF sarebbe stato disponibile ad essere l’agente esecutivo del COST per il periodo dopo il Settimo Programma Quadro – non ha ricevuto una risposta né chiara né vincolante.
Alcuni ritengono che, poiché la posizione della DFG all’interno dell’ESF è molto forte, la scelta dello Status Quo potrebbe implicare nel lungo periodo l’nassorbimento del COST nell’ESF con la conseguente scomparsa del COST.
Il COST è alla costante ricerca dell’ottimizzazione della propria sfera d’azione e governance rispetto al mutare dell’ambiente circostante. Sarebbe di certo più difficile mettere in pratica tutto ciò attraverso un agente esecutivo che segue un proprio programma.
L’attuale gestione dell’ESF non è paragonabile a quella del passato e il divario tra le governance del COST e dell’ESF è aumentato nel corso degli anni.
COST Office Association. Gli Stati Membri del COST darebbero vita ad una nuova entità giuridica (Associazione senza scopo di lucro) designata come agente esecutivo del COST, mentre l’attuale struttura, che vede in particolare il CSO come organo decisionale del COST, resterebbe inalterata. In questo modo la struttura del COST sarebbe molto simile a quella di EUREKA. Nessuna implicazione economica deriverebbe per gli Stati Membri del COST.
Il CSO dovrebbe adottare una raccomandazione che preveda la creazione della COST Office Association, con l’invito per gli Stati Membri del COST a porre in essere tutte le misure necessarie per istituire tale Associazione. Attraverso la stessa procedura, il CSO potrebbe anche predisporre una bozza dello Statuto della COST Office Association.
Il CSO potrà designare la COST Office Association come agente esecutivo del COST. Si tratterebbe quindi semplicemente di passare da un “implementing agent” esterno ad un “implementing agent” interno.
La Conferenza Ministeriale del COST prevista in Spagna nella prima metà del 2010 potrà supportare la COST Office Association.
Con la soluzione che vede la creazione della COST Office Association, il COST manterrebbe la sua vocazione intergovernativa, le sue tradizioni e potrebbe essere uno strumento molto efficace a diposizione degli Stati Membri per la realizzazione di due obiettivi principali.
Coordinare le attività di ricerca di natura bottom-up e fornire input per il policy making
Alla luce dei recenti orientamenti del Consiglio, si può concludere che persiste una forte domanda di coordinamento di ricerche con modalità bottom-up, ovvero azioni del tipo COST. I principi fondamentali su cui si basa il COST (modalità bottom-up, flessibilità e apertura) sono ampiamente ripresi in ambito ERA. Pertanto, la domanda per finanziamenti di questo tipo di attività di networking è sempre forte e deve essere mantenuta ad un livello adeguato.
Le Azioni COST costituiscono network objective-driven. Gli obiettivi sono chiaramente definiti e possono essere ordinati in gruppi tematici. Questi gruppi rappresentano indicatori eccellenti dei temi per i quali un certo grado di coordinamento delle attività di ricerca nazionali è già in atto. L’uso di queste informazioni che emergono dalle Azioni COST potrebbe essere facilmente consolidato per contribuire a fornire degli input per il policy making ben strutturati e basati su prove certe.
Contribuire all’internazionalizzazione e allo sviluppo della dimensione globale dell’ERA
In generale, il COST è considerato un trampolino di lancio verso una sempre più intensa collaborazione scientifica dell’European Research Area con il resto del mondo.
La posizione Italiana.
Il ruolo dell’Italia nel COST è stato sempre particolarmente rilevante. L’Italia è stata tra i paesi fondatori del COST e, con l’allora Ministro della Ricerca Camillo Ripamonti, ha presieduto la Conferenza Ministeriale del 1971 che ha dato origine al COST. Fin dall’inizio l’Italia ha partecipato a quasi tutte le Azioni COST nelle varie aree scientifiche e questo ruolo si è ancor piu’rafforzato negli ultimi anni. Nel 2004, per la prima volta dopo 34 anni e per la prima volta con voto unanime dei rappresentanti dei 35 paesi COST, l’Italia, con il Prof. Francesco Fedi, ha assunto la Presidenza del COST. Nel 2007 la Presidenza Italiana è stata confermata per un ulteriore triennio. L’Italia è stata uno dei primi paesi a nominare nel Marzo 2006 i propri rappresentanti nei nuovi Comitati Scientifici COST : 4 su 9 sono donne ed una di queste è stata eletta Presidente del relativo Comitato Tecnico. Insieme alla Germania, il Regno Unito e la Francia, l’Italia è il paese che presenta il maggior numero di proposte di nuove Azioni in risposta ai bandi emessi dal COST.
L’Italia appoggia incondizionatamente per il COST la soluzione del COST Office Association.
Roma, 29 Marzo 2009
|
|
178)
Past Present and Future of COST
COST Francesco Fedi
Francesco Fedi
1. COST in brief
COST - "European CO-operation in the field of Scientific and Technical Research" - is the longest running and widest European intergovernmental mechanism for cooperation in research.
Established by an exchange of letters in 1969-1970 followed by the Ministerial Conference of 19 European States on 22-23 November 1971, COST currently helps the scientific communities of 35 European countries (including all EU Member States and candidate countries) cooperate in common research projects (Actions), supported by national funds.
COST is a cornerstone for the development of the European Research Area (ERA) and instrumental in achieving the objectives set by the Lisbon Agenda. It is a unique instrument with a clear role in the ERA which notably provides:
o a European "exploratorium" of new ideas in the most promising fields of research, thus functioning as a generator of initiatives in the Framework Programmes and as a potential source of industrial applications, for instance in EUREKA;
o a high-level scientific network able to tackle problems of societal importance;
o a framework able to ensure scientific excellence in networking European researchers;
o an effective tool to coordinate nationally funded research activities, encouraging synergy and work sharing and avoiding duplication and gaps, thus allowing a more efficient use of national resources. A“ multiplier effect” is achieved: with the funds provided for COST networking a volume of research activities worth about 100 times more;
o an active partner in the European “neighbourhood” policy towards the scientific communities of the EU’s neighboring countries;
o an asset for the EU RTD policy in its relation to the rest of the world.
The confirmed confidence and enthusiasm in the COST research community, and the support assured from the EU‘s Framework Programmes, represent an important opportunity for the scientific community on a world basis also in the future.
2. COST Characteristics
o “Bottom up approach” (the initiative of launching a COST Action comes from the European researchers themselves)
o “à la carte participation” (only countries interested in the Action participate)
o "coordination of research capacity" using the network of national coordinators and Domain Committees
o “openness to non-European participation”
o “flexible structure” (easy implementation and light management of the research initiatives)
are the main characteristics of COST. As a precursor of advanced multidisciplinary research COST has a very important role for the realisation of the European Research Area (ERA), anticipating and complementing the activities of the Framework Programmes, constituting a “bridge” towards the scientific communities of emerging countries, increasing the mobility of researchers across Europe and fostering the establishment of scientific excellence. COST is organised in nine domains:
o Biomedicine and Molecular Biosciences
o Chemistry and Molecular Sciences and Technologies
o Earth System Science and Environmental Management
o Food and Agriculture
o Forests, their Products and Services
o Individuals, Societies, Cultures and Health
o Information and Communication Technologies
o Materials, Physical and Nanosciences
o Transport and Urban Development
However, COST also supports and encourages "Trans-Domain" activities which do not readily fit in any single Domain. COST contributes to reduce fragmentation in research investments in Europe, and opening the European Research Area to cooperation on a world basis.
3. The COST Structure at present
The Committee of Senior Officials (CSO) is the main decision-making body and is composed of representatives from all COST Member States. The Domain Committees (DCs) are responsible for particular research domains, and are also made up of representatives of all COST countries. The Management Committees (MCs) - one for each Action - are formed by national experts nominated by the countries participating in the Action, and coordinate the activities of the Action, reporting to the relevant Domain Committee. The CSO secretariat is provided by the General Secretariat of the Council of the European Union, thus underlining the intergovernmental character of COST. The scientific and administrative Secretariat to the COST Domain Committees and to the COST Actions is provided by the COST Office in Brussels, run by the European Science Foundation (ESF) as the Implementing Agent of COST.
4. The COST Actions
"European Concerted Research Actions"- COST Actions - are networks centered around research projects nationally funded in fields that are of interest to at least five COST countries. COST Actions cover basic and pre-competitive research as well as activities of public utility.
Every COST Action has objectives, defined goals and clear deliverables. They achieve results through network building and coordination activities such as meetings, workshops, training schools and short-term scientific missions. COST Actions operate across a wide spectrum of scientific fields, are often multi-disciplinary in nature, and often continue beyond the normal four-year duration of COST funding. Today there are more than 200 ongoing COST Actions and there have been about 500 Actions over the years.
5. COST Open Call
A COST Open Call, with two collection dates per year, is used to attract the best proposals for new COST Actions. The call is thematically open and proposals playing a precursor role for other European programmes and/or initiated by early-stage researchers are particularly welcome, as are inter-disciplinary proposals not fitting readily into a single Domain.
Proposals are assessed in two stages. The top ranked Preliminary Proposals are invited to submit a Full Proposal, which is peer reviewed according to established assessment criteria. The time between the collection date and the approval of the best Full Proposals is approximately 6 months.
6. Scientific Quality Control
The scientific quality control of COST Actions is carried out by the COST Domain Committees assisted by the COST Office, according to the COST “Guidelines for Assessment, Monitoring, Evaluation and Dissemination of Results of COST Actions”, and is composed of the following four steps:
- Assessment of proposals for new Actions
- Monitoring of Actions in progress: an “Annual Progress Report” is presented by the MC Chair of each Action annually in a meeting with the relevant DC
- Evaluation of completed Actions
- Dissemination of results.
7. COST Funding
The funds provided by COST are obtained from the European RTD Framework Programmes. The support to COST Actions is less than about 1% of the total value of the research carried out in the Actions. During the 7th Framework Programme (FP7), with funding of around 30 million EUR per year, more than 30.000 European scientists are involved in COST networking, with their projects representing a total value exceeding 2 billion EUR per year.
COST funding covers the coordination costs associated with organising and attending meetings, workshops and conferences; short-term scientific missions; and publications and other dissemination activities. The research activities themselves (staff, infrastructure etc.) are supported through national funds and not by COST.
8. COST Results
The scientific importance and relevance of COST results is testified by the thousands of scientific papers published in the most important scientific journals and by the many doctoral degrees obtained by students working in COST Actions. COST results have also contributed to European competitiveness through many contributions to normative and standardisation bodies, the Small Enterprises originating in Europe from COST activities at the frontiers of modern technology, and the many examples of transfer of results to the European industry.
The societal importance of COST results concerning issues arising from pressing societal needs has also to be underlined. The contribution of COST to the ERA is also particularly important; COST is in many instances a precursor of research projects and activities in the Framework Programmes.
9. COST contributes to reduce fragmentation of national research efforts in the ERA
The mission of COST is to be a flexible, fast, effective and efficient tool to network and coordinate nationally funded research activities at project level (Actions), bringing motivated scientists together under light strategic guidance and letting them work out their ideas. This is particularly important to contribute to reduce fragmentation of national research efforts in Europe where about 95% of the investments in research are done at a national level and only 5% is managed at the European level.
10. COST contributes to increase cooperation on a world basis
One of the key features of COST is its openness towards the rest of the world on the basis of mutual benefit. Institutions from non-COST countries can join individual COST Actions on a case- by- case basis, once the mutual benefit has been ascertained, without the need for any formal arrangements at government or agency level. With such easy accessibility and light and fast procedures, COST has thus always been a “bridge” for the scientific communities both of the European neighbouring countries and the world. Some 300 Institutions from non-COST countries are currently participating in COST Actions.
In general, researchers from institutions in non-COST countries do not receive economic support from COST. However, COST has established a particular strategy to encourage participation in COST Actions by researchers from the "near-neighbouring countries" : Up to two researchers from an institution in these countries may be reimbursed for attendance at the meetings of any COST Action, and are eligible to be supported to participate in other activities decided at the level of individual Actions. In July 2007 two reciprocal schemes entered into force to facilitate participation by researchers from Australia and New Zealand in COST Actions. Drawing on dedicated funds from their respective governments, these support the travel and subsistence costs of researchers from Australia and New Zealand who participate in COST Actions. Within ten months of the launch of these schemes participation from these two countries had more than tripled. In 2009, similar arrangements were concluded with South Africa. India, Morocco and Argentina are currently also looking at the possibility of similar arrangements.
11. COST IN FP7
In December 2006 the EU Council decided to allocate to COST up to 250 million Euro for the duration of the EU 7th Framework Programme (2007-2013).This increase of about 80% in financial support to COST compared to the 6th Framework Programme is an acknowledgment of the excellence of COST, and a reward of paramount importance for the entire COST community. In particular it is a recognition of the participants in the COST Actions, the real “raison d’être” of COST and, in general, for the entire European scientific community, with their overwhelming response to the COST Open Call confirming the vitality of the COST framework.
COST will continue to contribute to the development of the ERA while maintaining its principal values, adapting its structures and therefore contributing to the development of Europe's competitiveness on the world scale.
12. THE FUTURE OF COST
COST Vision 2020 is framed by the Strategic 2020 Vision for the European Research Area (ERA). There are several modes of cooperation and instruments to fulfil the mission of ERA. One of them is COST - "European Cooperation in the field of Scientific and Technical Research" - with long and unique experience in the coordination of nationally funded research activities.
COST activities have been continuously developed in response to the needs of the European scientific community and the COST member states, whilst however maintaining its principal values and characteristics. A series of reforms has influenced and changed the whole COST system. Its structure now encourages more multidisciplinarity. The COST Actions have become more objective driven. Open calls have been included. Scientific quality control has been reinforced. Dissemination of results has been diversified. Global participation in COST Actions has increased significantly and early stage researchers have gained a stronger role. These and further adaptations will continue to adjust COST to a changing environment and demonstrate COST’s dynamism and ability to adapt to the changing needs of international cooperation.
In Europe's balanced multitude of different systems for the support of research, education and innovation, COST continues to play a very distinct role and to complement other actors in the ERA, providing openness and equality of access to activities in a unique way. There continues to be a strong demand for coordination of bottom-up research activities, and the basic principles of COST – flexibility and openness – are widely recognised. Therefore the level of COST's activities has been maintained and those activities broadened. COST's Vision of its place in the European Research Area in 2020 is:
• COST continues to be a flexible, fast, effective and efficient tool to network and coordinate nationally funded research activities at project level, bringing motivated scientists together under light strategic guidance and letting them work out their ideas, thus contributing to overcome the fragmentation of research in the ERA. A significant share of the European scientific community is involved, directly or indirectly, in COST activities.
• COST responds to future needs; it acts as an exploratorium for ideas and addresses emerging and unforeseen developments. It addresses ambitious goals and more complex questions and has enhanced its precursor role. COST Actions are objective-driven and often multidisciplinary. Their objectives are clearly defined and information arising from COST Actions provides well-structured evidence-based input for policy making and they contribute to Europe's competitiveness and socio-economic development. Whilst maintaining its bottom-up character, COST is open to support longer-term planning processes in the development of new COST Actions.
• COST acts as a catalyst for long-term networking and in particular supports early career scientists and newly established research groups, strengthening their future participation in European and other international research initiatives.
• COST provides a framework for pre-normative cooperation leading to international norms and standards.
• COST is an inclusive and flexible international framework for the benefit of the European scientific community. COST has a worldwide geographical coverage which will be further extended in a pragmatic way by continuing to involve non-member countries in its Actions and through a more structured series of collaborative arrangements.
Brussels, January 2010
|
|
179)
Report of the COST CSO President to the COST Ministerial Conference in June 2010
COST Francesco Fedi
Francesco Fedi
Professor Francesco Fedi, President of the COST Committee of Senior Officials (CSO), reported to the COST Ministerial Conference held on 15 June 2010 in Palma de Mallorca on progress made by COST since the COST Ministerial Conference held in Dubrovnik in 2003 in the period 2004-2010
Mr Secretary of State, Ms Director General, distinguished representatives of the COST Member States and of the European Commission, observers, it is indeed a great honour for me, in my capacity as President of the COST Committee of Senior Officials, to illustrate the activities and the main reforms introduced in COST since the COST Ministerial Conference held in Dubrovnik in May 2003.
The reforms introduced have influenced the whole COST system, have adjusted COST to a changing environment and demonstrate its dynamism and ability to adapt to the changing needs of international cooperation.
They have also allowed COST to pursue its main objectives:
- to contribute to decrease the fragmentation of research in the European Research Area coordinating bottom-up nationally funded research initiatives;
- to open the ERA to a global collaboration in research;
- and to contribute broadly to the competitiveness and socio-economic development of Europe.
The first series of reforms concerned: the strategy, the governance and the science management of COST.
The strategic role of the Committee of Senior Officials (CSO) has been reinforced. The CSO has focused on discussion and approval of the strategic and political goals of COST, such as the COST contribution to realizing the ERA and the Lisbon objectives; the communication strategy of COST; the endeavours to reinforce the participation of early stage researchers and to improve the gender balance; the further development of COST as an instrument of integration across Europe and as an asset for the implementation of the European policy towards the rest of the world; and other topics of a strategic nature. A series of strategic documents on these issues have been prepared and distributed by the COST CSO.
The role of the COST Committee of Senior Officials in COST governance has been particularly strengthened. The CSO decided to continue to stay abreast of developments taking place in each scientific community, this being reflected, in particular, in the nature, content and number of Actions being submitted to COST and to continue to be informed of the content of the new Actions proposed, proceed to their approval and be informed of the results of the Actions completed. This is in line with the fact that the Member States have to accept the MoU of the COST Actions and that the CSO members, on one side, represent their Governments and, on the other side, link COST with the scientific communities of their respective countries.The role of the "Executive Group" of the CSO – the so called JAF Group - has also been reinforced and the devolution of a number of tasks to this group has been introduced. The CSO also introduced the devolution of the management of the Actions to the Actions themselves and adopted measures to reduce the time between the presentation of a preliminary proposal and the launch of the approved Action to less than 8 months. The roles and decision making powers were well defined at three levels: the Committee of Senior Officials, the Domain Committees and the Management Committees of the Actions. It remains the unique responsibility of the CSO to nominate an implementing agent for COST and select new Actions for funding, whilst the COST Member States ,through their COST National Coordinators, nominate the members of the Domain Committees and the Management Committees of the Actions. Two milestones in the history of COST were introduced: the new voting procedures based on a qualified majority (before only approval by consensus was possible) and a drastic simplification of the approval and signature of the MoUs of the COST Actions.
Important reforms have been decided by the CSO in the science management of COST concerning the structure of the COST scientific Domains, the introduction of the continuous Open Call for proposals for new COST Actions and the reinforcement of the scientific quality control of COST Actions.
The profound restructuring of the COST scientific domains has proved to be a major milestone for COST. It has launched COST into the future, facilitating the development of new ideas in the most promising fields of science. The restructuring was not obtained by simply reducing the number of COST domains, but by starting from a "tabula rasa" and by establishing a completely new structure based on 9 new scientific domains laying down the very basis for COST’s scientific strategy. Now COST is a modern network for European cooperation in science and technology at the service of European researchers. The COST Domain Committees count among their members some of the most outstanding European scientists. Good science management suggests maintaining the present scientific Domains for a number of years both to acquire experience and to avoid disorientation in the scientific community. A particular approach to better cater for the trans-Domain Action proposals was developed and a Trans-Domain Standing Assessment Board created to ensure a fair assessment of such interdisciplinary proposals. This entirely new approach has proved to be very efficient and may inspire similar activities in other funding bodies. The notion of interdisciplinarity has been also ensured through the "Strategic Workshops", organized by COST on subjects of intrinsic interdisciplinary nature. A few examples of strategic workshops organized by COST: "Environment and Health", "European Cultural Heritage", "Food and Health", "Benefits of Research Infrastructures beyond Science" and "European Forum on Nanosciences".
Another major reform was the introduction of a continuous COST Open Call for proposals for new Actions, together with a strengthened and consistent use of external peer reviews. This continuous Open Call is based on a two-stage process, reconciling the advantages of the COST tradition and the need for a highly transparent process of presenting proposals for new Actions, at the same time raising visibility within the research community. The Open Call is continuous, i.e. the scientific community can present a proposal for a new Action at any time and on any subject, following the successful tradition of COST. The Call is open, i.e. the selection process follows the `bottom-up` tradition of COST. Preliminary Proposals of limited length are submitted to an initial pre-selection. Only those deemed to be of sufficient interest, potential intrinsic quality, and European added value - in accordance with the criteria established by the CSO - are invited to submit a Full Proposal. This two-stage process reduces the disadvantages Calls generally have to face, such as the problem of oversubscription (i.e. a large number of new full proposals, frequently not of sufficient quality), a huge workload in processing proposals and the disillusion which may arise within the research community due to the rejection of a large number of full proposals.
The CSO has given particular attention to the quality control of COST Actions continuously reviewing its Guidelines for the assessment, monitoring and final evaluation of COST Actions. These guidelines which represent an outstanding example of best practises are followed by all COST Domain Committees with the involvement of external reviewers, both in the assessment of new proposals and in the final evaluation of completed Actions.
The COST CSO has given also particular attention to the utilization of results from COST Actions. The CSO has made it mandatory to prepare at the end of every Action a Final Evaluation Report. The objective of the final evaluation is to identify and describe how well the Action has reached its stated objectives, including the initiation of any follow-up activities and its impact in the area covered by the Action. Reports highlighting outcomes and impacts of all completed Actions, and other “ad hoc” documents drawing the public attention towards noteworthy achievements of COST, are routinely published as part of the COST dissemination policy introduced by the CSO. The close cooperation pursued by COST with EUREKA also facilitates the direct application of research results obtained in COST Actions.
The legal status of COST has also been a subject carefully considered by the COST CSO. The lack of legal personality of COST was put in particular evidence in 2003, when the European Commission (EC) ceased to provide the scientific secretariat and the financial administration of COST. With no legal personality, COST could not become a contractor of the European Commission and receive funds from the Framework Programmes. Therefore the CSO started discussions with the European Science Foundation (ESF), which led to the establishment of a COST-ESF Memorandum of Understanding (MoU), according to which ESF would act as the Implementing Agent to provide and manage the administrative, technical and scientific secretariat for COST, its Technical Committees and its Actions. The COST Ministerial Conference in May 2003 endorsed the MoU between COST and the ESF. A contract between the EC and the ESF was concluded in July 2003 for the entire period of the Sixth Framework Programme (FP6).
In October 2006 COST and ESF approved an Addendum to the COST-ESF MoU with the objective of strengthening COST and ESF as two actors fostering the ERA and further developing the synergy between them, while maintaining a clear distinction between their individual characteristics and their complementary roles. The ESF was invited to continue to act as the Implementing Agent for COST during the Seventh Framework Programme (FP7). In January 2007 negotiations between the EC and the ESF for the grant agreement for COST in FP7 were started.
In June 2007 the "Final Review of COST in the Sixth Framework Programme", the so-called "Monfret Report", made the following recommendations on the governance of COST: "either COST should create an independent legal entity or the ESF should take over the full operation of COST including the strategy formulation and the linkages with the Member States".
The recommendations on the Monfret Report notwithstanding, COST confirmed its decision to appoint ESF as its implementing agent for FP7, in order to ensure the continuity of COST activities for the benefit of the European scientific community. The ESF-EC Grant Agreement for FP7 was signed in July 2007.
However, the COST CSO took the recommendations of the "Monfret report" into very serious consideration. In 2007 the CSO started the re-examination of the COST legal status and appointed Professor Raoul Kneucker as Rapporteur on this question. Based on his report, released in September 2008, various possible solutions were examined. The solution that appeared to have the strongest support from the CSO delegations, the "COST Office Association", was given particular attention.
In June 2009 the COST CSO commissioned a SWOT (strengths, weaknesses,opportunities, threats) analysis on COST-ESF Relationship to Technopolis, who built their report on the assumption that it would be desirable for COST to establish a legal personality, whatever the future relationship with ESF would be even in the case ESF would continue providing services to COST.
In December 2009, 26 COST Member States voted in favour of establishing an independent COST Office Association and confirmed this position in February 2010. Recently, the number of Member States reached 27 that is the qualified majority needed in COST for approval.
In March 2010 the representatives of the 35 COST Member States unanimously rejected the possibility of ESF taking over COST. In May 2010 the CSO confirmed its wish to maintain the ESF as COST implementing agent until the end of FP7, reiterating the need for continuity of the Directorate of the COST Office in Brussels.
On 8 June 2010 at the initiative of Germany and Spain a meeting to set up the COST Office Association (COA) as an independent legal entity in the form of an international non-profit making Association under Belgian law was convened in Brussels at the Permanent representation to the European Union of Germany. The Satutes of the COA has been approved and 7 COST countries have already signed the Satutes which are now open for signature for all COST countries. The registration process of the COA would be launched on 1 July 2010. Countries who would have signed by that date would be the "founding members" of COA.
When registered, the Association will give COST access to legal personality, but will leave the COST structure (CSO, Domain Committees, Management Committees) unchanged. The COA may become the implementing agent of COST if and when the COST CSO so decides. In any case the CSO has been of the view that the scientific synergy between COST and ESF should continue and increase.
The acknowledgements received by COST have been numerous. The reform process pursued by the CSO was fully recognized by the Panel for the Mid-Term Review of the EC-ESF contract for COST in FP6 (Kneucker Report). The Panel recognized the important role of COST for achieving the Lisbon and Barcelona objectives and recommended to the European Commission to release the entire sum of EUR 80 million from FP6, the upper limit of support for COST within FP6, and, particularly important, to continue to support COST in the future with increased support within FP7.
The Final report for the evaluation of COST at the end of FP6 (Monfret Report) recognized the important role of COST and underlined the high customer satisfaction of the current users of COST.
The European Commssion showed an important sign of renewed confidence in COST. A more effective cooperation with the Commission was introduced, supervised by a High Level Group. This has enabled the development of a strong partnership between COST and the European Commission, reinforcing coordination and thus assuring complementarities and synergies.
At the political level, COST has been acknowledged on a number of occasions. The Competitiveness Council of the EU has stressed the importance of reinforcing the ties between the Framework Programmes and European intergovernmental organizations such as COST; and underlined that European technology initiatives should achieve synergies with existing schemes such as COST taking into account its important contribution to R&D.
The COST CSO has also built links with the European Parliament. COST has been explicitly mentioned in the Report of the Rapporteur to the European Parliament on FP7. A successful COST exhibition in the European Parliament was held in 2006, with the participation of the Research Commissioner Dr Janez Potocnik, of the Chair of the Committee on Industry, Research and Energy (ITRE) of the European Parliament, Mr Chichester, and of Professor Jerzy Buzek, at that time Rapporteur to the European Parliament on FP7.
The FP7 Specific Programme 'Cooperation' regarding the financial support to COST reads " at least EUR 210 million and up to EUR 250 million should be given to COST, subject to the mid-term evaluation. This financial support will be provided through a grant which will be paid on the basis of a grant agreement between the Commission and a legal entity designated by COST as its implementing agent “
Last and certainly not least very recently in May 2010 the Horvat Report on the mid-term evaluation of COST in FP7 recommended to allocate the additional EUR 40 million reserved in FP7 for COST.
The increase in FP7 of about 50% of the annual financial support to COST with respect to FP6 is a reward of paramount importance for the entire COST community.
We may conclude that it is certainly very satisfactory to note how COST has improved since 2003. Somebody called this six year period the “renaissance” of COST following the rather difficult times of the immediately previous years. The following figures speak by themselves. From 180 COST Actions in 2003 to the more than 280 Actions of today. From the 70 Institutions from non-COST countries participating in COST Actions to the more than 350 Institutions in 2010. From a contribution to COST of 50-80 M€ for the four years of FP6 to the contribution of 210-250 M€ for the seven years of FP7. From 2003 when somebody wanted to give “an honourable funeral “ to COST to the present situation in which nobody could dispute that COST is one of the most effective instrument of the European Research Area. From the strong criticism toward COST in 2003 to the “chorus of praises” for COST - as it was reported in the press - during the COST exhibition in the European Parliament in 2006 or during my presentation of COST to the EU Research Working Party in 2009.
If COST will continue to receive the same high number of proposals for new COST Actions and if the same high number of Institutions of non-COST countries will continue to participate in COST Actions then COST should not have any problem for its future. An extremely efficient mechanism under the direct control of the COST Member States to contribute to decrease the fragmentation of investments in research in Europe coordinating bottom-up initiatives and to open the European Research Area to a global collaboration.
I do hope that this Ministerial Conference will continue to support COST for the benefit of the entire European research community. With this hope in mind I conclude this presentation and thank you very much for your kind attention.
Palma de Mallorca, June 2010
|
|
|
|
|
|