Teoria dei sistemi di spin interagenti



L'attività di ricerca, di carattere fondamentalmente teorico, si rivolge in particolare allo studio di sistemi quantistici interagenti. Una tale conoscenza, oltre ad avere un interesse di carattere fondamentale, riveste un ruolo importante nelle applicazioni che, nello specifico, vanno dallo studio della propagazione degli errori nei computer quantistici a quello dei sistemi magnetici mesoscopici. Le metodologie utilizzate sono di carattere analitico e numerico.



Fausto Borgonovi


I computer quantistici sono opportuni apparati che immagazzinano e processano informazioni al livello di singoli atomi o nuclei. Anche se inizialmente suggeriti da Feynman molti anni or sono, solo dopo il 1990 vi fu una vera e propria esplosione di risultati, allorquando Shor dimostrò un loro possibile utilizzo nella fattorizzazione di grandi numeri interi.

Questo, che poteva sembrare un mero risultato di carattere accademico, ha in seguito rivelato significative applicazioni nel campo delle comunicazioni e della crittografia. Semplici prototipi di computer quantistici sono stati in seguito costruiti, utilizzando tecnologie esistenti nell'ambito dell'ottica quantistica e della risonanza magnetica nucleare, per eseguire alcune semplici operazioni. Il punto di forza dei computer quantistici, cioè la possibilità di eseguire calcolo parallelo su vasta scala utilizzando la sovrapposizione quantistica degli stati costituisce, nello stesso tempo, la sua più grande debolezza. Infatti, le sovrapposizioni quantistiche degli stati, sono soggette ad un rapido decadimento (il fenomeno della decoerenza) a causa dell'accoppiamento con l'ambiente.

Altre cause di errori nella realizzazione di specifici algoritmi di calcolo sono le generiche interazioni nonlineari tra i vari qubits. Questa tipologia di problemi è stata ampiamente sviluppata nel passato nell'ambito della teoria quantistica dei sistemi interagenti. Ciononostante non esiste ancora una teoria capace di descrivere con modelli fisici il delicato meccanismo della coerenza, ovvero la transizione tra mondo classico e quantistico. E’ d’altra parte chiaro che nessuna realizzazione operativa di un computer quantistico potrà evitare il meccanismo della decoerenza.

Un altro problema strettamente connesso ai computer quantistici è quello della misura dello stato del singolo quanto di informazione: il qubit. Ciò richiede infatti una precisione mai realizzata fino ad oggi, dovendo, per esempio rivelare lo stato di un singolo spin elettronico o nucleare all’interno di un materiale. Solo nell’ultimo anno consistenti progressi sono stati realizzati, utilizzando tecniche che fanno uso della ''magnetic resonance force microscopy''.


Lo studio di piccoli sistemi fortemente interagenti richiede inoltre l'utilizzo di strumenti adeguati che la meccanica statistica, originariamente introdotta per sistemi costituiti da un grande numero di particelle, non fornisce. Nonostante ciò, la presenza di meccanismi di interazione nonlineare può ancora rendere possibile un approccio di tipo statistico, il cui legame con l'usuale meccanica statistica resta ancora da approfondire.

Questi studi, oltre a rivestire grande interesse per la fisica teorica, possono trovare applicazioni nel campo delle nanotecnologie dove la richiesta di miniaturizzazioni sempre più fini ha portato ormai allo studio di sistemi costituiti da poche centinaia di atomi.




Fisica teorica classica ed elettrodinamica


Parametri atomici derivati da un esperimento di elettrodinamica.


Giancarlo Cavalleri, Ernesto Tonni


E' possibile ottenere alcuni parameri atomici in condizioni estreme di scariche elettriche a temperature dell'ordine di 40000C. Mediante gli effetti dinamici prodotti dalla scarica sono stati finora ottenuti:

1) il prodotto del numero di ioni estratti da un elettrone sull'anodo per il numero di elettroni estratti da uno ione che cade sul catodo;

2) il grado di ionizzazione addizionale a quello termico e dovuto all'azione diretta di ioni ed elettroni accelerati da un forte campo elettrico;

3) la costante di tempo in cui viene ricostruita la coda ad alte energie della distribuzione energetica (o delle velocità) degli elettroni. Quest'ultimo dato è essenziale per la seconda ricerca sotto elencata.


Origine del rumore elettronico avente densità spettrale (ossia energia per unità di volume e di frequenza f) inversamente proporzionale ad f.

Giancarlo Cavalleri, Ernesto Tonni


L'origine di questo rumore 1/f, noto sperimentalmente da 80 anni ma che finora non aveva trovato una spiegazione fisica, è dovuto ad elettroni "in fuga", la cui velocità è controllata dal campo elettromagnetico irraggiato da tutte le particelle elementari dell'universo (campo e.m. di punto zero). E' stata trovata una formula che è molto più vicina ai dati sperimentali (vedi figura) rispetto a quella empirica di Hooge, che non includeva la concentrazione degli elettroni. Si può quindi diminuire questo rumore, che influenza tutte le misure elettroniche, aumentando la concentrazione degli elettroni liberi nei componenti (chips) degli strumenti elettronici.



Coefficiente di proporzionalità  del rumore 1/f in funzione della concentrazione N degli elettroni di conduzione. La linea continua diagramma la nostra formula teorica. Si vede l’ottimo accordo con i valori sperimentali dati dal cerchietto e la barra di incertezza. Si comprende che la formula empirica di Hooge, che non include dipendenza da N, non si accorda con i dati sperimentali.




Filamenti di una sola natura costituenti sia le particelle elementari sia i campi di forza.

Giancarlo Cavalleri, Francesco Barbero


E' un nuovo approccio ai fondamenti della fisica, in accordo con le osservazioni sperimentali che sono soltanto di lunghezze e tempi. Un gruppo di filamenti quasi paralleli e con la stessa freccia dà il campo elettrico, mentre la variazione spaziale della densità di filamenti (per unità di area) dà il campo gravitazionale. Una particella elementare con carica elettrica positiva (o negativa) è un fascio quasi stellare di filamenti con frecce uscenti (o entranti).


Queste ricerche sono in collaborazione con: Prof. L. Bosi, Politecnico di Milano.; Prof. G. Spavieri, Universitad Venezuelana de Los Andes.

Ottica nonlineare e interazione radiazione-materia

Gabriele Ferrini, Stefania Pagliara, Claudio Giannetti, Emanuele Pedersoli, Gianluca Galimberti, Fulvio Parmigiani

Il Laboratorio di interazione radiazione-materia e il Laboratorio di ottica nonlineare sono dedicati allo studio della interazione tra impulsi laser ultra brevi e la materia allo stato condensato, con particolar attenzione alla evoluzione temporale degli stati fuori equilibro nei solidi. Per questo tipo di ricerche i laboratori sono dotati di



Questi studi vengono condotti sfruttando due tecniche sperimentali complementari.

La spettroscopia elettronica è utilizzata per studiare le dinamiche elettroniche lontano dallo stato di equilibrio sulle superfici di metalli e semiconduttori, che forniscono informazioni sui processi microscopici di scattering e di rilassamento, utili per la comprensione di fenomeni come la catalisi superficiale di reazioni chimiche e la nano-ingegneria sulle superfici.

Inoltre, l’indagine delle interazioni elettrone-elettrone e elettrone-fonone in sistemi a forte correlazione elettronica permette di ottenere informazioni essenziali sui meccanismi che regolano l’insorgere del fenomeno della superconduttività.

La spettroscopia ottica è utilizzata prevalentemente per lo studio di materiali magnetici e applicazione di biofisica. Per quanto riguarda i materiali magnetici, l’obiettivo è quello di misurare la dinamica della magnetizzazone su scale di tempi inferiori al ps (10-12 sec) su nanostrutture che hanno dimensioni tipiche di decine di nm (10-8 m) per lo sviluppo dei futuri dispositivi magnetici e memoria di massa. Per la caratterizzazione spettroscopica di tessuti biologici e l’imaging biomedico sono invece sviluppate tecniche di ottica nonlineare in fibra con applicazioni prevalentemente rivolte verso l’indagine endoscopica.

email:gabriele.ferrini@dmf.unicatt.it


Queste ricerche sono condotta in collaborazione con: Prof. Z.X. Shen, Stanford University; Prof. C. Fadley,  University of California at Davis and Advanced Light Source (Berkeley); Dr. R. Tommasini e Dr. G. Cautero, ELETTRA, Trieste; Prof. G. Costamagna, Università Cattolica, Roma; Dr. J. Corlett, Ernst Orlando Lawrence Berkeley National Laboratory; Prof. L. Depero, Università di Brescia; Prof. N. Manca, Università di Brescia;Dr. B. Ilic, Cornell Nanofabrication Facility.

Fisica dei nanosistemi

Il laboratorio per la fisica dei nanosistemi ha un sofisticato apparato operante in ultra alto vuoto (UHV), con una camera di crescita ed una di analisi. I metodi di preparazione dei sistemi comprendono:

  1. Bombardamento ionico

  2. Epitassia atomica e molecolare

  3. Fasci supersonici di nanoparticelle

  4. Trattamenti al plasma

  5. Crescite da fase di vapore

L’apparato può studiare le stesse porzioni di campione con varie tecniche nano-spettroscopiche:

  1. Topografia e spettroscopia con risoluzione atomica (Scanning Tunneling Microscopy, STM)

  2. Nanoscopia a contrasto morfologico (Scanning Electron Microscopy, SEM)

  3. Nanoscopia a contrasto elementale e chimico (Scanning Auger Microscopy, SAM).


Linee di ricerca attive (Prof. Sancrotti, Dr. Gavioli)

I sistemi a dimensioni nanometriche (10-9÷10-7 m) manifestano proprietà diverse sia da quelle di singoli atomi o molecole isolati sia da quelle dei solidi o liquidi standard, e possono avere notevoli applicazioni in campi esterni alla fisica, come biologia e medicina. Questa ricerca studia:

  1. Metodi di crescita di sistemi a bassa dimensione (fili quantici di atomi o molecole organiche deposti su appropriati substrati) basati su processi di self-assembling, in cui le interazioni fra i singoli componenti portano alla creazione di strutture ordinate.

  2. Le proprietà di tali sistemi, dove il confinamento quantistico gioca un ruolo essenziale.

I fullereni e i nanotubi di carbonio sono aggregati di atomi di carbonio con geometria regolare, le cui proprietà variano drasticamente sotto l’effetto del drogaggio con atomi alcalini, alcalino-terrosi o terre rare: da sistemi elettricamente isolanti a materiali conduttori, sino allo stato superconduttivo. Questa ricerca studia:

  1. I primi stadi di crescita di molecole fullereniche deposte su substrati cristallini, per ottenere superstrutture ordinate capaci di crescere con la stessa struttura del substrato.

  2. I meccanismi di crescita in situ di nanotubi di carbonio tramite la tecnica di Chemical Vapor Deposition, mediante l’ultilizzo di precursori nanostrutturati (Fe, Co).

  3. Le proprietà strutturali ed elettroniche di nanoclusters deposti su superfici. Le proprietà macroscopiche dipendono dalla natura dei precursori di crescita (clusters) che mantengono una sorta di memoria del loro stato originale anche nel sistema macroscopico.





Teorie di campo di stringa e condensazione tachionica

Giuseppe Nardelli

Nel corso del tempo, lo sviluppo della fisica ha portato a molte ‘unificazioni’. Gli esempi più immediati sono l’unificazione di elettricità e magnetismo, ottenuto per mezzo delle equazioni di Maxwell. Altro esempio è dato dalla relatività speciale, dove si abbandona il concetto di tempo assoluto, e spazio e tempo sono concettualmente unificati. In entrambi i casi, le unificazioni non erano dettate da motivi estetici, ma hanno sempre portato ad una comprensione più profonda dei sistemi fisici.

Delle quattro interazioni che si ritengono fondamentali in natura (gravitazionale, elettromagnetica, debole e forte), la gravità è l’unica che non si riesce ad unificare consistentemente in termini di teoria di campo. Nemmeno la sua quantizzazione risulta consistente. Attualmente, l’unico ambito in cui la gravità possa essere unificata alle altre interazioni è per mezzo della teoria delle stringhe. I campi emergono dalle stringhe come modi di vibrazione della stringa stessa.

Nella teoria di stringa c’è un singolo parametro libero. La dimensione dello spazio-tempo è fissata dalla richiesta di invarianza conforme: 26 dimensioni nel caso bosonico e 10 nel caso supersimmetrico. Le stringhe possono essere aperte o chiuse. Se aperte, le varietà p-dimensionali su cui sono attaccati gli estremi della stringa si chiamano D-brane (D sta per Dirichlet, che specifica il tipo di condizioni al contorno). I campi di gauge (che descrivono elettromagnetismo, interazione debole e forte) risultano associati alle eccitazioni di stringa aperta, e si propagano solo sulla brana. Di conseguenza, noi dovremmo vivere su una sezione 3-dimensionale di una brana p-dimensionale.

Per giustificare la mancata percezione delle extra dimensioni su cui sono definite le stringhe, bisogna assumere che un certo numero di dimensioni (6 nel caso supersimmetrico) siano compattificate su scale molto piccole: così come un cilindro molto lungo ci appare come una retta se visto da molto lontano, noi potremmo in effetti vivere in un universo con un numero superiore di dimensioni senza rendercene conto. In figura si vede una rappresentazione di una varietà di Calabi Yau, che rappresenta per l’appunto 6 dimensioni compattificate.

Un'altra caratteristica indesiderata della teoria delle stringhe è la presenza del tachione (particella con massa immaginaria) come eccitazione fondamentale. Questo costituisce un grave problema per le teorie ed è sintomo di instabilità dello stato di vuoto. Un meccanismo analogo a quello della rottura spontanea di simmetria dovrà avere luogo. Di conseguenza lo stato di vuoto perturbativo dovrà posizionarsi su un massimo del potenziale effettivo, mentre il tachione dovrà condensare ad un minimo (non perturbativo) del potenziale. Per studiare questo fenomeno è necessario formulare la teoria off-shell, e dunque passare alla cosiddetta teoria di campo di stringa. La teoria di campo di stringa dovrà possedere alcuni requisiti (detti congetture di Sen) affinchè il fenomeno della condensazione tachionica possa avere luogo.

Soluzioni dipendenti dal tempo che descrivano il moto del tachione dal suo massimo perturbativo (instabile) al minimo non-perturbativo (stabile) sono dette soluzioni di rolling. Queste soluzioni sono cruciali per capire:

a) il fenomeno della condensazione tachionica

b) per giustificare la stessa teoria delle stringhe (altrimenti piagata da stati con massa immaginaria)

c) per studiare la cosmologia tachionica.



I
n particolare, per questo ultimo punto, si deve accoppiare la teoria di campo di stringa ad una metrica di Friedmann Roberson Walker e studiare le corrispodenti equazioni accoppiate. Risulta quindi estremamente interessante studiare che tipo di metrica può generare il tachione nel suo rolling dal massimo al minimo non-perturbativo. Potrebbe questo generare una metrica corrispondente ad un universo in fase di espansione e giustificare i modelli cosmologici di inflazione. L'obiettivo principale di questa ricerca è quindi lo studio della condensazione tachionica e, qualora fosse possibile, la cosmologia che esso genera.


Email: g.nardelli@dmf.unicatt.it


Queste ricerche sono effettuate in collaborazione con: Università di Perugia, Dipartimento di Fisica (G. Grignani, V. Forini); MIT, Center for Theoretical Physics (E. Coletti); University of Sussex, Department of Physics and Astronomy (G. Calcagni) e Università di Trento, Dipartimento di Fisica (M. Montobbio).


Pubblicazioni rilevanti al progetto: “Exact potential and scattering amplitudes from the tachyon non-linear beta-function”, E. Coletti, V. Forini, G. Grignani, G. Nardelli and M. Orselli, JHEP 0403 (2004) 030; “A new rolling tachyon solution of cubic string field theory”, V. Forini, G. Grignani and G. Nardelli, JHEP 03 (2005) 079; “A solution to the 4-tachyon off-shell amplitude in cubic string field theory”, V. Forini, G. Grignani and G. Nardelli, JHEP 0604 (2006) 053.


--------------------------------------------------------------------------------------------------------------------

Giuseppe Nardelli: nato a Trento il 25/10/59. Laureato in Fisica magna cum laude presso l’Università degli Studi di Trento. Dottorato di Ricerca in Fisica conseguito presso l’Università degli Studi di Padova. Borse di Sudio post-doc presso Il Massachusetts Institute of Technology, Center for Theoretical Physics. Ricercatore presso l’Università degli Studi di Trento e attualmente professore associato presso l’Università Cattolica del Sacro Cuore.

Associato all’Istituto Nazionale di Fisica Nucleare, responsabile locale dell’iniziativa specifica Pisa 14 per il Gruppo Collegato di Trento.

Aderito al PRIN Simmetrie dell’Universo e delle Interazioni Fondamentali (responsabile nazionale prof. G. Frè) presso il nodo della Scuola Normale di Pisa (responsabile locale prof. A. Sagnotti).





Elettronica di spin: magnetismo e struttura elettronica di superfici, interfacce, e super-reticoli.


Luigi Sangaletti


Nel Laboratorio di Fisica delle Superfici opera un sistema sperimentale che permette di preparare e studiare superfici e interfacce di interesse per applicazioni chimiche, metallurgiche, magneto-ottiche ed elettroniche. La creazione del Laboratorio ha prodotto competenze tecniche che includono:



Tra i temi di ricerca del Laboratorio ricordiamo lo sviluppo di interfacce metallo-semiconduttore e metallo-ossido per applicazioni nel campo della elettronica di spin, la cosiddetta spintronica. Questa disciplina si occupa dello studio e della progettazione di dispositivi che possano sfruttare in contemporanea le proprietà di carica e spin dell’elettrone nei dispositivi a stato solido. I circuiti integrati ed i processori, usati per l’informatica e le comunicazioni, si basano sulle proprietà delle cariche nei semiconduttori; le memorie di massa (hard disk, nastri magnetici o magneto-ottici) sfruttano lo spin dell’elettrone nei materiali ferromagnetici. E’ quindi naturale chiedersi se queste due proprietà possano essere utilizzate contemporaneamente. A tal fine si cerca di iniettare correnti polarizzate (in spin) in un semiconduttore per controllare lo stato di spin dei portatori di carica, portando funzionalità inedite ai computer delle prossime generazioni.

Tra le strade esplorate nella ricerca sui materiali per la spintronica vi è quella di drogare semiconduttori o ossidi non magnetici con ioni magnetici. In particolare, i materiali ossidi possono essere trasparenti alla luce nel visibile e, in alcuni casi, conduttori. La trasparenza unita alle proprietà elettriche li rende utili in una gran varietà di applicazioni. Le potenzialità di tali materiali hanno indotto a coniare il termine di spintronica trasparente, e un crescente numero di studi viene condotto su materiali ossidi drogati con ioni di metalli di transizione 3d.

Nel Laboratorio di Fisica delle Superfici si studiano le proprietà elettroniche e magnetiche della interfaccia Mn:Ge, di super-reticoli a base di CdTe drogato con manganese e di strati ultrasottili di ossidi trasparenti (TiO2, SnO2) drogati con cobalto o manganese. A tal fine sono state avviate diverse collaborazioni a livello nazionale e internazionale.



Questa ricerca è condotta in collaborazione con: V. A. Aguekian (Università di San Pietroburgo), A. Morgante (Univ. di Trieste), A. Verdini e L. Floreano (Laboratorio TASC-INFM, Trieste), E. Magnano, F.Bondino (Laboratorio TASC-INFM, Trieste), A. Goldoni (Sincrotrone Trieste S.c.P.A.) M. Bettinelli, A. Speghini (Univ. di Verona), M. C. Mozzati, P. Galinetto e C. B. Azzoni (Univ. di Pavia).




Linea misure e modelli per l’ambiente e il territorio


  1. Azione dell’inquinamento atmosferico sugli ecosistemi

A. Ballarin Denti, G. Gerosa, R. Marzuoli, A. Finco, E. Zaglio, M. Bertone


    1. Flussi di gas tra atmosfera e biosfera: impiego di tecniche micrometeorologiche per la determinazione degli scambi gassosi a livello di ecosistema; sviluppo di modelli per l’analisi dei dati e il calcolo della ripartizione delle componenti dei flussi.

    2. Effetti dell’ozono sulla vegetazione agricola e forestale: analisi dei dintomi e parametri fisiologici in funzione delle’sposizione all’inquinante; analisi elle relazioni quantitative dose-danno; modellazione dei parametri fisiologici in relazione ai parametri ambientali.

    3. Strumentazione innovativa per il monitoraggio degli inquinanti e per misure ecofisiologiche: sviluppo di analizzatori veloci di specie gassose tramite correlazione turbolenta; sviluppo di sitemi per il monitoraggio in coninuo della conduttanza stomatica.

    4. Applicazione di tecniche statistiche per l’analisi dei dati: geostatistica e analisi multivariata.


  1. Cambiamenti climatici e valutazione degli impatti su scala locale

M. Maugeri, R. Pastorelli

    1. Recupero, omogeneizzazione e analisi delle serie storiche di dati e osservazioni meteorologiche degli ultimi due secoli: studio del rischio di eventi pluviometrici estremi; studi di bilanci ideologici; analisi delle risorse termiche e pluviometriche del territorio; studio dell’andamento termico invernale e della sua variabilità interannuale; analisi degli andamenti termo-pluviometrici

    2. Valutazione degli impatti a scala locale dei cambiamenti climatici previsti nei prossimi 100 anni: downscaling delle proiezioni ottenute da modelli di circolazione generale (AOGCM) e loro adattamento alle caratteristiche climatiche di aree critiche a livello nazionale regionale.


  1. Studi sulla sostenibilità e sulle pressioni ambientali attraverso tecniche di analisi spaziale e territoriale

G.Triacchini, F. Pozzi, S. Zappella, P. Seminati


    1. Sviluppo di metodi per l’elaborazione di informazioni spaziali sul territorio mediante criteri di disaggregazione di basi di dati disponibili e interpolazioni geostatistiche.

    2. Valutazione di rischio da inquinamento ambientale per la popolazione residente e gruppi sensibili: analisi e mappatura delle pressioni di attività antropiche su aria acqua e suolo; individuazione delle vulnerabilità locali; definizione delle arre ea rischio in funzione dei singoli inquinanti o della loro azione integrata.

    3. Analisi del grado di naturalità del territorio mediante impiego di indici composti ottenuti con tecniche statistiche multivariate e tecniche multiattributo (mixcell)

    4. Valutazione di impatto ambientale e di rischio da amianto di origine naturale prodotto da attività estrattive.

    5. Realizzazione di carte ecopedologiche dell’area alpina mediante standardizzazione e omogeneizzazione di dati provenienti da differenti basi di dati europee.

    6. Valutazione dell’impatto sull’inquinamento atmosferico di differenti combustibili nell’esercizio di flotte commerciali di veicoli.




Economia e politica delle risorse naturali, dell’ambiente e dello sviluppo sostenibile


Stefano Pareglio, Anna Crimella, Luciano Canova, Anna Parravicini, Maria Luisa Venuta, Paolo Seminati, Enzo Di Giulio, Marco Grasso, Sara Lelli, Stefania Migliavacca, Paolo Ruiu, Alessandro Vaglio.


L’attività di ricerca si sviluppa, sul piano teorico e sul piano applicativo, con l’obiettivo di individuare, sperimentare e applicare metodologie e strumenti economici innovativi per l’analisi, la valutazione, la gestione, la governance e la comunicazione in materia di ambiente e sviluppo.

Destinatari delle ricerche, oltre alla comunità scientifica, sono i soggetti (enti pubblici e imprese) chiamati a compiere scelte incidenti sulla sfera ambientale e territoriale o, più in generale, sul benessere collettivo e sulla sostenibilità dello sviluppo.

Le principali competenze, maturate in questi ultimi anni attraverso le ricerche e le collaborazioni con soggetti pubblici e privati, riguardano:





Leggi di bilancio fondamentali della meccanica dei mezzi continui e applicazioni


Alfredo Marzocchi, Carlo Banfi, Alessandro Musesti


La ricerca si incentra sulle proprietà matematiche delle equazioni di bilancio della Meccanica dei corpi deformabili. Queste equazioni sono fondamentali per l’impostazione di tutti i problemi matematici relativi a corpi deformabili, e si ritrovano tra l’altro in Termofluidodinamica, in Elasticità, in Plasticità. Sebbene esse siano note da oltre due secoli, è stato chiarito solo in tempi recenti che esse conservano la loro validità anche quando le sollecitazioni che vi compaiono non sono delle funzioni regolari, ma, ad esempio, ammettono singolarità quali sforzi o flussi concentrati. Anzi, è emerso che proprio l’impostazione più originaria, basata sul concetto di potenza virtuale, si è rivelata più feconda di sviluppi e generalizzazioni. Lo studio delle suddette equazioni potrebbe quindi gettar luce su proprietà generali delle soluzioni di molti problemi di natura applicativa.

Altro settore di interesse del gruppo di ricerca sono le estensioni a oggetti “frastagliati”, quali i frattali, di nozioni e teoremi che hanno la loro enunciazione classica in ambito “liscio”. Concetti di questo genere si stanno rivelando utili per la modellizzazione di strutture microscopiche complesse.

In collaborazione poi con il MOX del Politecnico di Milano, nella persona del prof. Fausto Saleri, e l’Istituto di Geofisica e Bioclimatologia di Desenzano nella persona del dott. Gianfranco Bertazzi, il gruppo sta studiando la modellizzazione numerica del moto delle acque del lago di Garda, ivi comprese la modellizzazione di sismi, dispersione di inquinanti e variazioni climatiche. La ricaduta dei risultati di questo studio, che necessita di una attenta analisi sia numerica che sperimentale che fisico-matematica, è evidente.

Infine, il gruppo si interessa anche alla assiomatizzazione della Termodinamica classica. Questo versante, che si apre a interessi di tipo didattico e formativo, è quanto mai attuale alla luce delle acquisizioni recenti della Termodinamica del non equilibrio e dei processi caotici.


La ricerca si inserisce nel progetto PRIN 2005 “Modelli Matematici per la Scienza dei Materiali”. Collaborano alla ricerca Carlo Banfi e Marco Degiovanni (Università Cattolica del S.Cuore – Brescia), Antonio DiCarlo (Università degli Studi di Roma Tre), Paolo Podio-Guidugli (Università di Roma “Tor vergata”)





Algebra


M.Chiara Tamburini, Clara Franchi


L'attività di ricerca ha per oggetto la teoria dei gruppi e si puo' dividere in tre principali ambiti di interesse.


Generazione di gruppi. Un gruppo si dice (2,3,7)-generato quando può essere generato da due elementi di rispettivi periodi 2 e 3, il cui prodotto ha periodo 7. Un gruppo di Hurwitz è un gruppo finito (2,3,7)-generato. L'inizio dello studio dei gruppi di Hurwitz risale al XIX secolo in connessione con lo studio delle superfici di Riemann: infatti il gruppo degli automorfismi di una superficie compatta di Riemann è di Hurwitz. E' noto che molti dei gruppi semplici finiti sono di Hurwitz. Tuttavia, molte questioni sono ancora aperte. Questa ricerca si occupa di determinare il minimo n per cui il gruppo PSL(n,q) è di Hurwitz. I metodi usati attingono alla rappresentazione dei gruppi e presuppongono l'utilizzo del software Magma-Cayley.



Caratterizzazione di alcuni gruppi semplici sporadici. Uno dei risultati più importanti della matematica del XX secolo è la classificazione dei gruppi semplici finiti. Essa è stata realizzata grazie al contributo di numerosissimi studiosi nell'arco di circa quarant'anni. I 26 gruppi semplici sporadici rappresentano, all'interno del teorema di classificazione, una sorta di "anomalia" in quanto hanno caratteristiche particolari delle quali non si è ancora riusciti a dare una descrizione omogenea. Inoltre si è ormai convinti che essi abbiano legami con la fisica, che per il momento rimangono misteriosi. Lo scopo di questa ricerca è dare una nuova caratterizzazione di tre gruppi semplici sporadici: il gruppo di Lyons, il famoso Mostro e un suo sottogruppo chiamato Baby Mostro.



Sottogruppi di Carter. Un sottogruppo di un gruppo finito si dice di Carter se è nilpotente ed autonormalizzante. Ogni gruppo finito risolubile contiene esattamente una classe di coniugio di sottogruppi di Carter. Questa ricerca vuole dimostrare la seguente congettura: ogni gruppo finito ha al più una classe di coniugio di sottogruppi di Carter. La congettura è stata verificata per i gruppi semplici finiti. Si sta ora studiando la struttura dei sottogruppi nilpotenti massimali in certe estensioni dei gruppi lineari.


email:c.tamburini @dmf.unicatt.it

email:c.franchi @dmf.unicatt.it



Queste ricerche sono condotte in collaborazione con: Prof.Maxim Vsemirnov, Steklov Institute, San Pietroburgo; Dr. Mario Mainardis, Università di Udine, Dr. Silvia Lucido, Università di Udine, Dr. E.P. Vdovin, Università di Novosibirsk.






Analisi Numerica


Maurizio Paolini, Franco Pasquarelli


L'Analisi Numerica (e "Calcolo Scientifico") si occupa della ricerca di soluzioni approssimate di problemi di grande complessita' di cui non e' possibile fornire la soluzione esatta. Tali problemi, spesso comprendenti equazioni alle derivate parziali, nascono tipicamente da situazioni concrete in svariati ambiti (fisico, ingegneristico, finanziario) come anche da problemi di carattere puramente matematico-teorico. La soluzione approssimata viene ottenuta con l'ausilio di strumenti di calcolo (elaboratori elettronici), da cui nasce anche una naturale relazione di interdisciplinarieta' con l'Informatica, anch'essa presente presso il Dipartimento. In questo ambito il gruppo di lavoro si e' recentemente occupato della simulazione numerica di evoluzione geometrica di fronti. Il problema "modello" e' l'evoluzione di superfici nello spazio, o di ipersuperfici in spazi di dimensione piu' elevata, con una velocita' puntuale proporzionale alla curvatura media. In figura 1 ad esempio e' visualizzata una sezione tridimensionale di un "toro" (ciambella) immerso nello spazio quadridimensionale che evolve nel tempo in accordo con questa legge. Nella figura e' rappresentata la ipersuperficie a due diversi istanti temporali, uno di questi corrisponde all'istante in cui il foro della "ciambella" si chiude nell'origine del quadrispazio e la superficie quindi subisce un cambiamento topologico. In figura 2 e' invece rappresentato il risultato dell'evoluzione di una superficie inizialmente sferica con una legge di evoluzione simile alla precedente ma in presenza di un ambiente anisotropo (con proprieta' non uniformi nelle varie direzioni). In particolare l'anisotropia scelta per questo esempio corrisponde ad una situazione estrema (anisotropia cristallina).









Analisi matematica


Marco Degiovanni, Giovanna Marchioni, Marco Marzocchi.


L'attivita' di ricerca ha per oggetto lo studio delle equazioni differenziali non lineari, sia ordinarie che alle derivate parziali, con metodi di tipo variazionale.


Il comportamento dei fenomeni naturali e' usualmente descritto da funzioni che devono soddisfare delle equazioni che coinvolgono le derivate delle funzioni stesse e sono quindi dette equazioni differenziali. A meno che lo studio non avvenga a livello microscopico con poche particelle coinvolte, tali equazioni non sono lineari e puo' essere estremamente arduo descriverne le soluzioni.

Gia' nel XVIII secolo era stato osservato che spesso le funzioni che descrivono i fenomeni naturali minimizzano, o rendono stazionari, degli opportuni funzionali definiti sulle funzioni stesse. Per un secolo e mezzo tale fatto era stato considerato come una interessante proprietà delle soluzioni, ottenute per altra via, di certe equazioni differenziali. Nella prima meta' del XX secolo e' stato invece proposto un rovesciamento di prospettiva, ossia utilizzare tale minimalita' o stazionarieta' per arrivare alle soluzioni dell'equazione differenziale. E' il programma che ha segnato la nascita dei Metodi diretti del calcolo delle variazioni o Metodi variazionali, inizialmente confinati al caso della minimalita', ma ben presto estesi in modo da poter trattare anche la stazionarieta'. L'idea si e' rivelata estremamamente feconda e ha avuto grande sviluppo fino a diventare un filone principale dell'Analisi matematica, in cui l'Italia si e' collocata, nel corso degli anni '60, in posizione di avanguardia.


L'esigenza di collegare funzionale e equazione differenziale ha portato a considerare, anzitutto, il caso in cui il funzionale stesso soddisfi delle opportune condizioni di regolarita'. Queste sono pero' diventate, con l'allargarsi degli ambiti a cui l'approccio variazionale veniva applicato, sempre piu' restrittive. Per questo motivo, a partire dagli anni '60 per lo studio della minimalita' e dagli anni '80 per lo studio della stazionarieta', si sviluppato un sottofilone dedicato allo studio con metodi variazionali di equazioni differenziali il cui funzionale associato non soddisfi le condizioni di regolarita' ormai classicamente codificate.


L'attivita' del gruppo si colloca all'interno di quest'ultimo filone di ricerca.




Geometria Complessa


Bruno Bigolin, Claudio Perelli Cippo, Luca Lussardi, Alessandro Giacomini


Lo studio delle Equazioni alle derivate parziali fa intervenire i concetti di varieta' caratteristica e non caratteristica, soprattutto in relazione al Problema di Cauchy, le cui applicazioni a svariati problemi di Fisica Matematica sono ben note. Nel corso del XIX secolo (sulle orme di Hamilton) S. Lie ha introdotto nuovi concetti, sviluppati poi a fondo nei primi decenni del XX secolo soprattutto da E. Cartan e dalla sua scuola.


Scopo del nostro Seminario e' approfondire la Teoria di Cartan, aprendola soprattutto ai sistemi di Equazioni alle derivate parziali, per i quali le nozioni di caratteristicita' e non caratteristicita' non sono cosi' studiate come invece lo erano quelle classiche per le singoli equazioni. Questi approfondimenti si prestano anche, visto il grado di generalita' adottato da noi, a utili spunti didattici non privi di originalita'.





Geometria: ricerche di base, storiche e didattiche, ed applicazioni informatiche e tecnologiche


Silvia Pianta, Mario Marchi, Elena Zizioli, Luca Guizzi, Francesca Maggioni, Anita Pasotti (per le ricerche di base) Pierluigi Pizzamiglio, Carla Alberti, Giovanna Gazzaniga, Roberto Fantino, Liliana Pedrazzoli, Marina Dalè , Maria Pia Perelli, Maria Cantoni (per le ricerche storiche e didattiche, anche con strumenti multimediali) Lorenzo Schiavina (per le applicazioni informatiche e tecnologiche)


Le ricerche di base si sviluppano nell’ambito dei Fondamenti della Geometria, con analisi di geometrie metriche di tipo sia euclideo che non euclideo e delle strutture algebriche atte a rappresentarle, ed anche nell’ ambito della Geometria Proiettiva, degli Spazi di Galois in cui si studiano varietà algebriche ed altre strutture combinatorie connesse con i gruppi ortogonali ed unitari.


Una parte delle ricerche storiche si focalizza sul reperimento e sull’analisi di edizioni originali di testi di matematici e scienziati dei secoli passati (molti dei quali presenti nel ricco e variegato fondo della Biblioteca di Storia della Scienza “Carlo Viganò”, sita nella sede di Brescia dell’Università Cattolica), che vengono messi a disposizione, anche tramite riproduzione su CD-Rom ed altri supporti, degli studiosi, dei docenti e degli studenti interessati a conoscere le vicende inerenti alla storia del pensiero scientifico.


Le ricerche didattiche si occupano sia della formulazione di metodologie fruttuose nella didattica della Matematica per la scuola primaria, con proposte di approfondimenti teorici ed itinerari didattici correlati, sia dell’analisi delle potenzialità offerte da software e altri strumenti basati sull’uso di nuove tecnologie informatiche, per la formazione e la concettualizzazione in Geometria.


Una tecnica che verrà implementata nelle applicazioni consiste nell’utilizzo di strumenti “neuro-fuzzy” per il riconoscimento di forme.

Le applicazioni di tale tecnica che prevedono il trattamento ed il riconoscimento di immagini sono numerosissime e svariate e si stanno sviluppando a ritmo vertiginoso.

L’utilizzo di questo approccio ha permesso per esempio di automatizzare il riconoscimento della condizione normale o patologica in base ai risultati di esami svolti con la tecnica dell’elettroforesi capillare.

Si pensi inoltre alla realtà virtuale ed anche alla possibilità di rendere automatico il riconoscimento di patterns che viene svolto dagli analisti di borsa sul corso dei titoli.





Intelligenza artificiale ed elementi connessi


G. Resconi


Sappiamo che con l’avvento dei computer nuovi problemi si sono posti all’uomo. Problemi prima impensabili.

Compito dell’intelligenza artificiale è quello di porre in evidenza i nuovi problemi e se è possibile risolverli.

Possiamo suddividere i problemi posti dal computer in questi punti


  1. Problema della realizzazione dei computer

  2. Problemi nella programmazione

  3. Problemi nell’adattamento dei programmi alle varie applicazioni

  4. Problemi degli utilizzatori dei computer

  5. Problemi fra linguaggio naturale e linguaggi dei computer

  6. Problemi nella realizzazione di progetti mediante computer

  7. Problemi nella robotica assistita dai computer

  8. Problemi sulle definizione delle incertezze

  9. Problemi decisionali in presenza di incertezze

  10. Problemi conflittuali fra diverse preferenze di diversi agenti

  11. Problemi riguardanti la società degli agenti persone e macchine quali logiche seguono

  12. Problemi di simulazione mediante computer di comportamenti umani ( agenti )

  13. Problemi di simulazione mediante computer di fenomeni biologici complessi

  14. Problemi riguardanti il mondo concettuale umano

  15. Problemi riguardanti la progettazione di nuovi computer ispirati ai sistemi naturali


Tale serie di problemi sono solo alcune delle linee di ricerca dell’intelligenza artificiale. Per la soluzione di tali problemi si sono inventate nuove teorie come la teoria dei Fuzzy sets ( insiemi sfumati ), la teoria delle reti neurali. Nuovi calcolatori sono in progetto. Calcolatori che imitano i processi biologici di tipo genetico e altri. Siamo perciò in una fase esplosiva che tende a sostituire la centralità della macchina con la centralità dell’uomo sia sotto l’aspetto concettuale ( spirituale ) sia sotto l’aspetto biologico. L’uomo con le sue molteplici funzionalità diventa sempre di più il modello fondamentale per l’acquisizione di nuove conoscenze e per aprire nuove prospettive alla ricerca di nuovi computer e nuovi programmi.




Valutazione delle prestazioni di servizi e infrastrutture Internet


D. Tessera


Le attività di ricerca nell’ambito della valutazione delle prestazioni di servizi e infrastrutture Internet riguardano la definizione e lo studio di indici di prestazione offerta/percepita dagli utenti finali. Portali informativi, infrastrutture per il commercio elettronico, la comunicazione di massa, e l’e-government, l’intrattenimento e la domotica, sono solo alcuni esempi che evidenziano il ruolo sempre più pervasivo dei servizi Internet. La disponibilità di infrastrutture di comunicazione globali e integrate sta favorendo lo sviluppo di servizi innovativi a valore aggiunto da parte di una nuova classe di piccoli e grandi fornitori di contenuti e di servizi che offrono i loro prodotti senza dover necessariamente affrontare i rischi e gli investimenti connessi alla creazione di grandi infrastrutture di comunicazione. Molti fattori, quali, ad esempio, il carico di lavoro dei server coinvolti durante l’erogazione del servizio, le caratteristiche delle reti di comunicazione e le condizioni istantanee di traffico del percorso end-to-end, contribuiscono e, spesso determinano, le prestazioni percepite dagli utenti.

Le attività di ricerca svolte in questo ambito riguardano lo studio dei fattori che maggiormente influenzano le prestazioni dei servizi Internet. In sintesi le attività svolte riguardano:

  1. caratterizzazione del carico di lavoro elaborato dalle componenti coinvolte nell’erogazione del servizio;

  2. identificazione di modelli per descrivere il consumo di risorse in funzione del numero e del tipo di servizi erogati;

  3. definizione di metriche per la valutazione degli aspetti più critici delle prestazioni;

  4. sviluppo di modelli e/o politiche di gestione delle risorse in grado di garantire le prestazione.


Nella figura è riportato lo schema tipico di un esperimento di valutazione delle prestazioni di un generico SUT (sistema da analizzare) sottoposto ad un carico di lavoro controllato per misurare indici di prestazioni.


Attualmente sono in corso di svolgimento studi sulle infrastrutture utilizzate per la posta elettronica e di quelle utilizzate per la distribuzione di contenuti Web dinamici.

Nell’ambito del primo tema gli studi riguardano la valutazione delle prestazioni e il dimensionamento di server di posta elettronica in funzione del numero e del tipo di mailbox, del volume e delle caratteristiche multimediali delle email scambiate. L’obiettivo di tali studi è il miglioramento del livello di sicurezza e dell’affidabilità del servizio di posta elettronica.

Nell’ambito dei sistemi per la distribuzione di contenuti Web dinamici, quali, ad esempio i portali, gli studi sono rivolti a valutare l’efficacia delle politiche di distribuzione dei contenuti in funzione del tipo di informazione (testuale, grafica, multimediale, interattiva), del tasso di aggiornamento, della dimensione e della popolarità (frequenza di accessi degli utenti) di ciascun contenuto informativo.


d.tessera@dmf.unicatt.it


Le attività di ricerca svolte nell’ambito della valutazione delle prestazioni di infrastrutture e servizi Internet sono svolte in collaborazione con altre università e istituti di ricerca nazionale e internazionali.