giovedì 26 novembre 2009

CERN (LHC): Sulla questione dei mini buchi neri.

Un articolo di Fausto Intilla
---------------------------------
Nelle teorie di Grande Unificazione, il comportamento tra particelle e interazioni gravitazionali, è indubbiamente ancor oggi il più enigmatico e discusso “capitolo” delle storia della fisica delle alte energie ( e questo a causa della grande differenza nella scala delle forze, in cui ovviamente la Gravità “la fa da padrona”,in quanto a "lontananza" dalle altre forze). In genere si presume che in vicinanza della scala di Planck, la Gravità dovrebbe assumere dei valori simili alle altre forze; andando così a ristabilire un determinato ordine in grado di dar forma a una possibile teoria di Grande Unificazione.Le varie incognite, in relazione all’evoluzione e al tempo di vita dei mini buchi neri (o buchi neri di Planck) che con molta probabilità si formeranno durante gli esperimenti con il LHC, sono quindi dovute alla nostra attuale incapacità di conciliare la fisica delle particelle ad alte energie , con la Relatività Generale.Le uniche speranze di poter comprendere qualcosa in più rispetto alle nostre attuali conoscenze, possiamo attualmente riporle (a mio avviso), solo nella Teoria delle Stringhe; l’unica in grado di darci qualche indicazione di come potrebbe effettivamente comportarsi la Gravità su scale prossime a quella di Planck (anch’essa comunque con tutte le sue lacune, che in questa sede non sto a spiegare). Sembrerebbe infatti che le dimensioni extra (previste appunto dalla Teoria delle Stringhe), siano responsabili della “Gravità debole” (quella che tutti conosciamo,perchè appartiene alla nostra realtà fisica). Se quindi tali dimensioni extra sono in grado di possedere delle “qualità proprie”, ciò avrebbe delle ripercussioni sull’evoluzione delle masse di Planck (mini buchi neri)...nel senso che potrebbero tendere a ridursi ulteriormente, in quanto a volume. Il problema sta quindi nel non sapere assolutamente come potrebbe comportarsi un simile mini buco nero, di dimensioni ridotte.Recenti studi hanno dimostrato (a livello teorico) che il modello (termodinamico) di Bekenstein-Hawking-Page dei mini buchi neri (adattato al Modello Standard) si rompe vicino alla massa di Planck, per il fatto che predice singolarità prive di orizzonti e una curvatura infinita di cui non si conoscono neppure le conseguenze. Su scale prossime a quella di Planck, è assai probabile quindi che, sia la Relatività Generale che la Meccanica Quantistica, si “rompano”.In tali studi (basati sempre sul modello termodinamico), si è avanzata anche l’ipotesi che la Gravità possa accrescere (come forza) , solo quando le temperature dei mini buchi neri in fase di evaporazione, tendono ad infinito. Questa recente analisi quindi, in un certo qual senso regolarizza il processo di evaporazione (liberandolo dal problema degli infiniti fisici) e lo fa apparire come l’unica condizione possibile qualora vengano a crearsi dei mini buchi neri all'interno del LHC. Una simile evaporazione inoltre, possiede tradizionali proprietà termodinamiche (dopo un apparente cambiamento di fase) e probabilmente conserva le informazioni. Anche se tali analisi si discostano sostanzialmente dalla Teoria delle Stringhe,c’è di buono almeno che vanno a parare sempre nella medesima direzione (ed escludono totalmente l’accrescimento di Bondi); ossia quella in cui per qualsiasi nuovo stato della materia si dovesse scoprire al di sotto della massa di Planck, esso avrà sempre comunque lo stesso comportamento (quello ordinario delle particelle elementari, che in ultima analisi quindi, seguono il Principio di Indeterminazione di Heisenberg). I mini buchi neri che si creeranno all’interno del LHC, con estrema probabilità apparterranno quindi alle classiche dimensioni (3D + t) della nostra realtà fisica ...ed evaporeranno, con altrettanta estrema probabilità, in circa 10^-42 secondi.
------------------------
Per un approfondimento:
------------------------
------------------------
Ancora due parole sul Bosone di Higgs:
Una delle tante "fregature" in relazione alla possibilità o meno di poter scorgere le particelle scalari di Higgs, nelle collisioni con il LHC, sta nel fatto che queste ultime possano tranquillamente esulare dal Principio di esclusione di Pauli(*1). E questo è senza dubbio il motivo per cui tali bosoni (che seguono la statistica di Bose-Einstein(*2),avendo spin intero ...ebbene sì,anche se nullo,viene considerato ugualmente intero) possono condensare in una configurazione degenere dello stato fondamentale (in parole povere possono ..."condensarsi nel vuoto").La chiave per risolvere questo ed altri dilemmi legati al Modello Standard, potrebbe stare (come ho spiegato tempo fa in un video su Youtube: "Sul Bosone di Higgs"), nell'applicazione teorica del concetto di Supersimmetria.Se è vero che la scala a cui i partner supersimmetrici della materia ordinaria devono esistere, non può essere molto più alta della scala della rottura di simmetria dell' interazione debole, allora molto probabilmente con il LHC,teoricamente, oltre i 2 TeV(*3) di energia di collisione, dovremmo assistere ad eventi che possono finalmente o convalidare una volta per tutte il modello supersimmetrico,...o annullarlo per sempre.
Note:
*1.Basti semplicemente pensare ai fotoni (anch'essi per natura dei bosoni), in grado di occupare lo stesso stato quantico nel medesimo istante; esulando quindi dal Principio di esclusione di Pauli.
*2.Tutte le particelle con spin intero (ossia 0;1;2;3;...) seguono,in quanto a distribuzione, la statistica di Bose-Einstein; quelle invece con spin semintero (ossia 1/2; 3/2;...),seguono la statistica di Fermi-Dirac.
*3. Esperimenti sino a 2 TeV di energia di collisione, sono già stati effettuati al Tevatron; dove nel 1995 è stato scoperto il top quark.
---------------------
---------------------
Masse ed energie ultra-relativistiche chiamate in causa:
Nella fisica delle particelle elementari si usano le equazioni relativistiche dell'energia; solitamente comunque si tende a considerare più che le masse delle varie particelle (quando vengono accelerate a velocità prossime a quelle della luce, vale a dire a c),la loro "quantità" di energia cinetica.
Questo per il semplice motivo che, essendo tali particelle accelerate,"vincolate" dal Fattore di Lorentz, sono soggette ad un aumento di massa (relativistico) che accresce in modo esponenziale per valori di v tendenti sempre di più a c (per raggiungere la velcità della luce occorrerebbe, paradossalmente, un'energia infinita).
Nel caso di un protone accelerato, la sua massa dinamica sarebbe data dall'equazione:
massa dinamica = m / [radice di 1-(v/c)^2] ;dove m è la massa a riposo della particella (in questo caso un protone).
Si consideri che per portare un protone ad una velocità di v=0,99999726 c ,all'interno del LHC, occorre un'energia di circa 400 GeV.
Ora, se risolviamo l'equazione succitata con i rispettivi valori, otteniamo una massa dinamica 427 volte più grande di quella a riposo!
La massa a riposo di un protone, equivale a circa: 1,673 x 10^-27 Kg ;per cui la sua massa dinamica a tale velocità sarà di circa 714,37 x 10^-27 Kg. Con un tale incremento di massa, è ovvio quindi che occorrono degli elettromagneti assai potenti, per mantenere costantemente i protoni in traiettoria. Per esempio,ad un'energia di 400 GeV, l'intensità del campo magnetico B necessario,calcolato in base alle leggi del moto di Newton in una traiettoria circolare di raggio r=4'285m (...guarda caso proprio il raggio del LHC ),sarà di:
B=(mv/qr).427= [(1,673 . 10^-27 kg . 3 . 10^8 m/s)/(1,6 . 10^-19 C . 4'285m)] . 427 = 0,31 Tesla. (*1)
Considerando ora il tutto in termini di energia relativistica,avremo:
E (protone a riposo)=
m.c^2= 1,673 . 10^-27 kg . (3 . 10^8 m/s)^2
= 1,506 . 10^-10 J = 0,941 . 10^9 eV= 941 MeV.
La sua energia cinetica relativistica sarà quindi data da:
(massa dinamica - massa a riposo).c^2=
(427-1)mc^2= 426 . 1,673 . 10^-27 kg . (3 . 10^8 m/s)^2= circa 400 GeV
Per cui, se consideriamo delle collisioni tra due fasci di protoni di 400 GeV , avremo come risultato un'energia di collisione di 800 GeV! ...esattamente il doppio.
--------------
Note:
(*1) Una parentesi: con un'energia per fascio di 7'000 GeV (la massima consentita per il LHC),occorre un campo magnetico B di oltre 8 Tesla!
Il campo magnetico terrestre (geomagnetico),non è uniforme su tutta la superficie della Terra. La sua intensità varia dai 20'000 nT(equatore) ai 70'000 nT (poli). [nT sta per nanotesla,ossia: miliardesimi di Tesla].
Considerando quindi una media terrestre di intensità di campo di circa 45'000 nT,il calcolo di quante volte il campo generato dai magneti del LHC (a pieno regime,ossia portato alla sua massima potenza) sarà più intenso rispetto a quello terrestre, è presto fatto:
---
Campo magneti LHC a 7'000 GeV = circa 8,31 T
Campo terrestre medio = circa 0,000045 T
Risolvendo:
8,31 T / 0,000045 T = circa 184'666 volte ...più intenso di quello terrestre!

domenica 22 novembre 2009

The Corporation: Video Documentario in italiano sul potere delle multinazionali.





























Psoriasi e asma: scoperto un nuovo tipo di cellula immunitaria.

Fonte: Cordis
------------------
Alcuni ricercatori finanziati dall'Unione europea hanno scoperto un nuovo tipo di cellula immunitaria determinante in alcune patologie infiammatorie croniche come la psoriasi e l'asma. Il team auspica che questa scoperta possa favorire lo sviluppo di nuovi farmaci per la cura di queste malattie. Lo studio, pubblicato nella rivista online Journal of Clinical Investigation (JCI), è stato in parte finanziato dall'Unione europea attraverso il progetto SENS-IT-IV ("Novel testing strategies for in vitro assessment of allergens") che ha ricevuto 11 milioni di euro in riferimento all'area tematica "Scienze della vita, genomica e biotecnologie per la salute" del Sesto programma quadro (6° PQ). Gli scienziati, provenienti da Germania, Italia e Regno Unito, hanno individuato queste nuove cellule analizzando campioni di cute prelevati da pazienti affetti da psoriasi, eczema atopico e dermatiti allergiche da contatto. Denominata Th22, la cellula recentemente scoperta appartiene al tipo di cellule immunitarie definite cellule ausiliarie T. Le cellule ausiliarie di tipo T - insieme ai linfociti - attivano altre cellule immunitarie nel momento in cui l'organismo viene attaccato, per esempio, da un virus o da un batterio. Inoltre, le cellule ausiliarie T controllano il processo infiammatorio attivato nell'organismo per debellare l'infezione. Le cellule Th22 sembrano essere coinvolte nel controllo e nel coordinamento delle cellule immunitarie che attivano l'infiammazione. Le ricerche degli scienziati hanno rilevato che le cellule Th22 producono una molecola di segnalazione chiamata interleukina-22 (IL-22). Questa molecola invia ai tessuti un complesso segnale che indica l'imminenza del processo infiammatorio o dell'infezione, consentendo così ai tessuti di prepararsi all'agente patogeno o di proteggersi dall'infiammazione. Per questo motivo, nei soggetti sani le cellule Th22 hanno un'azione protettiva. Tuttavia, nei soggetti affetti da malattie croniche cutanee di origine infiammatoria queste cellule non lavorano correttamente, determinando una crescita troppo rapida delle cellule cutanee che porta la cute ad essere dolorante e a squamarsi. "Stiamo assistendo ad un aumento delle malattie croniche - come, per esempio, le dermatiti e le malattie che colpiscono le vie aeree - imputabile al cambiamento dello stile di vita delle persone", ha commentato il dottor Carsten Schmidt-Weber del National Heart and Lung Institute dell'Imperial College London (Regno Unito). "Queste malattie possono avere un impatto significativo sulla vita delle persone, e i pazienti spesso si ritrovano a condurre una battaglia continua per tenere sotto controllo i sintomi. Siamo entusiasti di aver scoperto questa nuova sottoclasse di cellule ausiliarie T, poiché riteniamo che possano fornire un nuovo obiettivo per il trattamento futuro delle malattie croniche di origine infiammatoria". I ricercatori stanno attualmente studiando in dettaglio le cellule Th22 allo scopo di chiarire qual è il loro ruolo nelle malattie infiammatorie. Il team desidera scoprire in quale punto dell'organismo avviene la produzione delle cellule e se esiste un modo per controllarle prima che inizino a causare problemi. L'obiettivo del progetto SENS-IT-IV è ridurre gli esperimenti sugli animali, mediante lo sviluppo di metodi alternativi in vitro per l'effettuazione di test sugli allergeni. Il progetto riunisce 15 università e istituti di ricerca, nonché 9 aziende, alcuni imprenditori e altre organizzazioni. Secondo i partner del progetto "l'esito positivo del progetto contribuirà alla riduzione del numero di animali necessari per effettuare i test di sicurezza e alla messa a punto di strumenti più precisi per lo sviluppo dei prodotti". Gli effetti positivi del progetto, dunque, interesseranno tutti i cittadini europei e potenzieranno la competitività delle aziende europee.
Per maggiori informazioni, visitare: Imperial College Londra:
http://www.imperial.ac.uk Journal of Clinical Investigation (JCI): http://www.jci.org Progetto SENS-IT-IV: http://www.sens-it-iv.eu
ARTICOLI CORRELATI: 28960, 30487
Categoria: Risultati dei progettiFonte: Imperial College London; Journal of Clinical InvestigationDocumenti di Riferimento: Eyerich, S. et al. (2009) Th22 cells represent a distinct human T cell subset involved in epidermal immunity and remodelling. JCI, pubblicato online il 16 novembre. DOI: 10.1172/JCI40202.Acronimi dei Programmi: MS-D C, MS-I C, MS-UK C, FP6-INTEGRATING, FP6-LIFESCIHEALTH, FRAMEWORK 6C-->Codici di Classificazione per Materia: Coordinamento, cooperazione; Scienze biologiche; Medicina, sanità; Ricerca scientifica
RCN: 31487

Sindrome di Down: si può sperare in future terapie farmacologiche.

Fonte: Le Scienze
-----------------------
Uno studio sperimentale sul modello animale della sindrome di Down suggerisce che in futuro potrebbe essere perseguibile la via farmacologica per alleviare il deficit mentale.
Uno studio sperimentale condotto su un modello animale della sindrome di Down suggerisce per la prima volta che vi sia la possibilità - in prospettiva - di alleviare per via farmacologica alcune manifestazioni del deficit mentale legato alla malattia. Nello studio ("Restoration of Norepinephrine-Modulated Contextual Memory in a Mouse Model of Down Syndrome"), condotto presso la Stanford University School of Medicine e il Lucile Packard Children's Hospital e pubblicato sulla rivista "Science Translational Medicine", i ricercatori sono infatti riusciti a mostrare che in un gruppo di topi geneticamente ingegnerizzati per riprodurre la sindrome di Down, il precoce potenziamento della via di segnalazione della noradrenalina ha migliorato le loro capacità cognitive. Alla nascita, hanno osservato i ricercatori, i bambini Down non sono in ritardo nello sviluppo cerebrale, ma questo con il tempo si accumula in correlazione a una difficoltà a far tesoro delle esperienze necessarie a un normale sviluppo cerebrale. "Se si interviene abbastanza presto si potrà essere in grado di aiutare i bambini con la sindrome di Down a raccogliere e modulare l'informazione. In linea teorica questo potrebbe portare a un miglioramento delle loro funzioni cognitive", ha detto Ahmad Salehi, primo autore dello studio e attualmente in forza presso il Veterans Affairs Palo Alto Health Care System. I ricercatori sono partiti dall'osservazione che nella sindrome di Down la cognizione non è colpita in tutti i suoi aspetti: chi ne soffre tipicamente ha difficoltà a gestire informazioni spaziali e contestuali di un ambiente complesso, che dipendono dell'ippocampo, ma ricorda molto meglio l'informazione legata a colori, suoni e altri stimoli sensoriali la cui memoria è coordinata da un'altra struttura cerebrale, l'amigdala. Salehi e colleghi hanno quindi osservato che quando formano le tracce mnemoniche contestuali e relazionali i neuroni dell'ippocampo ricevono noradrenalina dai neuroni di un'altra area cerebrale, il locus coeruleus. Quest'ultimo, però, nell'essere umano affetto da sindrome di Down come nel topo ingegnerizzato va incontro a una veloce degenerazione. Somministrando precocemente precursori della noradrenalina a un gruppo di esemplari del loro modello animale, i ricercatori sono riusciti a migliorarne le prestazioni, anche se gli effetti dei farmaci sono stati di breve durata.Altri studi avevano già preso in considerazione gli effetti di un altro neurotrasmettitore, l'acetilcolina, che anch'esso ha un ruolo di primo piano nell'ippocampo. Secondo Salehi questi risultati aprono la prospettiva allo studio di eventuali trattamenti che contemplino il potenziamento congiunto di questi neurotrasmettitori.Lo studio ha anche individuato un legame diretto fra la degenerazione del locus coeruleus e uno specifico gene, l'APP, di cui le persone affette da sindrome di Down possiedono una copia in più sul cromosoma 21 extra. APP è il gene che codifica la proteina precursore della proteina amiloide, coinvolto anche nella malattia di Alzheimer, anch'essa caratterizzata da problemi sia di formazione della memoria, sia di orientamento spaziale. (gg)

L'origine delle miniere di Nickel.

Fonte: Le Scienze
-------------------------
L'analisi è stata effettuata con la misurazione dell'abbondanza relativa di due isotopi dello zolfo, un elemento fondamentale perché si formino minerali di Nickel.
Alcune delle più importanti riserve di nichel presenti sulla Terra si formarono sott'acqua, depositandosi miliardi di anni fa, in un’epoca in cui i cicli chimici erano estremamente diversi da quelli attuali. Grazie all’analisi di particolari tipi di rocce risalenti a circa tre miliardi di anni fa, un gruppo di ricercatori della Carnegie Institution ha scoperto con sorpresa che la formazione di depositi di nichel è legata alla presenza di zolfo un un’antica atmosfera povera di ossigeno.Queste antiche miniere di solfuro di ferro e nichel, che rendono conto di circa il 10 per cento della produzione annuale del metallo, si formarono per la maggior parte tra due e tre miliardi di anni fa quando i magmi ad alta temperatura fuoriuscirono dal fondo oceanico, ma i dettagli finora sono rimasti scarsamente compresi. Per la propria formazione, infatti, questi minerali richiedono la presenza di zolfo, ma né le acque del mare né il magma erano sufficientemente ricchi di questo elemento. "Lo zolfo contenuto nei depositi di nichel deriva dal ciclo atmosferico delle epoche più antiche: la firma isotopica che abbiamo rilevato è quella di un’atmosfera priva di ossigeno”, ha commentato Doug Rumble, del Laboratorio dei geofisica della Carnegie e coautore dell’articolo apparso su “Science”.Secondo quanto si legge nel resoconto, le analisi dei campioni geologici reperiti in Australia e Canada hanno mostrato che lo zolfo giunse in tali depositi dopo un complicato percorso, in cui si sono succedute eruzioni vulcaniche in atmosfera, sorgenti calde e infine magmi fusi in grado di dar origine ai minerali.La prova cruciale deriva dalle misurazioni delle abbondanze relative dell’isotopo zolfo-33 che rispetto al più diffuso zolfo-32 possiede un neutrone in più. I due isotopi hanno le stesse proprietà chimiche; tuttavia le molecole di biossido di zolfo presenti nell’atmosfera vengono scisse in modo differente dalla radiazione ultravioletta, dando luogo a diversi frazionamenti degli isotopi nei prodotti di reazione, osservabili attualmente come anomalie isotopiche."Con un eccesso di ossigeno in atmosfera, i raggi UV non possono penetrare e queste reazioni non possono avere luogo”, ha aggiunto Rumble. "Così se si trovano queste anomalie isotopiche nelle rocce di una certa epoca, è possibile ottenere informazioni sul livello di ossigeno in atmosfera presente in quel periodo”.Collegando la formazione di minerali ricchi di nichel con la composizione dell’atmosfera primordiale, le anomalie consentono così di rispondere alle annose questioni riguardanti l’origine dello zolfo nelle rocce antiche. Ciò consentirebbe, inoltre, di individuare nuovi depositi di minerali, dal momento che la presenza di zolfo e di altri composti chimici rappresenta un fattore chiave per la loro formazione. (fc)

Microrganismi capaci di individuare con precisione gli ordigni.

Fonte: Galileo
---------------------
Un gruppo di studenti dell'Università di Edimburgo ha realizzato microrganismi capaci di individuare con precisione gli ordigni.
Batteri ingegnerizzati in grado di localizzare le mine antipersona. Li hanno messi a punto alcuni studenti dell'Università di Edimburgo grazie al BioBricking, una tecnica che permette l'assemblaggio delle molecole batteriche a partire dai singoli elementi che le compongono, in una sorta di "Lego biochimico". I microrganismi così creati, innocui per persone e animali, reagiscono quando entrano in contatto con gli elementi chimici sprigionati dagli esplosivi sepolti sotto il suolo: spruzzando sul terreno una soluzione di batteri e reagenti, si formerebbero delle macchie verdi a indicare le zone che nascondono gli ordigni.
Secondo l'organizzazione
Handicap International, ogni anno tra le 15.000 e le 20.000 persone muoiono o risultano ferite a causa di mine inesplose, ancora sotterrate in 87 paesi del mondo, tra cui Somalia, ex-Yugoslavia, Cambogia, Iraq ed Afghanistan. Le mine antipersona – di cui l'Italia è stata uno dei principali paesi produttori fino al 1994 – uccidono dieci volte più civili che soldati, e tre vittime su dieci sono bambini. Il principale freno all'eliminazione delle mine terrestri è di natura economica: il loro stesso uso sarebbe obsoleto se si scoprisse un metodo capace di rendere la rimozione meno costosa della costruzione e del posizionamento.
La soluzione proposta dagli studenti scozzesi renderebbe possibile bonificare aree estese con risultati visibili in poche ore. Inoltre, sebbene non ci siano ancora piani per commercializzare il prodotto, i ricercatori sostengono che la loro sia un'alternativa accessibile ed economica rispetto agli attuali sensori anti-mine. “Il nostro studio - spiegato Alistair Elfick, supervisore del progetto - mostra quanto le innovazioni scientifiche possano giovare alla società in senso ampio, e come grazie alle nuove tecnologie sia possibile manipolare le molecole destinandole a un uso specifico". (a.p.)
Riferimento:
University of Edinburgh

Completato il sequenziamento del codice genetico del mais.

Fonte: Galileo
-------------------
Science, Pnas e PloS Genetics pubblicano i risultati delle ricerche che hanno portato al sequenziamento del codice genetico del mais.
È il mais, dopo il riso e il sorgo, il terzo cereale il cui genoma è stato completamente sequenziato. Ci sono voluti trenta milioni di dollari e quattro anni di assiduo lavoro da parte di diversi gruppi di ricerca, uniti nel "Progetto genoma mais". Ai vari studi che hanno contribuito alla conclusione del progetto, Science, PloS Genetics e Pnas hanno dedicato le rispettive copertine. Il genoma ottenuto dai ricercatori conta 32.000 geni distribuiti su dieci cromosomi, per un totale di due miliardi di basi (le lettere del Dna). Quello umano ne ha quasi tre miliardi ma è formato da 20.000 geni su 23 cromsomi. Non è tanto però l'ampiezza o la complessità di questo codice genetico ad aver colpito i ricercatori, quanto il fatto che sia composto da due genomi separati fusi tra loro e che sia composto per l'85 per cento da trasposoni, elementi mobili di Dna ripetuti spesso più volte. Questi elementi potrebbero fornire indizi utili sulla variabilità genetica e sulla funzione dei vari geni presenti nel genoma.
Il Dna sequenziato appartiene a un tipo di mais chiamato mais B73 il quale è ampiamente usato negli studi di genetica e in agricoltura - sia per la produzione alimentare sia di biocombustibili - e dal quale provengono numerose varietà. E molte altre se ne potrebbero ottenere ancora: il lavoro di questi quattro anni potrebbe permettere infatti di sviluppare tipi di mais di resistenti a virus e agenti patogeni o a condizioni climatiche difficili come la mancanza d'acqua. (c.v.) Riferimenti:
Science DOI: 10.1126/science.1183463 PloS Genetics doi:10.1371/journal.pgen.1000711 doi:10.1371/journal.pgen.1000728 doi:10.1371/journal.pgen.1000715 Pnas doi:10.1073/pnas.0904742106 doi:10.1073/pnas.0908008106 doi:10.1073/pnas.0906498106

sabato 21 novembre 2009

IBM: entro 10 anni creeremo un cervello umano artificiale.

Fonte: Zeus News
-----------------------------
Gli scienziati dell'azienda hanno creato un sistema che emula la corteccia cerebrale di un gatto e promettono: entro 10 anni creeremo un cervello umano artificiale.
Ibm ha annunciato un passo avanti verso la creazione di un sistema che simula ed emula le capacità cerebrali legate a sensazione, percezione, azione, interazione e cognizione, eguagliando il basso consumo di energia e le compatte dimensioni del cervello.
I progressi compiuti nella simulazione corticale su grande scala hanno permesso di sviluppare un algoritmo che sintetizza i dati neurologici: in pratica Ibm sostiene che sia possibile costruire un chip per il calcolo cognitivo.
Il team di scienziati del centro di ricerca di Almaden (Usa) - in collaborazione con i colleghi del Lawrence Berkeley National Lab e con i ricercatori della Stanford University - ha costruito un simulatore corticale che incorpora una serie di innovazioni nel calcolo, nella memoria e nella comunicazione, nonché dettagli biologici derivati dalla neurofisiologia e dalla neuroanatomia: l'azienda sostiene che la simulazione supera la scala di una corteccia cerebrale di gatto (che equivale circa al 4,5% di un cervello umano).
Il supercomputer utilizzato - che, al contrario di quanto si possa pensare, non è il più potente al mondo ma solo il quarto per pura potenza di calcolo - è il Dawn Blue Gene/P del Lawrence Livermore National Lab, con 147.456 processori e 144 terabyte di memoria.
È stata l'unione di questo hardware e dell'algoritmo sviluppato dagli scienziati, a permettere di emulare il funzionamento della corteccia cerebrale di un gatto, ossia di 1 miliardo di neuroni e 10 trilioni di singole sinapsi di apprendimento.
Ibm e soci, completata con successo la "fase 0", hanno ricevuto 16,1 milioni di dollari di finanziamenti supplementari dalla Darpa per passare alla "fase 1" del progetto SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics), ossia il tentativo di un costruire un prototipo di chip e avvicinarsi, col tempo, all'intelligenza dei mammiferi e utilizzando allo stesso tempo una quantità significativamente minore di energia rispetto ai sistemi di calcolo attuali.
"L'obiettivo del programma SyNAPSE è creare nuovi componenti elettronici, hardware e architettura in grado di comprendere, adattarsi e rispondere a un ambiente informativo in modi che estendono il calcolo tradizionale, per comprendere le capacità fondamentalmente differenti presenti nei cervelli biologici", spiega il program manager della Darpa, Todd Hylton.
E già si guarda a un futuro - forse tra soli 10 anni - in cui sarà possibile creare un cervello umano artificiale.

Gli impianti di raffreddamento del Large Hadron Collider (VIDEO)

giovedì 19 novembre 2009

Influenza: l’Europa al lavoro sul vaccino del futuro.

Fonte: Euronews
-----------------------------
-----------------------------
Ogni anno l’influenza uccide centinaia di migliaia di persone. Ne contagia milioni e ci costa miliardi. Per contrastare il virus abbiamo i vaccini, ma sono realizzati con una tecnologia antiquata, che non consente una produzione su larga scala.
Per questo, a Vienna, si lavora al progetto di ricerca europeo “Fluvacc”. L’obiettivo è realizzare un nuovo vaccino, da assumere per via nasale. Philippe Neth è uno studente di medicina che lo ha già provato: “Potendo scegliere fra iniezioni intramuscolari e spray nasale – dice -, preferisco senza dubbio lo spray. Non fa male ed è anche più rapido”.
Gli spray nasali rendono la vaccinazione più semplice, soprattutto per chi è più vulnerabile e ha paura delle iniezioni: i bambini.
“Il nostro obiettivo – spiega dall’Università di Vienna la pediatra e immunologa Elisabeth Foerster-Waldl – è quello di far aumentare il numero delle persone vaccinate, soprattutto fra coloro che soffrono di malattie croniche. Diamo quindi il benvenuto a qualsiasi soluzione che faciliti questo compito e venga accettata con favore dai pazienti”.
Lo spray nasale è una soluzione più semplice e pratica, anche perché consentirebbe di vaccinarsi da soli e direttamente a casa propria.
“Il paziente potrà vaccinarsi da solo, senza neanche andare dal medico – conferma Volker Wachek, farmacologo molecolare all’Università di Vienna -. In base ai risultati delle analisi effettuate sul sangue, sembra inoltre che si tratti di un vaccino più efficace. Se parliamo quindi di misure da adottare contro un’epidemia, lo spray nasale dovrebbe offrire una protezione maggiore rispetto alle tradizionali iniezioni intramuscolari”.
La particolare efficacia di questo vaccino dipenderebbe proprio dal fatto che si tratta di uno spray nasale. In quanto tale, agisce infatti esattamente dove si sviluppa l’infezione.
Grazie ai nuovi modelli produttivi sviluppati nei laboratori di Vienna, il progetto Fluvacc promette però di risolvere anche un altro genere di problemi.
“Abbiamo prodotto il nostro vaccino grazie alla cosiddetta ‘genetica inversa’ – spiega il coordinatore Thomas Muster -. Questo significa che possiamo accelerare tutti i processi. In appena tre o quattro giorni siamo in grado di riprodurre ogni ceppo influenzale. Che si tratti di influenza stagionale o epidemica. E partire così con la produzione del vaccino”.
I ricercatori hanno prima identificato il gene, la proteina che rende il virus pericoloso e invisibile al corpo umano. Poi lo hanno cancellato.
“Prima rimuoviamo la proteina che rende il virus invisibile al corpo umano – racconta il virologo Andrej Igorov -. Quando poi iniettiamo il vaccino per via nasale, le cellule riconoscono l’arrivo del virus. Il corpo reagisce quindi immediatamente e ne impedisce la diffusione”.
I vaccini tradizionali vengono prodotti iniettando i virus nelle uova di gallina. Nel caso di un’epidemia, questo sistema non consente però una produzione su vasta scala. Una limitazione a cui i ricercatori hanno cercato di porre rimedio, ricorrendo in alternativa alle colture cellulari.
“Rispetto al metodo tradizionale costituiscono un vantaggio considerevole – conferma ancora Muster -, perché ci sono persone allergiche alle uova, che rischiano lo shock anafilattico. Un pericolo, che con questo nuovo vaccino, invece non esiste”.
Nel progetto è coinvolta anche Lubiana, la capitale della Slovenia. Qui i ricercatori hanno sviluppato una nuova tecnologia per “purificare” il vaccino. L’ultimo passo, prima che possa essere utilizzato e somministrato.
Nel laboratorio “Bia” arriva il vaccino prodotto con le colture cellulari. Un farmaco, quindi non ancora in circolazione. “La particella virale, che è alla base del vaccino – spiega il direttore Ales Strancar -, viene preparata in una specie di ‘brodo’, dove troviamo fra dieci e ventimila sostanze differenti. Fra queste, soltanto una può servire al vaccino. Dobbiamo quindi isolarla in modo che resti più pura possibile, perché altre componenti potrebbero non essere buone o addirittura velenose”.
Visto al microscopio, il brodo appare come una massa scura. All’interno, dei puntini bianchi che sono il vaccino. Accanto, altri più grandi sono invece impurità che ora possono essere rimosse, con una reazione chimica, ottenuta grazie a un nuovo “filtro intelligente”.
“Per il paziente – prosegue Strancar – questo significa avere farmaci più sicuri, più economici, e in alcuni casi ottenerli anche in tempi più brevi”.
La speranza degli scienziati è che grazie a questi sviluppi, aumenti il numero delle persone che vorranno sottoporsi al vaccino. Secondo Franc Strle, uno dei più grandi esperti sloveni in materia, c‘è un solo modo per arginare l’influenza e fermare le epidemie: proprio i vaccini. “Stranamente – dice – continuiamo a sottovalutare il fatto che centinaia di migliaia di persone muoiono ogni anno d’influenza. Ci siamo abituati. E non facciamo niente di particolare per evitarlo”.
Anche se i suoi effetti collaterali sono molto più ridotti di quanto si pensi, in Slovenia si è sottoposto al vaccino appena il 10% della popolazione. “Nessuno – commenta Strle – si chiede se gli air-bag siano importanti, eppure nelle auto ci sono. Di recente ho letto una statistica, secondo cui su 800 persone che salvano, ne uccidono anche 20. Ma nessuno mette in discussione il fatto che servano. Li consideriamo necessari. Ebbene: in proporzione, il vaccino contro l’influenza è molto più sicuro”.
Nei laboratori di Vienna, i ricercatori sostengono che il nuovo vaccino sarà più efficace, perché potrà difenderci sia dal virus, che dalle sue possibili mutazioni. “I risultati dei primi test clinici – dice ancora Thomas Muster -, ci hanno confermato che il nostro vaccino sarà in grado di offrire una protezione maggiore contro l’influenza. Sempre secondo gli stessi test, i suoi effetti collaterali saranno inoltre particolarmente ridotti”.
L’influenza non sarà mai del tutto debellata. Possiamo però combatterla meglio e prepararci ad affrontare nuove epidemie. Questo è l’obiettivo che si propongono gli scienziati, ora impegnati in una corsa contro il tempo, per reinventare la lotta all’influenza.

Riparte il super acceleratore LHC: Lucio Rossi (CERN), "Ecco dove abbiamo sbagliato".

Fonte: Il Sussidiario

Il SuperAcceleratore è di ritorno: quattrocentotrenta giorni di lavoro duro è la distanza che ci separa da quel mattino del 19 settembre 2008 in cui bruciò una connessione tra magneti superconduttori e bruciò anche le speranze di un rapido – e quasi facile – avvio di una fase in cui avremmo osservato “cose mai viste”. Tutto concorreva a convincerci di avercela fatta. I successi tecnici durante la costruzione, i ritardi modesti (circa otto mesi, un’inezia per la complessità della macchina), la partenza folgorante del 10 settembre e anche il can-can mediatico con televisioni che corrono da tutto il mondo, Google che ci dedica il logo e anche la follia del mega-buco-nero! E invece…
Una connessione elettrica tra magneti superconduttori, il gioiello tecnologico prodotto di venti anni di ricerca e spina dorsale della macchina, che va in circuito aperto. Una connessione dicevamo, una parte non particolarmente difficile, anche se deve far passare 13mila ampère (quanto basta per alimentare bene una cittadina) dissipando meno di una lampadina da notte si fuse generando un arco. Lo capimmo dopo, era – banalmente – malfatta e il difetto non era stato rivelato dai tre livelli di sistemi di controllo. Il guasto di per sé avrebbe danneggiato in modo grave solo i due magneti della connessione e ci avrebbe bloccato per almeno 4 mesi. Grave, si, ma non gravissimo: invece una serie di eventi imprevisti ha generato una salita vertiginosa di pressione dell’elio superfluido, il prezioso liquido che tiene i 27 km di magneti a -271 °C (ovvero molto più freddi dello spazio siderale). La pressione (circa cinque volte più elevata del previsto) ha spostato i magneti da 30 tonnellate l’uno in un effetto domino che ha coinvolto circa 700 m dell’acceleratore.

Ai primi ingegneri scesi nel tunnel dopo due giorni la linea dei magneti sembrava disastrata. Che cosa fare? L’incredulità era sui nostri volti. Per molti sembrava uno scacco senza rimedio. Non solo è stato difficile capire tutto l’accaduto (una “task force” di trenta fisici e ingegneri ci ha lavorato per quattro mesi), non solo era difficile a progetto completato prendere delle contromisure adeguate per prevenire simili incidenti, ma soprattutto angustiava la sensazione di essere schiacciato dallo sbaglio, dall’errore. Abituati a essere sempre ai primi posti della corsa tecnologica, a “vincere” sempre, si diventa un po’ presuntuosi, quasi arroganti. E la cosa che costa di più è ammettere, semplicemente, di essersi sbagliati. Sì, anche nelle nostre equazioni o macchinari più complessi progettati con sofisticati FEM e CAD (Finite Element Models e Computer Aided Design) c’è posto per l’errore. Ecco, per trovare l’energia per rinascere occorre partire da questa salutare ammissione: l’errore è possibile, anzi probabile in un sistema cosi complesso. Solo mettendolo in conto si può limitare il suo effetto. Insomma abbiamo re-imparato la lezione del Titanic. Con un vantaggio: colpiti ma non affondati, come nella vecchia battaglia navale, abbiamo potuto ripartire umilmente dal riconoscimento degli errori e, con un lavoro di squadra notevole, abbiamo intrapreso la lunga marcia della risalita, lavorando lungo tre direttrici principali:
- L’inventario dei danni: oltre 700 m ovvero 53 magneti da riportare alla superficie (dai 100 m sottoterra su cui si snodano i 27 km del tunnel); 39 da cambiare completamente, supporti criogenici da rifare, 5 km di tubo a alto vuoto da cambiare o ripulire a fondo nel tunnel; il rifacimento stesso del suolo del tunnel danneggiato.
- La rimozione delle parti danneggiate con un meticoloso lavoro per assicurare la sicurezza del personale, la preparazione dei magneti di riserva (che per fortuna e anche per sana previdenza erano sufficienti, nonostante l’incidente fosse stato del 500% più devastante dell’incidente ragionevolmente prevedibile), i test a freddo in superficie e la re-installazione dei magneti nel tunnel.
- La comprensione più esaustiva possibile delle cause e della dinamica dell’incidente e la messa in opera di tutte le misure per impedire questo e altri incidenti simili. Abbiamo installato un nuovo sistema di diagnostica circa tremila volte più sensibile e utilizziamo molto meglio il sistema che era già installato. Ora utilizziamo misure di precisione nell’elio superfluido, con una sensibilità di 0,01 °C su 100 metri di lunghezza. Non solo, ammaestrati dall’esperienza, abbiamo messo in opera anche misure per mitigare le conseguenze di nuovi possibili incidenti, come l’installazione di valvole di sicurezza e nuovi ancoraggi lungo i 27 km dell’anello: come dire che l’errore è sempre possibile, va messo in conto.

È proprio su questo vorrei porre l’accento: se l’errore, quindi il nostro limite, viene messo in conto come parte ineliminabile del nostro agire, allora le nostre energie sono libere per la costruzione, e questo rende meno sospettosi gli uni verso gli altri nella corsa a “smarcarsi” dalla colpa; tutto ciò permette quindi una dinamica di comune intento che veramente moltiplica le forze. E ciò ha permesso di non solo di risalire rapidamente la china (quando le previsioni di molti scettici raccontavano di due anni e più di stop) ma anche di far fronte alle conseguenze a lungo termine delle cause dell’incidente. La connessione fatta male è stata la spia di un design sbagliato che potrebbe funzionare solo se eseguito con una precisione impensabile su una serie di diecimila e con inevitabili pressioni logistiche e di tempo. Ora sappiamo che dobbiamo intervenire su molte altre connessioni in tutto l’anello prima che l’energia possa essere spinta al massimo.
Dopo l’avvio a fine novembre, a gennaio dovremmo essere al 50% dell’energia massima e poi potremo arrivare al 70%, che è comunque già cinque volte di più del record esistente, come a dire saremo subito in “terra incognita”. Ci metteremo un paio d’anni per arrivare al massimo dell’energia di collisione e, quando ci saremo, ci saranno certo altri problemi che ci terranno occupati: migliorare ancor più le prestazioni, aumentare la luminosità, cioè la potenza con cui si illuminano le zone oscure che andiamo a esplorare, e altro ancora..
Sono andato al Cern dall’Università di Milano nel 2001, proprio per condurre la progettazione e la costruzione dei magneti superconduttori: sette anni di lavoro duro ma un’avventura esaltante e umanamente appagante. Tuttavia, anche dirigere i lavori di riparazione e soprattutto motivare e tenere unito il team che ha condotto queste riparazioni è stata una vera esperienza. Quando ormai i team erano stati dimessi o ristrutturati, la loro ricostituzione su tempi brevissimi è stata altrettanto difficile del lavoro tecnico. Si tocca con mano che le motivazioni di corto respiro non tengono e l’entusiasmo artificiale della forza della volontà non regge. Solo la convinzione che niente è perduto, veramente, perché tutto ha un senso e uno scopo può trasformare una disavventura in una vera avventura, che senza bisogno di dimenticare una virgola della rabbia, della delusione, della fatica, ci sta facendo vivere l’entusiasmo della rinascita.

mercoledì 18 novembre 2009

Ricerca mostra la base genetica delle infezioni micotiche.

Fonte: Cordis
-----------------------
Due studi di ricerca indipendenti - pubblicati insieme nel New England Journal of Medicine - hanno impiegato il sequenziamento del DNA e le tecniche di mappatura genetica per individuare due proteine che, quando sono assenti, compromettono la capacità dell'organismo di combattere l'infezione da Candida. I risultati della ricerca - in parte finanziata dall'UE - potrebbero aumentare le nostre conoscenze sulla base genetica delle infezioni micotiche e portare a nuovi trattamenti, non soltanto per la Candida, ma anche per altri tipi di micosi. Il progetto MC-PIAID ("Marie-Curie grant on primary immuno-deficiencies and auto-immune diseases") è stato finanziato dall'UE con 1,6 milioni di euro attraverso la linea di bilancio per le risorse umane e la mobilità del Sesto programma quadro (6° PQ). Le infezioni micotiche come il mughetto (Candida albicans) e il piede d'atleta (tinea pedis) sono molto comuni e colpiscono migliaia di persone ogni anno. Molti di noi contraggono le micosi occasionalmente, anche se alcuni soggetti sembrano essere particolarmente suscettibili. Esistono molti trattamenti con effetti molti variabili, ma le infezioni micotiche sono note per la loro persistenza, e alcune persone ne sono colpite ripetutamente. Ora sembra che due team di ricerca internazionali indipendenti abbiano scoperto la ragione. I due team - uno guidato dall'Università Radboud nei Paesi Bassi e l'altro dall'University College London, nel Regno Unito - hanno scoperto che le mutazioni in due proteine in particolare - Dectin-1 e CARD9 - indeboliscono la capacità del sistema immunitario di controllare i funghi nell'organismo. Quando la proteina Dectin-1 riconosce la presenza della Candida nell'organismo, le cellule immunitarie inviano un segnale alla CARD9, che si comporta da molecola adattatrice. CARD9 attiva quindi i meccanismi di risposta immunitaria per proteggere il corpo dai microorganismi. Nel caso in cui la Dectin-1 o la CARD9 sono assenti o mutate, il sistema immunitario non sarà in grado di tenere l'infezione sotto controllo, e questo si tradurrà in un'aumentata incidenza di infezioni da Candida - in particolare le micosi vaginali causate dalla C. albicans. "Queste scoperte sono un primo passo verso la comprensione della suscettibilità genetica alle malattie micotiche comuni e disabilitanti, come ad esempio l'onicomicosi e le candidiasi vulvovaginali ricorrenti", ha detto il dottor Bart Ferwerda dell'Università Radboud, che è stato il primo ad individuare le mutazioni della Dectin-1 in una famiglia che soffriva di infezioni fungine mucocutanee. Il dottor Erik-Oliver Glocker del team di ricerca del University College London - che ha scoperto il legame tra la CARD9 e la Candida - ha detto che i risultati della ricerca potrebbero contribuire fortemente allo sviluppo dei trattamenti. "Questa scoperta permette ulteriori approfondimenti sull'interazione tra i funghi e il sistema immunitario umano, e potrebbe spianare la strada alle future possibilità terapeutiche nei pazienti affetti da infezioni da Candida", ha detto. In precedenza erano stati condotti esperimenti per determinare la risposta dei topi alle infezioni micotiche, producendo risultati analoghi; i risultati dello studio in questione mostrano che la capacità di protezione contro le infezioni micotiche è uguale negli esseri umani. Il professor Mihai Netea - il cui team presso l'Università Radboud ha scoperto il rapporto tra le infezioni micotiche e la Dectin-1 - ha detto: "Anche se il processo della risposta immunitaria dell'ospite alle infezioni era stato già studiato nei topi, è molto interessante vedere che accade la stessa cosa anche nell'uomo. I nuovi risultati mostrano che i meccanismi di protezione contro le infezioni micotiche si sono conservati durante l'evoluzione tra i topi e gli esseri umani, cosa non necessariamente valida per altri microbi". Dei consorzi di ricerca hanno fatto parte il National Center for Biotechnology Information (NCBI) negli Stati Uniti e il Politecnico di Monaco, in Germania.
Per maggiori informazioni, visitare: New England Journal of Medicine:
http://content.nejm.org/ Università Radboud di Nijmegen: http://www.ru.nl/english/ University College London: http://www.ucl.ac.uk/
ARTICOLI CORRELATI: 30197
Categoria: Risultati dei progettiFonte: New England Journal of Medicine (NEJM)Documenti di Riferimento: Ferwerda, B., et al. (2009) Human Dectin-1 deficiency and mucocutaneous fungal infections. New England Journal of Medicine. 361 (18): 1760. DOI 10.1056/NEJMoa0901053.Acronimi dei Programmi: MS-D C, MS-NL C, MS-UK C, FP6-MOBILITY, FP6-STRUCTURING, FRAMEWORK 6C-->Codici di Classificazione per Materia: Coordinamento, cooperazione; Scienze biologiche; Medicina, sanità; Ricerca scientifica
RCN: 31478

Verso la creazione di una piattaforma che consentirà di combattere in tempo reale le frodi telematiche.

Fonte: Cordis
------------------------
Alcuni ricercatori finanziati dall'Unione europea stanno lavorando alla creazione di una piattaforma dedicata allo sviluppo di servizi che, una volta terminata, consentirà di combattere in tempo reale le frodi che coinvolgono le carte di credito, la clonazione delle schede SIM dei telefoni cellulari e le chiamate telefoniche effettuate gratuitamente in modo fraudolento. A permettere a questa vera e propria rivoluzione di prendere forma, sarà un avanzamento tecnologico che incrementerà l'attuale velocità dell'elaborazione dei dati. La piattaforma rientra nel progetto STREAM ("Scalable autonomic streaming middleware for real-time processing of massive data flows") che è stato in parte finanziato dall'UE, con una somma pari a 2,6 milioni di euro, in riferimento alla tematica "Tecnologia dell'informazione e della comunicazione" del Settimo programma quadro (7° PQ). Obiettivo del progetto è la creazione di una tecnologia scalabile, in grado di elaborare in tempo reale ingenti flussi di dati. Le banche, le società di pagamento e le altre aziende che gestiscono i pagamenti con carte di credito dispongono di un'ampia gamma di sistemi e misure di sicurezza per prevenire l'utilizzo fraudolento delle carte di credito. Tali sistemi spaziano dal riconoscimento elettronico della firma a misure quali il blocco della carta di credito nel momento in cui ne viene notificato il furto. È frequente, tuttavia, che tra la notifica di furti e l'effettivo annullamento della carta trascorra del tempo. Questo ritardo è dovuto ai tempi tecnici delle applicazioni informatiche, che richiedono capacità di analisi ed elaborazione complesse. Spesso, coloro che utilizzano carte di credito rubate sono a conoscenze di questo lasso di tempo e cercano, pertanto, di usare le carte per effettuare acquisti nelle ore immediatamente successive al furto. La piattaforma sviluppata da STREAM sarà in grado di eliminare questo ritardo mediante l'implementazione di un sistema scalabile che ricorre ampiamente ai node cluster, o ai cosiddetti stand-alone server per l'elaborazione di ingenti throughput di dati di dimensioni nell'ordine di milioni di dati al secondo. Questo sensibile aumento rispetto alle attuali velocità di elaborazione consentirebbe l'elaborazione in tempo reale di flussi di informazione e permetterebbe operazioni autonome e che non richiedono supervisione. Questo cambiamento - dicono gli organizzatori del progetto - permetterà un impiego più ampio dei prodotti e dei servizi per l'elaborazione dei dati in campi nuovi, che hanno la necessità di gestire grandi flussi di informazione in modo economico. Esattamente come per i fornitori di carte di credito, anche le società di telecomunicazione devono bloccare il numero di telefono se l'apparecchio viene rubato. La clonazione delle schede SIM costituisce una questione di grande rilievo per i servizi di sicurezza e le forze di polizia poiché l'utilizzo di una stessa SIM da parte di più ricevitori rende inaffidabili i servizi LBS (location-based services, ovvero servizi che sfruttano la conoscenza della posizione geografica). Al momento, l'utilizzo di schede clonate e di telefoni rubati viene rilevato solo dopo l'avvenuto furto e il blocco è soggetto allo stesso ritardo che interessa le carte di credito. La piattaforma STREAM è associata alle iniziative intraprese nell'ambito del cloud computing, che prevede solitamente la fornitura di risorse scalabili e spesso virtualizzate via internet. STREAM è stato progettato per essere impiegato in un ambiente di cloud computing, caratterizzato da elasticità e scalabilità. Questa tecnologia può aumentare o ridurre in modo automatico il numero di nodi di rete, a seconda delle singole esigenze informatiche del momento. Questo tipo di organizzazione consente di tagliare i costi e di eliminare i punti più deboli. Tra gli altri ambiti di applicazione della piattaforma STREAM ci sono il traffico IP delle aziende, gli output delle sensor network di grandi dimensioni, i messaggi e-mail forniti da Internet provider e i market feed delle borse e dei mercati finanziari. Ricardo Jiménez Peris dell'Istituto di informatica del Politecnico di Madrid è il responsabile dello sviluppo del processore scalabile dei flussi di dati, ovvero di quella che è la peculiarità di STREAM. A questo scopo, la piattaforma mette in parallelo i query operator e mette a disposizione di ogni singolo fornitore un node cluster 100. Questo permette di centuplicare il throughput dei dati processabili. La capacità di elaborazione degli attuali nodi di rete singoli è inferiore di due ordini magnitudo rispetto a quella che sarà la capacità di STREAM. Gli altri partner della ricerca - oltre al Politecnico di Madrid - sono Telefónica, società di telecomunicazione spagnola, e Exodus, consociata della Piraeus Bank in Grecia. La prima società utilizzerà STREAM in un sistema antifrode per la telefonia mobile, mentre l'altro sfrutterà i risultati raggiunti dal progetto nel suo sistema antifrode per le carte di credito.
Per maggiori informazioni, visitare:
http://www.streamproject.eu/
ARTICOLI CORRELATI: 30493
Categoria: Risultati dei progettiFonte: Politecnico di MadridDocumenti di Riferimento: Sulla base di informazioni fornite dal Politecnico di MadridAcronimi dei Programmi: MS-E C, FP7, FP7-COOPERATION, FP7-ICT, FUTURE RESEARCH-->Codici di Classificazione per Materia: Automazione; Coordinamento, cooperazione; Aspetti economici; Applicazioni della tecnologia dell'informazione e della comunica; Tecnologie di rete
RCN: 31477

Un progetto tutto italiano per ideare e mettere a punto nuove tecnologie per l’esplorazione nello spazio.

Fonte: Galileo
-----------------------
Un progetto tutto italiano per ideare e mettere a punto nuove tecnologie per l’esplorazione nello spazio. Sarà sviluppato presso l’Università di Cagliari grazie ai finanziamenti dell’Asi.
Arrivare su Marte e trovare l'acqua e l'ossigeno necessari alla sopravvivenza, senza doverseli portare da casa. È un obiettivo ambizioso, ma non è l’unico che si propone il progetto Cosmic – Combustion Synthesis under Microgravity Conditions, che sarà sviluppato in Italia presso l’Università di Cagliari, dove oggi è stato presentato ufficialmente. Si tratta del primo progetto nel settore dell’esplorazione spaziale umana finanziato dall’Agenzia Spaziale Italiana, che ha stanziato 500mila euro per un anno. Per capire di cosa si tratta e quali sono gli obiettivi di questa iniziativa, Galileo ha intervistato Giacomo Cao, del Dipartimento di Ingegneria Chimica e Materiali dell’Università e coordinatore del progetto.

Professor Cao, in cosa consiste esattamente il progetto?
"L’obiettivo è sviluppare nuove tecnologie per l’esplorazione umana dello spazio che consentano di usare le risorse che si trovano sul posto per procurarsi tutto ciò che occorre. Per esempio, estrarre ossigeno dal suolo lunare od ottenerlo dall’atmosfera marziana. È un settore di applicazione che la Nasa definisce con gli acronimi Isfr - cioè In Situ Fabrication and Repair - e Isru, ovvero Insititute Resource Utilisation".

In che modo ci si può procurare ossigeno sul pianeta rosso?
"Un astronauta normalmente ha bisogno di circa 28 chili di acqua, 600 grammi di cibo, 800 grammi di ossigeno al giorno. L’ideale sarebbe trovare queste sostanze sul posto, o poterle produrre direttamente. Sappiamo, per esempio, che su Marte si trovano microalghe che possono essere utilizzate per la produzione di ossigeno, e la stessa presenza di anidride carbonica sul pianeta può essere una risorsa importantissima. Lavoreremo anche per sviluppare tecnologie per la manutenzione e la riparazione di mezzi e strumenti, e per la sterilizzazione dei campioni prelevati dai siti di esplorazione. Per poter ottenere tutto questo dovremo prima capire se, come e quanto i processi chimici e i relativi prodotti finali siano diversi in presenza o in assenza di gravità".

Come intendente procedere?
"Il primo passo ovviamente sarà capire se le tecnologie già a disposizione possono essere adatte alle nostre esigenze. Successivamente, partendo da ciò che sappiamo sull’atmosfera, sullo stato di gravità e sulla presenza di minerali su Luna e Marte, lavoreremo principalmente nei laboratori d’ingegneria di Cagliari per idearne e svilupparne di nuove. Queste saranno poi sperimentate sul suolo terrestre e in condizioni di scarsa gravità simulata. Nel 2011, se questi test avranno avuto successo, contiamo di ripetere le sperimentazioni sulla Stazione Spaziale Internazionale”.

E quando arriveranno i test su Luna e Marte?
“Per arrivare sulla Luna dovremo, nella migliore delle ipotesi, aspettare il 2020, che è la data prevista per la prossima missione della Nasa. Ma prima di compiere questo passo, è necessario che le sperimentazioni sulla Terra e sulla Stazione Spaziale abbiano ottenuto buoni risultati. A quel punto infatti anche i partner internazionali, come le agenzie statunitense, canadese e inglese, avranno un grande interesse alla messa a punto di queste nuove tecnologie, in grado di aumentare la durata delle missioni e di ridurre i relativi costi”.

Chi altro partecipa al progetto?
“Oltre all’Università di Cagliari sono coinvolti il Dipartimento Energia e Trasporti del Cnr, il Centro di Ricerca, Sviluppo e studi Superiori in Sardegna (CRS4), l’Istituto tecnico Industriale “Enrico Fermi” di Cosenza e, come partner privati, Corem, Esplora e Spaceland.
Un articolo di Caterina Visco

martedì 17 novembre 2009

L’Efsa ha abbassato la dose massima giornaliera consentita per i coloranti artificiali E124, E104 ed E112.

Fonte: Galileo
------------------------
L’autorità europea per la sicurezza alimentare (Efsa) ha abbassato la soglia dell’apporto massimo giornaliero (Adi) di tre coloranti alimentari artificiali: il giallo di chinolina (E104), rosso Ponceau 4 R (E124), e l’arancione Sunset Yellow (E112). Secondo l’ente, infatti, ciascuna delle tre sostanze potrebbe avere effetti dannosi su adulti e bambini in seguito a una esposizione prolungata.
L’Efsa ha rivalutato le Adi di questi additivi alimentari su richiesta della Commissione Europea. Uno studio dell’Università di Southampton, pubblicato sul Lancet nel 2007, ipotizzava infatti una correlazione tra l’iperattività infantile e l’assunzione della miscela di sei coloranti (oltre ai tre citati erano nella lista anche l’E102, l’E122 e l’E129) e del conservante benzoato di sodio, presenti in numerosi alimenti, soprattutto bevande, dessert e prodotti da forno. Alla luce delle nuove indagini da parte dell’Efsa, però, non sembrano esserci prove scientifiche che dimostrino l’associazione. I ricercatori hanno comunque trovato altre ragioni che richiedono l’abbassamento dei limiti almeno per E104, E124 ed E112. “Tenendo conto dei risultati di Southampton abbiamo rivalutato le soglie di accettabilità dei coloranti, ma non esistono dati che confermino il ruolo delle singole sostanze nell’insorgenza di disturbi del comportamento - ha dichiarato John Larsen, a capo dell’Efsa - e abbiamo diminuito l’Adi di tre di esse per motivi differenti da quello ipotizzato”.
I nuovi limiti sono stati determinati sulla base dei livelli di tossicità osservati negli animali da laboratorio in studi sugli effetti a lungo termine dei coloranti. In particolare, la dose massima di apporto per il colorante E104 è passata dal range 0-10 milligrammi per chilogrammo di peso corporeo al giorno (mg/kg bw/day) a un massimo di 0,5 perché la sostanza sembra compromettere la riproduzione e lo sviluppo della prole nei topi; l’E124 - la cui Adi è passata dal range 0-4 mg/kg bw/day a 0,7 - potrebbe essere invece connesso a disfunzioni renali di tipo non infiammatorio; l’adi di E112 è stata invece diminuita dal range 0-2,25 mg/kg bw/day a 1 (la soglia sarà mantenuta per un periodo di due anni a meno che nuovi studi non ne confermino la tossicità sull’apparato riproduttivo e sul fegato). (s.l.)
Fonte:
Efsa

Virus HIV: una migliore comprensione del percorso infettivo della proteina Gag.

Fonte: Cordis
-----------------------
Un gruppo di ricercatori tedeschi è riuscito a seguire il percorso di una proteina chiave nell'infezione intercellulare da HIV (virus dell'immunodeficienza umana acquisita) e il processo di formazione del virus in tempo reale. La ricerca, in parte finanziata dall'UE e ora pubblicata nella rivista a libero accesso Public Library of Science (PLoS) Pathogens, ha permesso una migliore comprensione del percorso infettivo della proteina Gag (antigene gruppo-specifico) da cellula a cellula, e potrebbe condurre a nuovi trattamenti per la malattia. Lo studio è stato in parte finanziato nel quadro del progetto HIV ACE ("Targeting assembly of infectious HIV particles"), sostenuto dall'UE attraverso il tema "Salute" del Settimo programma quadro (7° PQ). Per poter seguire la proteina, i ricercatori dell'Università Ludwig-Maximilians di Monaco di Baviera e dell'Università di Heidelberg hanno coltivato cellule contenenti otto geni HIV-1. Uno di questi geni è stato manipolato in modo da permettergli di produrre una forma fluorescente di proteina Gag. La proteina Gag fornisce gli elementi strutturali dell'HIV. Ad esempio, quando l'RNA HIV (materiale genetico) viene trasportato da una cellula infettata alla cellula suscettibile successiva, la membrana nella quale è avvolto l'RNA è formata da proteina Gag. La proteina Gag è estremamente versatile, poiché si può legare alla parete interna della membrana cellulare nonché all'RNA virale e alle proteine cellulari. La proteina Gag può anche formare particelle simili a virus in assenza di altre proteine virali. "L'uso di una versione 'fotoconvertibile' della famosa proteina fluorescente verde - la cui scoperta ed uso nei sistemi biologici sono stati premiati con il premio Nobel per la chimica nel 2008 - unita alla proteina Gag, ci ha permesso di mutare il colore delle proteine Gag attaccate alla membrana da verde a rosso", dice il professor Don Lamb, alla guida del gruppo di ricerca dell'Università Ludwig-Maximilians di Monaco. Con l'ausilio di tecniche microscopiche modificate ad hoc, i ricercatori sono riusciti dunque a determinare che, dall'inizio della formazione del virus fino al suo rilascio, passano circa 25 minuti per produrre un virus HIV. Hanno anche scoperto che la produzione di particelle virali avviene in modo del tutto asincrono nella coltura e, dopo la loro formazione, i virus sono rilasciati dai siti di formazione individuale e non da piattaforme di germinazione preformate. Si ritiene che anche per altri virus esistano simili piattaforme di formazione riutilizzabili. Nel documento si sottolinea che le nuove scoperte "aggiungono informazioni preziose al quadro del rilascio virale e costituiscono una base sperimentale per poter interferire con questo stadio della replicazione del virus." In definitiva, queste scoperte ci potrebbero aiutare a scoprire metodi di interruzione della diffusione virale intracellulare.
Per ulteriori informazioni, visitare: PLoS Pathogens:
http://www.plospathogens.org/ HIV ACE: http://www.hiv-ace.eu/ Ludwig-Maximilians-Universität München: http://www.lmu.de
ARTICOLI CORRELATI: 30870, 31290
Categoria: Risultati dei progettiFonte: PLoS Pathogens; Ludwig-Maximilians-Universität MünchenDocumenti di Riferimento: Ivanchenko S et al. (2009) Dynamics of HIV-1 assembly and release. PLoS Pathog 5(11): e1000652. doi:10.1371/journal.ppat.1000652Acronimi dei Programmi: MS-D C, FP7, FP7-COOPERATION, FP7-HEALTH, FUTURE RESEARCH-->Codici di Classificazione per Materia: Coordinamento, cooperazione; Scienze biologiche; Medicina, sanità; Ricerca scientifica
RCN: 31471

Sviluppata nuova tecnologia a fibre ottiche plastiche.

Fonte: Cordis
-----------------------
Le fibre ottiche plastiche (POF, plastic optical fibre) si stanno facendo strada in ambito tecnologico e il loro successo è - almeno in parte - imputabile al progetto POLYCOM ("Plastic optical fibres with embedded active polymers for data communications"), finanziato dall'Unione europea. POLYCOM, che ha ricevuto un finanziamento di 1,55 milioni di euro in riferimento all'area tematica "Tecnologie della società dell'informazione" del Sesto programma quadro (6° PQ) ha il merito di aver promosso l'uso delle fibre ottiche plastiche nel campo dell'optical computing, delle LAN ad altissima velocità (ultra-high-speed) e dei nuovi sensori. Le fibre ottiche plastiche impiegate nella trasmissione di dati sono note per essere la versione destinata ai "consumatori" delle fibre ottiche in vetro e sono utilizzate nei principali percorsi su lunga distanza delle reti globali di telecomunicazione. Le fibre plastiche flessibili, costituite da polimetilmetacrilato (PMMA), presentano un diametro del core di un millimetro (mm) e hanno caratteristiche uniche: oltre ad avere costi di produzione ridotti, sono di facile installazione e la trasmissione della luce è più sicura e più semplice da mantenere rispetto alle versioni a infrarossi. Per contro, il loro impiego è limitato alle distanze brevi e alla trasmissione di dati a velocità ridotta. "La gamma di applicazione delle fibre ottiche plastiche e della tecnologia ottica soggiacente è ampia. Il loro ulteriore sviluppo futuro potrebbe essere vantaggioso per una vasta serie di settori nei prossimi anni", ha spiegato Guglielmo Lanzani del Politecnico di Milano, coordinatore di POLYCOM. Il consorzio POLYCOM, composto da sei partner provenienti da Germania, Italia, Portogallo e Regno Unito, è riuscito a mettere a punto il primo commutatore ad alta velocità costituito esclusivamente da fibre ottiche per le reti a fibre ottiche plastiche. Questo rivoluzionario risultato sarà in linea con le esigenze nel campo della trasmissione ottica dei dati del settore della ricerca e delle aziende. I partner del progetto hanno testato questa tecnica utilizzando due fasci di luce provenienti da un unico fascio di laser pulsato all'interno di una speciale fibra ottica plastica. Le proprietà fisiche della fibra ottica plastica sono state alterate chimicamente, o potenziate, mediante polimeri fotoattivi, in modo tale da modificare la trasmissione dei fotoni. Secondo i ricercatori, un impulso potrebbe essere utilizzato per eliminare l'altro impulso: i due impulsi, infatti, si sovrappongono agli impulsi luminosi nello spazio e nel tempo. Il risultato finale è stata la possibilità di passare da una modalità attiva a una non attiva in modo tale da trasmettere un segnale dati. Inoltre, la cancellazione della luce è stata annullata nel giro di appena qualche centinaio di femtosecondi (un femtosecondo equivale a un miliardesimo di un milionesimo di secondo) proprio grazie al potenziamento delle proprietà specifiche delle fibre ottiche plastiche. "Non solo consentirà di aumentare la velocità della trasmissione dei dati nelle reti a fibre ottiche plastiche, ma potrebbero essere utilizzate per il time division multiplexing (TDM) in mondo da incrementare la larghezza della banda nelle reti ottiche rispetto a quanto attualmente possibile con le tecniche di wavelength division multiplexing (WDM)" ha spiegato il Professor Lanzi. I partner affermano che le fibre ottiche "dopate" utilizzate per la realizzazione del commutatore in fibre ottiche è un polifluorene chiamato F8BT. I ricercatori sono inoltre riusciti a sviluppare una serie di nuove fibre ottiche plastiche potenziate. "Nel complesso, abbiamo sviluppato e testato più di sei generazioni di materiali, impiegando diversi agenti chimici per potenziarli in modo tale da ottimizzare le loro proprietà ottiche e da raggiungere, in numerosi casi, una dispersione ottimale dell'agente dopante nel polimero", ha detto il coordinatore del progetto. "Ognuno dei materiali presenta caratteristiche diverse che potrebbe renderli adeguati per diverse applicazioni". La ricerca e il settore industriale stanno attualmente valutando l'uso delle fibre ottiche plastiche per la creazione di una nuova generazione di sensori.
Per maggiori informazioni, visitare: POLYCOM:
http://www.fisi.polimi.it/polycom/ Risultati TIC: http://cordis.europa.eu/ictresults/
ARTICOLI CORRELATI: 28967, 31331
Categoria: Risultati dei progettiFonte: Risultati TICDocumenti di Riferimento: Sulla base di informazioni fornite da Risultati TICAcronimi dei Programmi: FP6-INTEGRATING, FP6-IST, FRAMEWORK 6C-->Codici di Classificazione per Materia: Coordinamento, cooperazione; Applicazioni della tecnologia dell'informazione e della comunica; Elaborazione dati, Sistemi di informazione; Innovazione, trasferimento di tecnologie; Tecnologia dei materiali ; Tecnologie di rete ; Ricerca scientifica
RCN: 31472

sabato 14 novembre 2009

Il Club Bilderberg: Video documentario di Alex Jones.



























Il Gruppo Bilderberg (detto anche conferenza Bilderberg o club Bilderberg) è un incontro annuale per inviti, non ufficiale, di circa 130 partecipanti, la maggior parte dei quali sono personalità influenti in campo economico, politico e bancario. I partecipanti trattano una grande varietà di temi globali, economici, militari e politici.[1]
Il gruppo si riunisce annualmente in
hotel o resort di lusso in varie parti del mondo, normalmente in Europa, e una volta ogni quattro anni negli Stati Uniti o in Canada. Ha un ufficio a Leida nei Paesi Bassi.[2] L'incontro del 2009 ha avuto luogo dal 14 al 16 maggio ad Atene in Grecia[3].
Dato che le discussioni durante questa conferenza non sono mai registrate o riportate all'esterno, questi incontri sono stati oggetto di critiche ed anche oggetto di varie
teorie del complotto. Il gruppo Bilderberg è stato a lungo sospettato, da alcuni, di essere una società segreta[4] di tipo massonico.

Il gruppo Bilderberg nasce nel 1952, ma prende questo nome solo nel 1954, quando il 29 maggio un gran numero di politici e uomini d'affari si riunì a Oosterbeek, in Olanda all'Hotel Bilderberg: da cui il nome di questa organizzazione. Da allora le riunioni sono state ripetute una o due volte all'anno. Un elenco parziale dei suoi membri è: Sofia di Grecia, Bernard Kouchner, David Rockefeller, Bernardo d'Olanda, Etienne Davignon (ex commissario europeo), Carlo d'Inghilterra, Juan Carlos di Spagna, Beatrice d'Olanda, Henry Kissinger.
Molti partecipanti al gruppo Bilderberg sono capi di Stato, ministri del tesoro e altri politici dell'
Unione Europea (anche l'ex presidente del Consiglio italiano Romano Prodi avrebbe partecipato a qualche meeting), ma prevalentemente i membri sono esponenti di spicco dell'alta finanza europea e anglo-americana. Oggigiorno si distinguono i partecipanti in diverse categorie, ma principalmente in due: coloro che sono membri permanenti dell'organizzazione e coloro che possono essere invitati in via eccezionale come spettatori o relatori.[5] Tra i relatori ricorrenti ci sono alcuni giornalisti dell'Economist.[6] [7] [8] Il fatto contestato, grave per alcuni, è che non si sa cosa succede alle riunioni che restano riservate, nonostante vi partecipino esponenti che ricoprono cariche pubbliche di altissimo rilievo.[9]
Negli
anni Cinquanta l'organizzazione conta un centinaio di membri, con l'obiettivo dichiarato di unire l'Occidente per contrastare l'espansione sovietica[senza fonte]. A questo scopo riunisce alcuni dei personaggi più influenti nei vari campi della politica economica e della finanza internazionale.
Nel maggio 2000, il Gruppo Bilderberg è stato definito, durante una discussione al Parlamento Europeo quale "gruppo di riflessione politica di tendenze decisamente conservatrici".
[10]

Tra i promotori del gruppo, ci sono:
Bernhard van Lippe-Biesterfeld, presidente del Bilderberg fino a quando nel 1976 diede le dimissioni per lo scandalo di una tangente da 1,1 milioni di dollari dalla Lockheed Corporation per la vendita di aerei caccia all'aviazione olandese. Appartenente ad una nota famiglia ducale tedesca, è stato principe consorte dei Paesi Bassi, presidente del Worldwide Fund for Nature (WWF) dalla fondazione nel 1961 fino al 1971, ex affiliato al Partito Nazista (NSDAP) (tessera No. 2583009 del 1 maggio 1933) fino al suo matrimonio con la regina d'Olanda. Secondo le rivelazioni della rivista Newsweek del 5 aprile 1976, le attività di spionaggio di von Lippe a favore delle unità speciali delle SS (o Schutzstaffel) nella industria chimica IG Farbenindustrie (la stessa che fabbricò lo Zyklon-B, usato nelle camere a gas) sono documentate dalle testimonianze del Processo di Norimberga. Alla fine della guerra, in Olanda, si dice abbia partecipato alla resistenza e alla liberazione di Amsterdam. Nel dopoguerra assunse importanti posizioni nell'industria petrolifera, in particolare con la Royal Dutch Petroleum (Shell Oil) e nella Société Générale de Belgique.
Joseph Retinger, economista polacco, conosciuto come 'Sua Eminenza Grigia'.[senza fonte] Fu tra i fondatori e segretario generale fino al 1952 dell'United European Movement presieduto da Winston Churchill e finanziato dall'ACUE (American Committee for United Europe). La visione di Retinger era costruire un'Europa Unita per arrivare ad un Mondo unito in pace, guidato da Organizzazioni Sovranazionali che avrebbero garantito più stabilità ai singoli governi nazionali. Nonostante le frammentarie informazioni riguardanti le origini del Gruppo Bilderberg, sembrerebbe sia stato Retinger il principale promotore delle conferenze. Su suo suggerimento, von Lippe prese contatti con l'amministrazione Truman e, con maggiore successo, con quella Eisenhower, nelle persone del gen. Walter Bedell Smith (allora direttore della CIA) e C. D. Jackson. Il coinvolgimento nel progetto della famiglia Rockefeller, proprietaria della Standard Oil, concorrente della Royal Dutch Petroleum di von Lippe influenzò molto il carattere del gruppo Bilderberg. Da allora, le sue riunioni riflettono in gran parte gli interessi dell'industria petrolifera.

Alla prima riunione che ebbe luogo dal 29 al 31 maggio 1954 presso l'Hotel Bilderberg di Oosterbeek (in Olanda), presero parte circa un centinaio tra banchieri, politici, universitari, funzionari internazionali. Pare che figurassero tra queste personalità [11]: i Capi del governo belga e italiano Paul van Zeeland e Alcide De Gasperi, Denis Healey e Hugh Gaitskell del Partito Laburista inglese, Robert Boothby del Partito Conservatore.
Secondo i giornalisti che presenziarono alle riunioni del gruppo, dopo il
1976 alla presidenza subentrò David Rockefeller, membro fondatore della Commissione Trilaterale, membro della Commissione Bancaria Internazionale, presidente del Council on Foreign Relations, membro del Club di Roma e di numerose altre organizzazioni internazionali.
Altri membri di spicco dell'organizzazione sono o sono stati:
Giovanni Agnelli; Donald Rumsfeld; Peter Sutherland, irlandese, ex commissario di Unione Europea e presidente di Goldman Sachs e di British-Petroleum; Paul Wolfowitz ex presidente della Banca Mondiale; Roger Boothe. L'attuale presidente del gruppo è Etienne Davignon.
Tra i personaggi presenti alla riunione del
1999 venivano citati dal Corriere della Sera: Umberto Agnelli, Henry Kissinger, Mario Monti.
Due terzi dei membri dell'assemblea sarebbero americani. Al vertice di
Stresa del 2004 si contarono 33 delegati americani e 16 italiani (seconda rappresentanza più numerosa). I partecipanti sono tenuti a non parlare né di quanto detto nelle riunioni né della loro presenza. Come per la Trilaterale, è nota la lista di una parte dei membri, riconosciuti da giornalisti che sono venuti a conoscenza ed hanno seguito i vari vertici del Bilderberg.

La riservatezza degli incontri del Bilderberg è rimasta relativamente intatta fino a che nel Parlamento europeo, nelle ultime settimane del 2004, non è salito alla ribalta il caso Diamandouros. Nell'occasione della rielezione del greco Nikiforos Diamandouros nella carica di mediatore europeo, il cosiddetto ombudsman, fu contestata l'appartenenza di Diamandouros al Gruppo Bilderberg: «Questa potentissima lobby mira a conquistare posizioni nelle istituzioni dell'Unione Europea a vantaggio dei suoi membri ed è strutturata con il meccanismo della segretezza quale obbligo assoluto dei membri. Chi vuol essere mediatore Europeo non può vantare la partecipazione come membro di una lobby. Diamandouros ha persino partecipato ad una apposita conferenza Bilderberg come membro, mentre era Ombudsman greco» (intervento di Giuseppe Fortunato). [12]

Uno degli ultimi meeting è avvenuto dall'8 all'11 giugno 2006 a Kanata in Ontario (nei pressi di Ottawa) presso il Brookstreet Hotel, chiuso al pubblico per l'occasione. Un comunicato stampa ufficiale ha spiegato che i temi dell'incontro erano “le relazioni euro-americane, l'energia, la Russia, l'Iran, il Medio Oriente, l'Asia, il terrorismo e l'immigrazione”.
Tra i partecipanti
David Rockefeller, Henry Kissinger, la regina Beatrice d'Olanda, Richard Perle, i dirigenti della Federal Reserve Bank, di Credit Suisse e della Rothschild Europe (il vicepresidente Franco Bernabè), delle compagnie petrolifere Shell, BP e Eni (Paolo Scaroni), della Coca Cola, della Philips, della Unilever, di Time Warner, di AoL, della Tyssen-Krupp, di Fiat (il vicepresidente John Elkann) i direttori e corrispondenti del Times di Londra, del Wall Street Journal, del Financial Times, dell'International Herald Tribune, di Le Figarò, del Globe and Mail, del Die Zeit, rappresentanti della NATO, dell'ONU, della Banca Mondiale e della UE, economisti e molti ministri dei governi occidentali.
Le misure di sicurezza sono state imponenti, e tutta la zona era presidiata.
Alex Jones, impegnato a girare un documentario sul Gruppo Bilderberg, è stato identificato e arrestato dalla polizia appena sbarcato all'aeroporto di Ottawa, rilasciato solo dopo interrogatorio. James Tucker sostiene che al meeting ci sia stata una forte frattura fra la compagine americana favorevole alla guerra in Iran e la fazione europea che invece era contraria alla soluzione militare. Tra le altre cose si sarebbe stabilito il prezzo del greggio sui 70 dollari al barile.[13] Alla riunione del 2006 hanno partecipato, tra gli altri, gli italiani:
Franco Bernabè, Amministratore delegato di Telecom Italia
John Elkann, Vice presidente Fiat S.p.A.
Mario Monti, Presidente Università Commerciale Luigi Bocconi
Tommaso Padoa Schioppa, Ministro delle Finanze
Paolo Scaroni, CEO, Eni S.p.A.
Giulio Tremonti, Vice presidente della Camera dei Deputati

Tra il 31 maggio ed il 3 giugno 2007 il meeting si è tenuto a Istanbul (Turchia). A questo incontro hanno partecipato i seguenti membri italiani:
Franco Bernabè, Amministratore delegato di Telecom Italia
John Elkann, Vice presidente Fiat S.p.A.
Mario Monti, Presidente Università Commerciale Luigi Bocconi
Tommaso Padoa-Schioppa, Ministro delle Finanze
Giulio Tremonti, Vice Presidente della Camera dei Deputati

Fonte: http://it.wikipedia.org/wiki/Gruppo_Bilderberg