..to be continued

….gotye…ema…

….gotye…email

05/04/2012  grz TVB ore 19.00c

hei!! : )

..finalmente,,, è giunto  il momento: non aver timore.

cercami! ..ascolta la tua anima,
sentirai una musica mai sentita,
vedrai una realtà mai vista;
osservami,
ti faccio un dono immenso
ti regalo il mio silenzio.
un calore ti avvolgerà,
il mio ricordo ti riscalderà,
e in punta di piedi,
con entusiasmo, al tuo cuore arriverà..

2.70.22.012.1845poli

: ) …………………………………………wow

L

Il ricordo é tutto ciò che mi rimane…In questi mesi le nostre vite sono scorse parallelamente, in ambienti diversi, con amici diversi, in situazioni diverse… Qnt vorrei poter rivedere i tuoi occhi. La mancanza di un contatto diretto si sente.

History of newsm

venerdì 25 novembre 2011, 21.42.02 | newsmtesla

A G

martedì 25 ottobre 2011, 21.44.32 | newsmtesla

Ho sentito
che ti sei sistemata
ho sentito che hai realizzato i tuoi sogni
Cara amica
 ..non è da te esitare
o nascondersi dalla luce
detesto saltar fuori dal nulla quando non sono invitato
è più forte di me
Spero solo nel meglio
anche per te
niente regge il confronto
né preoccupazioni o rimpianti o errori
chi l’avrebbe detto..
che avrebbe avuto,
a distanza di cosi tanto tempo, 
un sapore così agrodolce
 

domenica 23 ottobre 2011, 21.28.37 | newsmtesla

 

ciao A..! 
 

domenica 23 ottobre 2011, 15.55.52 | newsmtesla

…strano e beffardo destino…

sabato 27 agosto 2011, 22.29.27 | newsmtesla

…ci si risente a Sept…

–sm–

Dna emette e trasmette segnali elettromagnetici di bassa frequenza

sabato 6 agosto 2011, 17.27.32 | newsmtesla

Il Dna è in grado di emettere e di trasmettere segnali elettromagnetici di bassa frequenza in soluzioni acquose altamente diluite, le quali mantengono poi «memoria» delle caratteristiche del Dna stesso. Frequenze che in passato, nel corso di un esperimento, furono trasformate in suoni. La voce del Dna. Insomma, il Dna «comunica» all’acqua che memorizza e divulga il messaggio.
La ricerca, dal punto di vista dei fisici, ha un ulteriore risvolto. Dice Giuseppe Vitiello: «E’ un passo ulteriore a dimostrazione che la moderna fisica quantistica può dare un contributo fondamentale alle ricerche mediche di frontiera». In parallelo all’acqua «messaggera» del Dna, le ricerche cominciate nel 1984 dal biochimico giapponese Masaru Emoto dopo aver incontrato il bio-chimico Lee H. Lorenzen, inventore della microcluster water (un’acqua energetizzata avente effetti terapeutici). Emoto ha messo a punto una tecnica di refrigerazione che gli consente di fotografare i cristalli di diversi tipi di acqua, come quelle degli acquedotti di diverse città del mondo, e quelle provenienti da sorgenti, laghi, paludi, ghiacciai. E di fotografare l’acqua esposta a vibrazioni diverse, come la musica o le parole (pronunciate o anche soltanto scritte sulle bottiglie che la contengono). Persino dei pensieri.
I risultati dei suoi esperimenti mostrano che i cristalli cambiano struttura a seconda dei messaggi. L’acqua trattata con parole «positive» forma cristalli bellissimi, simili a quelli della neve; l’acqua trattata con parole «negative» invece, reagisce, creando forme amorfe e prive di armonia geometrica. Le immagini dei cristalli sono talmente impressionanti che Masaru Emoto ha deciso di renderle disponibili a tutte le persone interessate, attraverso la pubblicazione di numerosi libri e attraverso conferenze che tiene in tutto il mondo.

 
Uno studio italo-francese che ne riporta alla mente un altro lontano nel tempo e molto contestato dalla comunità scientifica internazionale: quello della «memoria dell’acqua», pubblicato da Nature nel 1988 e poi cancellato perché non ripetibile. Il medico e immunologo Jacques Benveniste (1935-2004), noto a livello internazionale per i suoi studi sulle allergie e sul sangue, all’epoca direttore della ricerca medica all’Inserm (il Cnr francese), è l’autore di quell’esperimento. Benveniste fu poi accusato di truffa e di conflitti di interesse con le aziende di prodotti omeopatici. Seppur additato dalla scienza internazionale, non fu mai licenziato dall’Inserm, cosa che invece avvenne per la sua segretaria, e continuò i suoi studi fino alla sua morte. Questa nuova ricerca sembrerebbe aver trovato una chiave scientifica a quello che cercò di provare Benveniste. Che oggi, se fosse ancora vivo, sarebbe super felice nel leggere quanto scoperto dal team italo francese e pubblicato su una delle riviste di fisica più prestigiose, il Journal of Physic. Titolo del lavoro: Dna,waves and water, che ad effetto gioca tra le parole Dna, onde (elettromagnetiche) e acqua. Ma ancora più importante è il nome di chi ha guidato il team francese: il premio Nobel per la medicina Luc Montagnier insieme ai biologi Lavallè e Aissa. Il secondo gruppo di ricerca, l’italiano, era invece di fisici. Coordinato da Emilio Del Giudice, (Iib, International Institute for Biophotonics, di Neuss in Germania) con Giuseppe Vitiello (Fisico teorico del Dipartimento di matematica ed informatica dell’università di Salerno) e Alberto Tedeschi, ricercatore (White Hb di Milano).

E’ stato Montagnier a scoprire che alcune sequenze di Dna possono indurre segnali elettromagnetici di bassa frequenza in soluzioni acquose altamente diluite, le quali mantengono poi «memoria» delle caratteristiche del Dna stesso. Che cosa significa questo? «Innanzitutto — spiega il Nobel — che si potranno sviluppare sistemi diagnostici finora mai progettati, basati sulla proprietà “informativa” dell’acqua biologica presente nel corpo umano: malattie croniche come Alzheimer, Parkinson, Sclerosi multipla, Artrite reumatoide, e le malattie virali, come Hiv-Aids, influenza A ed epatite C, “informano” l’acqua del nostro corpo (acqua biologica) della loro presenza, emettendo particolari segnali elettromagnetici che possono essere poi “letti” e decifrati».

Nel regno animale, l’acqua rappresenta una quota compresa tra il 90-95% negli organismi inferiori e il 70-80% in quelli superiori, uomo in testa. E all’interno delle strutture biologiche, l’acqua si può trovare sia come una molecola sia in forma combinata. In realtà, l’acqua ha ancora molti «segreti», potendo per esempio agire come fattore di risonanza magnetica all’interno delle cellule e riuscire a modificare la sua concentrazione in funzione dell’invecchiamento. Si può dire che siamo fatti d’acqua: il corpo di un bambino è composto di liquidi per l’80%, quello di un adulto per il 60%. Solo negli anziani la percentuale scende un pochino (45%). E il cervello è l’organo che ne ha di più (85%): nelle cellule, tra le cellule, tutt’intorno. Galleggia. Così come nel grembo materno, il feto galleggia nel liquido amniotico. Scoprire quindi che la molecola d’acqua «registra» le onde a bassa frequenza del Dna, le «memorizza» e le trasmette in un certo senso «amplificandole» apre realmente importanti prospettive.

Non solo per la diagnosi, possibili sviluppi di tale scoperta potrebbero anche riguardare la cura. I segnali elettromagnetici presenti nell’acqua, infatti, sono riconducibili alla presenza o meno di una sua «memoria», intervenendo sulla quale si prospettano ampie possibilità di trasmissione dell’azione terapeutica dei principi attivi diluiti nell’acqua stessa. Con la prospettiva di cambiare di fatto la vita a molti pazienti, costretti all’assunzione di indispensabili farmaci salvavita che a volte recano però con sé il rischio di pesanti effetti collaterali. Concetti che scateneranno polemiche così come accadde oltre vent’anni fa per la teoria di Benveniste, all’epoca tacciato di truffa e isolato dalla comunità scientifica. Anche perché la medicina omeopatica e omotossicologica sfrutta da sempre i principi fisici per cui l’acqua può essere «informata» da sostanze in essa diluite. Dopo molti anni le ipotesi di Benveniste sembrano tornare inaspettatamente di attualità. E questa volta con il supporto scientifico della Fisica italiana, notoriamente al top mondiale.

La ricerca di Montagnier, Del Giudice e Vitello indica la strada per arrivare a una migliore comprensione dei meccanismi di funzionamento del paradigma omeopatico ed omotossicologico, ma soprattutto sembra creare la base per una futura generazione di rimedi farmaceutici senza effetti collaterali perché diluiti, che basano il proprio meccanismo d’azione sull’acqua «informata» dal segnale elettromagnetico prodotto da sostanze presenti in essa a bassissime concentrazioni. Acqua «informata» e poi «attivata» tramite peculiari tecnologie chimico-fisiche.

La ricerca, dal punto di vista dei fisici, ha anche un ulteriore risvolto. Dice Giuseppe Vitiello: «E’ un passo ulteriore a dimostrazione che la moderna fisica quantistica può dare un contributo fondamentale alle ricerche mediche di frontiera». In parallelo all’acqua «messaggera» del Dna, le ricerche cominciate nel 1984 dal biochimico giapponese Masaru Emoto dopo aver incontrato il bio-chimico Lee H. Lorenzen, inventore della microcluster water (un’acqua energetizzata avente effetti terapeutici). Emoto ha messo a punto una tecnica di refrigerazione che gli consente di fotografare i cristalli di diversi tipi di acqua, come quelle degli acquedotti di diverse città del mondo, e quelle provenienti da sorgenti, laghi, paludi, ghiacciai. E di fotografare l’acqua esposta a vibrazioni diverse, come la musica o le parole (pronunciate o anche soltanto scritte sulle bottiglie che la contengono). Persino dei pensieri.

I risultati dei suoi esperimenti mostrano che i cristalli cambiano struttura a seconda dei messaggi. L’acqua trattata con parole «positive» forma cristalli bellissimi, simili a quelli della neve; l’acqua trattata con parole «negative» invece, reagisce, creando forme amorfe e prive di armonia geometrica. Le immagini dei cristalli sono talmente impressionanti che Masaru Emoto ha deciso di renderle disponibili a tutte le persone interessate, attraverso la pubblicazione di numerosi libri e attraverso conferenze che tiene in tutto il mondo.

foonte: corriere.it scritto da Mario Pappagallo 

,,,,con i solitoni la luce diventa fluida

venerdì 22 luglio 2011, 22.18.43 | newsmtesla

Novità per pochi addetti? Ovvvio, ma le conseguenze di simili indagini potrebbero interessare il grande pubblico. Questo campo di ricerche, che è a cavallo tra la fisica della materia condensata e l’ottica quantistica potrebbe servire per utilizzare la luce come vettore di informazione. Nei computer tradizionali l’informazione viene elaborata e trasportata per via elettronica; nel nostro caso potrebbe funzionare per via ottica. Insomma: si potrebbero fare computer più veloci e più economici.

 
Ci sono mulinelli e «solitoni», ovvero onde «solitarie», nell’infinitamente piccolo: un team italo-francese ha osservato all’interno di un fluido di luce un fenomeno predetto sinora soltanto dalla teoria. «Per chiarire la situazione», spiega il fisico teorico Iacopo Carusotto, uno degli autori della scoperta, pubblicata su Science, «è bene sapere che normalmente la luce si propaga dalla sorgente al ricevitore in linea retta. In particolari condizioni, invece, la luce agisce come un fluido, cioè i fotoni che la compongono interagiscono tra di loro e rimbalzano uno sull’altro: assumono cioè un comportamento collettivo». Come l’acqua che incontra un masso, hanno scoperto gli scienziati, il fluido di fotoni quando incappa in un ostacolo lo aggira. Non solo: lo fa con modalità diverse a seconda della velocità. A bassa velocità, il fluido di luce aggira il masso e continua come se nulla fosse accaduto.

Ad alte velocità, forma invece mulinelli come quelli che si creano nella vasca da bagno e onde solitarie molto particolari: i solitoni idrodinamici. Ora gli scienziati puntano a «ricostruire la dinamica completa del fluido, con una risoluzione spaziale di milionesimi di metro, e temporale del picosecondo (milionesimo di milionesimo di secondo).

fonte: corriere.it – Elisabetta Curzel

 

domenica 17 luglio 2011, 12.20.42 | newsmtesla

..ascolta la mia anima,
sentirai una musica mai sentita,
vedrai una realtà mai vista;
osservami,
ti faccio un dono immenso
ti regalo il mio silenzio.
un calore ti avvolgerà,
il mio ricordo ti riscalderà,
e in punta di piedi,
con rimpianto, al tuo cuore arriverà..

realizzazione d 1 ”batteria perpetua”

lunedì 27 giugno 2011, 21.43.15 | newsmtesla

Caricare il portatile o lo smartphone semplicemente digitando sulla tastiera o sullo schermo touch screen potrebbe essere presto non solo un pio auspicio, ma una piacevole realtà. Lo affermano ricercatori australiani del Royal Melbourne Institute of Technology (Rmit), in uno studio pubblicato sulla prestigiosa rivista Advanced Functional Materials.

La loro idea è quella di sfruttare le proprietà dei materiali piezoelettrici; questi ultimi, percossi o sfregati, sono in grado di convertire l’energia meccanica in elettricità; vengono adoperati, ad esempio, negli accendini, dove un cristallo piezolettrico, colpito da un martelletto, genera una scintilla. In questo caso la sperimentazione si è spostata a livello macroscopico e gli studi si sono concentrati su sottili rivestimenti in pellicola, l’unica possibilità, secondo gli scienziati, di integrare questo tipo di materiali nella tecnologia elettronica esistente.

Oltre a consentire ai computer portatili di essere alimentati soltanto con la pressione dei tasti, si potrebbero ipotizzare altre applicazioni di questo tipo di tecnologia. “Sottili pellicole di questi materiali – spiega la dottoressa Madhu Bhaskaran, a capo del team di ricerca – potrebbero essere integrate nelle scarpe da ginnastica per ricaricare i cellulari, e perfino essere usate per convertire la pressione del sangue in una fonte di energia per i pace maker”.
Tutto dipenderà dai progressi fatti nei prossimi anni: quello degli scienziati australiani è infatti un primo esperimento, ma l’energia da loro ottenuta è ancora un decimo di quella che sarebbe necessaria per un’applicazione su scala industriale. “Il concetto dell’accumulo di energia usando materiali piezoelettrici è già stato dimostrato – sintetizza Bhaskaran – ma la realizzazione di queste strutture può essere complessa e si prestano poco alla produzione di massa. Se saremo in grado di amplificare l’energia ottenuta, compito per cui credo ci vorranno all’incirca tre anni, la commercializzazione dovrebbe essere poi piuttosto rapida”.
Negli scenari più prudenti la corrente ottenuta dalle pellicole piezolettriche potrebbe essere usata come fonte supplementare di energia, per allungare il ciclo di vita delle batterie esistenti; in quelli più rosei, il lavoro di Bhaskaran e soci potrebbe essere solo il primo passo per la creazione di una “batteria perpetua”, la cui carica non si esaurirebbe mai, se non per il logorio fisico dovuto alla percussione del materiale.

fonte: corriere.it

frrfonte: coo 

……

domenica 26 giugno 2011, 1.44.34 | newsmtesla

Mountain View, California, US 

……..Stanford University

domenica 15 maggio 2011, 11.55.57 | newsmtesla

katowice.. 2011

sabato 2 aprile 2011, 19.10.52 | newsmtesla

30:3:11:16:20:37 –>prox fermata??? tagliamento :)

venerdì 18 febbraio 2011, 21.49.49 | newsmtesla

 23:04:08:01:48:29

esiste una realtà oggettiva?

domenica 13 febbraio 2011, 12.20.18 | newsmtesla

… e se il mondo che abbiamo visto finora non fosse che una piccola parte della realtà, ….e se fosse soltanto quello che la nstr mente ci vuole far vedere. La mente è condizionata da quello che ci insegnano e seleziona fra tutti i segnali esterni quelli che meglio si adattano alla sua concezione di mondo.
e se in effetti la mente mentisse…???!!
 

La realtà è qualcosa di più complesso e profondo di quanto propongano la fisica classica e la teoria quantistica, così spesso in contrapposizione tra loro. Il misterioso legame (entanglement) tra particelle elementari che apparentemente comunicano a velocità superiore a quella della luce, il comportamento delle particelle, interpretabile ora con il modello corpuscolare ora con il modello ondulatorio, ma non contemporaneamente con entrambi, la violazione del principio di causalità, insomma tutte le apparenti incongruenze delle due teorie possono essere superate pensando ad un universo strettamente interconnesso.
 

Dalla sua nascita, il big bang, l’universo materiale è rimasto un unico, un’entità all’interno della quale nessun individuo è totalmente indipendente, ma tutti sono legati l’uno agli altri. Quindi il primo concetto è quello dell’interezza dell’universo. Per vedere questa interezza dobbiamo osservare più a fondo la realtà, fino a percepire un ordine implicito, cioè non evidente, non esplicito. Ed è questo il secondo concetto alla base della teoria, che viene esposta nel libro Wholeness and the Implicate Order, del 1980.

Fino alla fine del 19° secolo si pensava che l’universo fosse una macchina, come un orologio in cui ogni parte è indipendente ed interagisce spingendo e tirando rotelle e ingranaggi. Poi, nella prima parte del 20° secolo, è stato scoperto che gli elettroni, che si pensava fossero le parti più piccole della materia, avevano delle proprietà ondulatorie. La meccanica quantistica ha scoperto anche che le onde di luce possono agire come delle particelle. I fisici hanno trovato che un elettrone agisce come un’onda o come una particella a seconda di come viene fatto l’esperimento, in altre parole, dipende dall’ambiente circostante. L’elettrone assomiglia ad una persona che si comporta in modo diverso se sa di essere osservata. Insomma, alla scala dimensionale delle particelle elementari, il risultato della tua osservazione non può non dipendere dal contesto in cui esiste la particella, il quale contesto include anche l’osservazione. Quindi, lo ripeto, tutto ciò assomiglia a quello che succede alla gente che viene disturbata quando si sente osservata. Il modello meccanico che vede il mondo come parti separate non funziona a livello quantistico.

L’ idea è che un elettrone è una particella, ma è accompagnata da un nuovo tipo di campo, che potremmo chiamare olistico. Un campo è qualcosa che si espande in tutto lo spazio. Un buon esempio è un magnete. Se spargi una limatura di ferro su un foglio di carta sopra un magnete, si evidenzia un campo che diventa sempre più debole man mano che si estende nello spazio. Un altro esempio è un’onda d’acqua con un tappo che galleggia. Campi del genere sono noti da secoli e la proprietà comune a tutti è che il loro effetto diminuisce con la distanza. Questo fatto permette alla gente di pensare a cose a distanza come a parti separate, indipendenti ed a comprendere comunque che interagiscono attraverso i propri campi.
Il campo olistico, in cui sono immerse tutte le particelle, guida tutte le particelle ed in particolare il nostro elettrone.

Concludendo, per rispondere alla domanda, sì, esiste una realtà oggettiva, nella quale tutti siamo immersi e tutti siamo soggetti osservanti e oggetti osservati

da : David Bohm

Feyman

sabato 12 febbraio 2011, 21.55.19 | newsmtesla

Feyman è nato a New York l’undici maggio 1918. Fu il primo fisico in grado di produrre la prima unione efficace della relatività ristretta con la meccanica quantistica. Per la sua teoria, chiamata elettrodinamica quantistica, vinse il premio Nobel nel 1965 ed è ritenuto il padre delle nanotecnologie.

“Non credo che questo
meraviglioso universo, questa immensa
distesa di spazio e di tempo,  possa
semplicemente essere un palcoscenico sul
quale dio osserva gli esseri umani
compiere la loro lotta tra il bene e il male

 Il palcoscenico è troppo grande per la
rappresentazione”

onde elettromagnetiche emesse dal dna

sabato 15 gennaio 2011, 11.20.02 | newsmtesla

La Cinaingaggia Montagnier.
Gli studi che Montagnier porterà avanti in Cina, riguardano le presunte onde elettromagnetiche emesse dal Dna di alcuni virus patogeni diluiti nell’acqua. Lo scienziato vuole tracciare l’identikit di queste emissioni e generare onde in contro fase che possano annullare l’attività dei virus. L’idea è così bizzarra che nessuna rivista scientifica ha accettato di pubblicarla né lo scienziato ha trovato fondi. Almeno fino ad ora.
Le teorie che Science definisce pseudo-scienza verranno messe alla prova a Shanghai, dove Montagnier ha trovato “spirito di apertura, dinamismo e rapidità di decisione”.
L’apparecchio rilevatore dei segnali elettromagnetici del Dna sarebbe stato già inventato nel 2005. Fra l’autore del brevetto Bruno Robert e Montagnier è in corso una causa. La sentenza è attesa per il 20 maggio. L’esaminatore del brevetto che commentò:”l’invenzione è basata su fenomeni che contraddicono i principi di fisica e chimica”, non immaginava quante controversie quella strana idea avrebbe causato.

fonte:Science

martedì 14 dicembre 2010, 21.19.20 | newsmtesla

TMA-20
codice:magISStra

domenica 5 dicembre 2010, 21.57.48 | newsmtesla

mercoledì 17 novembre 2010, 1.20.24 | newsmtesla

19 07 > 19 11 
     … > …

domenica 31 ottobre 2010, 12.14.55 | newsmtesla

 

luna nuova

domenica 31 ottobre 2010, 12.10.11 | newsmtesla


guarda k lo so
gli okki k hai 
nn sono sinceri
sinceri mai
neanke qnd ti svegli

tanto è lo stesso
intuisco anke spesso
mi abiurerai
io ti conosco
e lo farai
anke senza rispetto

forse neanke tu lo sai
ma qnd vorrai
ad ogni novilunio con rimpianto mi rincontrerai

domenica 31 ottobre 2010, 12.09.14 | newsmtesla

Scienza, filosofia e religione cercano da secoli di rispondere ad 1 domanda, ma le diverse soluzioni proposte sono sempre state parziali e spesso in contrasto reciproco: in pratica mai nessuna spiegazione è risultata davvero valida ed esauriente.Al di là delle convinzioni personali e religiose, oggi la scienza ci informa con ragionevole certezza che il processo del pensiero è dovuto a fenomeni chimici e fisici che avvengono nel cervello e nel sistema nervoso a livello microscopico, ovvero a livello molecolare ed atomico. Il funzionamento della natura a livello atomico e sub-atomico è governato dalle leggi della cosiddetta “meccanica quantica”, una teoria fisica sviluppata agli inizi del secolo ventesimo, che risulta molto valida e precisa ma che presenta risvolti molto strani o perfino paradossali.

A livello sub-atomico la materia perde le familiari proprietà… “materiali” e si manifesta invece come un gioco di forze e di onde. Chi ha studiato un po’ di chimica sa che l’atomo è molto stabile e può essere considerato una pallina “solida”. Il modello fondato su particelle “dure” però fallisce quando si analizza la struttura interna dell’atomo: la “solidità” dell’atomo è creata in realtà da un gioco di forze che si crea al suo interno tra gli elettroni, i quali non si comportano come vere e proprie “particelle” o “corpuscoli” materiali ma si distribuiscono spazialmente in determinate “nuvole elettroniche” o “orbitali”. Tali orbitali in realtà sono delle “onde risonanti” che obbediscono alle leggi della meccanica quantistica, le quali presentano diversi aspetti paradossali.

Se la mente umana è veramente capace di agire a livello quantistico, essa può avere delle grandi potenzialità inespresse (nettamente superiori a quanto generalmente si ritiene). Che cosa si intende esattamente?

domenica 31 ottobre 2010, 12.08.44 | newsmtesla

Molte persone entreranno ed usciranno dalla tua vita,
ma soltanto i veri amici lasceranno impronte nella tua anima.

 

sabato 23 ottobre 2010, 23.34.49 | newsmtesla

(Reuters) – Virgin Galactic, an offshoot of billionaire Richard Branson’s London-based Virgin Group, plans to compete in the upcoming race to develop orbital space vehicles, Branson said on Friday.

NASA plans to issue a solicitation as early as Monday for a follow-up to its $50 million Commercial Crew Development program, (for developing commercial crew spaceflight concepts), as part of a broader revamping of the U.S. space program under President Barack Obama.

The program is funding work by five companies — Sierra Nevada Corp, Boeing Co, United Launch Alliance, Blue Origin and Paragon Space Development — as part of Obama’s bid to bolster support for private space companies.
“There’s about four companies that are seriously looking at it (the NASA commercial crew program),” Branson told Reuters.
He said Virgin Galactic was currently in discussions with two of the companies about teaming up with them and would decide over the next month whether to do so or go it alone.

One way or the other, Branson said, “We plan to be in orbital travel within the next few years.”

Virgin Galactic expects to begin suborbital space flights in late 2011 or 2012. Its first spaceship, named VSS Enterprise, is undergoing testing by designer and manufacturer Scaled Composites of Mojave, California.
The spaceship and its carrier aircraft, the White Knight Two, were in New Mexico on Friday for dedication of the runway at a commercial spaceport located north of Las Cruces that will become Virgin Galactic’s home base.
The event drew about 600 people to the southern New Mexico desert, including about 30 of the more than 380 customers who already have paid or put down deposits for the $200,000 suborbital space rides.

The U.S. human space program has been thrown into turmoil by President Obama’s decision, on advice from an outside advisory panel, to end NASA’s follow-on moon program called Constellation, and embark on a more flexible approach to deep space exploration.

That plan, unveiled in February, will make the government a customer, rather than provider, for crew transportation services to the International Space Station following next year’s grounding of the aging U.S. space shuttle fleet.

(Reporting by Irene Klotz; Editing by Tom Brown and Carol Bishopric)

In campo anche la Boeing ….svelati piani per una navicella

sabato 16 ottobre 2010, 15.27.03 | newsmtesla

Il colosso dell’aeronautica lavora a una capsula in grado di portare sette persone alla Iss o a una stazione orbitante costruita da un privato. Il progetto coinvolgela Space Adventure, che offre voli turistici oltre l’atmosfera terrestre.

 

Turisti spaziali con notevoli possibilità economiche potrebbero ben presto aderire alle proposte di voli oltre la Terrache arriveranno congiuntamente da una delle più importanti società aerospaziali al mondo, la Boeing, e dalla società che organizza voli turistici, la Space Adventure.

La Boeing infatti, ha svelato i piani per la costruzione di una navicella in grado di portare sette astronauti alla ISS (Stazione Spaziale Internazionale) o a una stazione orbitante costruita da un privato che dovrebbe essere assemblata nello spazio a partire dal 2015.”Questa opportunità offrirà alla Nasa un servizio di trasporto oltre l’atmosfera terrestre e sarà un ulteriore impulso all’umanità per migrare verso lo spazio”, ha detto Brewster Shaw, vice presidente della Boeing e direttore dell’esplorazione spaziale della società. “Uno dei nostri obiettivi che ormai non ha più segreti è quello di far sì che la Boeing offra a chiunque lo desideri la possibilità di andare e tornare dallo spazio”, ha aggiunto. In altre parole quel che oggi la Boeing sta facendo con il mondo aeronautico, dove offre i più grandi e avanzati aerei da trasporto, lo vuol fare anche in campo aerospaziale. La Space Adventure invece, è una società della Virginia (Usa) che, dal 2001, ha già negoziato otto viaggi verso la Stazione Spaziale Internazionale utilizzando navicelle russe Soyuz. Ma ora con il pensionamento dello Space Shuttle che avverrà nel 2011, i posti a sedere sulle navicelle russe, che sono rimaste le uniche a poter trasportare uomini nello spazio, sono tutti assegnati agli astronauti delle varie nazioni che devono raggiungere la stazione orbitante e al momento non ci sono voli previsti con soli turisti. “Con la nuova capsula spaziale della Boieng, non solo si potrà continuare il mercato turistico, ma lo si potrà aumentare notevolmente. Ad oggi infatti, le richieste esistono, ma purtroppo non c’è modo di portare uomini oltre la Terra”, ha detto Eric Anderson, co-fondatore della Space Adventure.
Al momento tuttavia, le due società non hanno fatto sapere quale potrà essere il prezzo per otto giorni sulla ISS, anche se hanno lasciato intendere che sarà competitivo con quello chiesto dai russi per un posto sulla Soyuz, che per gli ultimi voli era salito a 40 milioni di dollari per 11 giorni di volo.
La navicella della Boeing, chiamata CST-100, è stata sviluppata grazie ai finanziamenti che il governo americano ha concesso alla Nasa proprio perché società private si facessero promotrici di veicoli spaziali che potessero sostituire lo Shuttle.
Ma ora è necessario capire se dalla Nasa arriveranno altre sovvenzioni. “Senza di esse potremmo non riuscire a realizzare i test di volo della navicella entro il 2014 e diverrà difficile renderla operativa entro il 2015″, ha spiegato Johm Elbon, vice presidente del programma in atto della Boieng.
Ma ciò comprometterebbe un’altra avventura: quella di trasportare uomini a una stazione orbitale che la società Bigelow di Las Vegas ha intenzione di costruire nello spazio a partire dalla seconda merà del decennio. La Bigelow ha già lanciato due modelli in scala di moduli “gonfiabili” che saranno utilizzati per la costruzione dalla stazione e lassù nello spazio funzionano perfettamente. “Un lancio verso la mia stazione spaziale costerà attorno ai 25 milioni di euro”, ha detto Robert Bigelow, proprietario della omonima società. E potrebbero essere utilizzati vari razzi, dall’Atlas 5 al Delta 4 fino al nuovo Falcon 9 in fase di progettazione da parte di un’altra società privata, la SpaceX.

Va poi ricordato che anche la Lockheed Martin sta mettendo a punto un’altra navicella per conto della Nasa, la Orion. Si tratta di quella che in un primo momento era stata ideata per portare uomini sulla ISS e sulla Luna, ma che i tagli di Obama hanno ridimensionato a navicella che potrebbe essere utilizzata comunque per voli umani oltre l’atmosfera terrestre, ma non per il mondo lunare. Tra l’altro è proprio di questi giorni la proposta della società di utilizzare due navicelle Orion in coppia per inviare due uomini su un asteroide nel 2019. Un’avventura che potrebbe durare circa sei mesi. La Nasa tuttavia non sembra voler cogliere al volo questa possibilità e ipotizza, sempre con questa navicella, la conquista di un asteroide per il 2031 al cui seguito però vi sarà anche un mini-escavatore.

C’è quindi molto fermento nel settore. Lo scopo è quello di portare uomini nello spazio con sempre maggiore frequenza. E l’unico vero ostacolo sono i finanziamenti.

Fonte: repubblica.it
autore:Bignami
17Sept2010
 

effetto Casimir

sabato 16 ottobre 2010, 15.26.24 | newsmtesla

L’affermazione secondo cui il vuoto non è “vuoto” potrebbe suonare come un semplice bisticcio di parole, ma da un punto di vista scientifico la frase assume una notevole importanza a causa delle implicazioni fisiche e cosmologiche associate; stiamo parlando dell’Energia del vuoto, quell’energia che possiamo spiegare ricorrendo soltanto alle leggi della meccanica quantistica. Ma andiamo con ordine…

Nel 1948 il fisico olandese Hendrik Casimir teorizzò l’effetto che porterà il suo nome, l’effetto Casimir, appunto. Se si pongono due piastre metalliche piane e parallele distanti pochi micron l’una dall’altra in condizioni di vuoto e in assenza di campi magnetici, si riscontra una forza che tende ad avvicinarle. Di cosa si tratta? Di un effetto della meccanica quantistica che a certe condizioni mostra fenomeni macroscopici. L’effetto Casimir in particolare è generato dalla “spinta” delle particelle virtuali, particelle che “esistono” per un tempo brevissimo prima di annichilirsi e scomparire. Queste particelle virtuali “urtano” le piastre determinando la nascita di due forze opposte: nelle pareti esterne la forza è maggiore, mentre nelle pareti interne, distanti tra loro pochi micron, la forza sviluppata è minore. Ma perché quest’ultima forza è minore e non uguale? Una particella si comporta come un’onda, così come un’onda elettromagnetica si comporta come una particella: è uno dei fondamenti della meccanica quantistica, il dualismo onda particella. Nello spazio di pochi micron infatti potranno esistere solo particelle più piccole rispetto a quelle delle pareti esterne, ossia a lunghezze d’onda minori della distanza tra le due piastre. La forza sprigionata (e quindi l’energia) di queste ultime particelle è inferiore a quella sviluppata nelle altre pareti: per questo motivo le lastre tendono ad avvicinarsi l’un l’altra, perché la dimensione delle particelle virtuali esterne, e l’energia sviluppata, risulta maggiore.
Cosa comporta dunque l’effetto Casimir? Determina la conseguenza che il vuoto non è del tutto “vuoto” ma è perturbato da fluttuazioni quantistiche, cioè dalla continua creazione e annichilazione di particelle e antiparticelle. In poche parole anche nel vuoto c’è una certa quantità di energia che si ripercuote su scala macroscopica anche nelle leggi che regolano l’Universo.
 

 

L’effetto Casimir e le forze sviluppate a causa delle fluttuazioni quantistiche del vuoto
 
Che l’Universo sia in espansione è cosa nota sin dal 1929, da quando cioè l’astronomo Edwin Hubble scoprì che le galassie si allontanano con una velocità maggiore all’aumentare della distanza: l’Universo pertanto non è stazionario (come qualcuno sosteneva). Questa importante scoperta contribuì poi al successo della teoria del Big Bang, tuttora valida e dimostrata. Ma nel 1988 osservando la velocità di allontanamento di più di 40 supernove, un gruppo di scienziati poté provare che l’Universo si espande addirittura in modo accelerato! Al che sorse subito un dubbio: possibile che un Universo vecchio 14 miliardi di anni manifesti ancora un’espansione accelerata? Non sarebbe più logico supporre un universo che abbia esaurito la sua forza espansiva iniziale e che adesso tenda a rallentare il suo moto d’espansione? L’accelerazione probabilmente non è più assimilabile all’effetto del “grande botto”, ma causata da una forza oscura che lo costringe a espandersi: come se esistesse un’energia in grado di vincere la gravità, una sorta di antigravità! Questa forza è chiamata comunemente Energia oscura, un’energia che esiste probabilmente tra gli spazi “vuoti” delle galassie, e di cui tutt’oggi non si sa nulla. Ciò che rende imbarazzante la posizione della scienza su questo aspetto, è che per risolvere il problema della “massa mancante” dell’Universo (tale da spiegare appunto l’espansione accelerata), si deve ipotizzare una quantità di energia oscura nell’ordine del 70%! Significa che oggi (a parte le prove indirette dell’esistenza di un 20% di materia oscura) conosciamo soltanto il 10% della massa totale dell’Universo: quella stessa massa di cui siamo fatti tutti noi, le stelle e i pianeti. E tutta la restante massa da cosa sarebbe formata? E’ il grande mistero che perseguono gli scienziati, e di cui non pare esistere una soluzione se non affidandoci a speculazioni teoriche come la Teoria delle Stringhe: ma questa è una storia che andrebbe raccontata a parte…
 

 

Rappresentazione dell’espansione dell’Universo. Dopo il Big Bang l’Universo ha avuto un’espansione lineare, nel tempo attuale invece l’espansione è accelerata a causa dell’effetto dell’energia oscura
 
Nelle particelle virtuali dunque potrebbe risiedere la spiegazione dell’energia oscura; un’energia che nasce nel vuoto tra le galassie, in quegli immensi spazi bui privi di stelle e di materia.
Dall’effetto Casimir all’Universo, esiste probabilmente una connessione sottile in grado di risolvere il problema della fisica attuale: le leggi della nostra scienza sono esatte oppure no? La teoria della relatività, assieme alle altre teorie sull’universo appaiono spesso in affanno, concedendoci l’unica certezza che abbiamo: ad oggi possiamo spiegare solo una parte minima della nostra realtà. Il resto è un vuoto non del tutto “vuoto”.

fonte:http://www.elapsus.it/home1/index.php/scienza/astronomia/110-se-il-vuoto-non-e-vuoto-ovvero-lenergia-dal-nulla-e-lespansione-delluniverso

Fusoliere trasparenti

sabato 16 ottobre 2010, 15.26.03 | newsmtesla

Aerei futuristici e tecnologie all’avanguardia.

Fusoliere trasparenti, sedili autopulenti, sensori anti-turbolenze: ecco come voleremo fra quarant’anni. Quando gli ingegneri aeronautici danno libero sfogo alla fantasia nascono concetti che sembrano usciti da film di fantascienza. Tuttavia, la maggior parte delle tecnologie necessarie esistono già oggi.

Gli ingegneri di Airbus, il colosso internazionale guidato da tedeschi, britannici e francesi, sta lavorando all’aereo del futuro. Si chiama Concept Plane, una vera e propria rivoluzione concettuale, che diverrà concreta nel 2050. A dodicimila metri d’altezza i passeggeri vivranno un’esperienza unica. A cominciare dalle loro sensazioni: come per magia l’aereo si dissolverà in aria. Dapprima scomparirà il tetto della cabina, poi sparirà pure il terreno sotto i piedi. Da un momento all’altro gli occupanti avranno la sensazione di perdere ogni tipo di sostegno. Ma i 300 uomini e donne a bordo non stanno cadendo dal cielo. Durante il volo, alzando la testa, vedranno il mare di stelle della Via Lattea. Guardando in basso osserveranno le metropoli illuminate.
Finora un simile aereo è ancora una visione della tecnologia. I progetti prevedono però che il gigantesco bireattore aerodinamico potrebbe diventare trasparente dall’interno grazie ad impulsi elettronici che eliminano la visibilità della sua fusoliera, interamente costruita in futuristiche ceramiche iper-resistenti. «In un apparecchio così l’esperienza di volo dei passeggeri diverrà del tutto nuova», dice a Spiegel Online Axel Krein, 49 anni, numero uno della ricerca scientifica presso il costruttore europeo di aeromobili Airbus. Questa idea, che a prima vista può risuonare alquanto folle, è invece il risultato delle menti di uno speciale gruppo di lavoro creato da Krein per forgiare i piani per l’aereo del futuro.
«Abbiamo detto ai nostri ingegneri di dare libero sfogo a tutta la loro immaginazione. Il risultato sono visioni molto realistiche su come potremmo volare nel 2050. E la maggior parte delle tecnologie necessarie già esistono», ha aggiunto Krein. Ad oggi alcune di queste idee per il Concept Plan appaiono come un’utopia, concepite magari da uno dei discendenti di Jules Verne. I tecnici di Airbus stanno anche pensando ad una fusoliera capace di autoripararsi: degli speciali sensori cosparsi sulla superficie della fusoliera e nella struttura individueranno ogni minima fessura o punto logorato, che verranno poi riparati con dei microspruzzi di nanocollante high-tech. «Possiamo dire che l’aereo si trasforma quasi in un organismo vivente».
Obsoleto diverrà secondo le idee di Airbus anche il personale addetto alle pulizie delle cabine. Materiali dalla nanotecnologia consentiranno infatti una pulizia automatica di sedili e cabina dopo ogni volo. Che oltretutto sarebbe molto più igienico, economico ed ecologico rispetto all’attuale impiego di materiali spray inquinanti. «Ogni passeggero -, dice Krein -, avrà la sensazione di sedersi ogni volta in un apparecchio nuovo, un apparecchio che sta partendo per il suo volo inaugurale». A garantire un maggiore confort per i passeggeri in volo ci penserebbero poi dei sensori anti-turbolenza, una serie di rilevatori che percepiscono in anticipo le turbolenze e i vuoti d’aria e consentono dunque all’Airbus del futuro di evitarle, oppure di adattare il suo volo.
Uno degli problemi più importanti da risolvere rimane infine quello annoso di ridurre il consumo di carburante e il rumore: i propulsori dovrebbero sparire dalla superficie portante e fondere direttamente con la fusoliera, il jet avrà insomma ali e fusoliera in un tutto unico. Un contributo per risparimnare energia lo daranno anche i passeggeri stessi: il velivolo capterà il calore umano per immagazzinarlo e riciclarlo. Per riutilizzare il calore emesso dal corpo gli ingnegneri si rifanno ad un modello oramai secolare: da centinaia d’anni il calore di scarico delle stalle viene utilizzato per riscaldare gli edifici agricoli.
 Oltre ad Airbus anche altri produttori di aerei commerciali stanno progettando i velivoli di prossima generazione: l’aereo supersonico QSST, la sigla sta per Quiet SuperSonic Travel, è un progetto della Lockheed Martin che si preannuncia pronto per il 2013. La Finnair invece presenta due modelli per il futuro dei cieli: un quadrimotore lungo 81 metri in grado di atterrare e decollare verticalmente e un aereo supersonico ad emissioni zero, costruito con una speciale nanoceramica.

FONTE: corriere.it
 

 

…work in progress…

domenica 1 agosto 2010, 23.10.45 | newsmtesla

…la Boeing, la più importante azienda produttrice di aerei del mondo, ha ammesso che sta lavorando ad un progetto di un aereo antigravità….

…l’obiettivo del progetto è di esplorare la propulsione senza propellente (la parola usata dall’industria aerospaziale al posto di antigravità). Con questo sistema non ci saranno limiti per le sue applicazioni che includeranno il lancio di astronavi, gravità artificiale sulle aeronavi ed elettricità senza propellente, chiamata anche “energia libera”…
 

”…doc…”

venerdì 30 luglio 2010, 23.05.14 | newsmtesla

”19 anzi no 11”
in o out
dentro o fuori
yin o yang
bianco o nero
certo è, cmq andrà la giornata, sarà, in prospettiva, ricordata come un punto di svolta.
……date le premesse, .,….sarà una giornata indimenticabile.
Mi immagino già davanti ad un plotone d esecuzione… ki x un motivo e ki x un altro, avrò quasi tutti ‘educatamente’ contro. 
In ogni caso, sarà una giornata k resterà impressa nel mio cuore per sempre… 
Qlcuno scrisse “….ai posteri l ardua sentenza…”
Ki vivrà, vedra - dico io…  ;)

giovedì 1 luglio 2010, 1.57.05 | newsmtesla

Un grande guerriero giapponese decise d attaccare il nemico sebbene il suo esercito fosse numericamente soltanto un decimo di quello avversario. Lui sapeva k avrebbe vinto, ma i suoi soldati erano dubbiosi. Durante la marcia si fermò a un tempio e disse ai suoi uomini: ” Dopo aver visitato il tempio butterò una moneta. Se viene testa perderemo, se viene croce vinceremo. Siamo nelle mani del destino ”.
Il grande guerriero entrò nel tempio e pregò in silenzio. Usci e gettò una moneta. Venne croce. I suoi soldati erano così impazienti d battersi k vinsero la battaglia senza difficoltà.
” Nessuno può cambiare il destino ” disse al grande guerriero il suo aiutante dopo la battaglia. ” No davvero ” disse il grande guerriero, mostrandogli una moneta k aveva croce su tutte e due le facce.

Torna a Surriento

martedì 15 giugno 2010, 0.21.51 | newsmtesla

mercoledì 19 maggio 2010, 22.04.03 | newsmtesla

Per aspera ad veritatem

coincidenze????? intuizioni? suggestioni,,,?? destino???…. o altro??????

giovedì 13 maggio 2010, 19.26.38 | newsmtesla

Le coincidenze sono casuali?; sono il frutto di volontà espresse o di movimenti in atto, di desideri che si manifestano con grande forza. Esse si manifestano, però, in modo meno chiaro e immediatamente visibile e percepibile, perché non appartengono alla sfera dei nostri comportamenti quotidiani e delle nostre esperienze più frequenti e familiari. Anche quando ci rendiamo conto che una coincidenza sopraggiunta è troppo strana e inspiegabile per essere soltanto una coincidenza ci limitiamo ad un sorriso abbozzato non si sa verso chi e per che cosa..
.. a proposito, mi auguro di aver avuto una errata e falsata “intuizione” su di una persona…. davvero!

In termini quantistici, la coincidenza penso possa essere definita con il termine entanglement, traducibile ad esempio come “intrecciamento”. Esso descrive la possibilità di due sistemi di avere e mantenere strane relazioni a distanza, lo stesso Einstein la definì come “azione fantasma a distanza”.
……..’casualmente’ entra in contatto con alcune persone che gli danno una nuova visione sulla realtà. Senza rendersi troppo conto di cosa si tratta si trova coinvolto. Verrà accompagnato in questo viaggio da una guida, anzi sarà la guida a trovare lui. Comprenderà il significato della realtà, significato che non può essere spiegato perché va vissuto per poter essere compreso [..]
Conoscere la nostra ‘missione’ personale aumenta il numero di coincidenze che ci guidano verso il nostro destino. All’inizio dobbiamo rispondere ad una domanda poi delle intuizioni e/o coincidenze ci porteranno le Risposte..

venerdì 30 aprile 2010, 22.53.34 | newsmtesla

 

 
fonte:adnkronos
 

mercoledì 21 aprile 2010, 1.58.55 | newsmtesla

miser luna nova. desinas ineptire.
et quod uides perisse perditum ducas.
fulsere quondam candidi tibi soles.
cum uentitabas quo puella ducebat
amata nobis quantum amabitur nulla.
ibi illa multa cum iocosa fiebant
quae tu uolebas nec puella nolebat
fulsere uere candidi tibi soles.
nunc iam illa non uult. tu quoque impotens noli
nec quae fugit sectare. nec miser uiue.
sed obstinata mente perfer. obdura.
uale puella…???!!

maserati gran cabrio

giovedì 15 aprile 2010, 23.38.15 | newsmtesla

 

venerdì 2 aprile 2010, 1.14.25 | newsmtesla

 

venerdì 19 marzo 2010, 14.07.25 | newsmtesla

Acqua alla temperatura di50 °C… sempre  

PISA – A una profondità di seicento metri a est della città, c’è un grande giacimento geotermico di acqua a cinquanta gradi di temperatura. È stato individuato dopo una ricerca di Cnr ed Enel e adesso è al centro di un progetto unico nel suo genere in Italia. Sarà impiegato per riscaldare il grande ospedale di Cisanello, una delle strutture sanitarie più prestigiose d’Italia che entro l’anno raddoppierà la sua volumetria, e per dare energia ad alcune strutture universitarie che sorgeranno vicino all’ospedale. E per la prima volta saranno utilizzate nuove tecnologie che consentiranno di sfruttare il bacino senza alterarne la struttura e dunque provocare danni alla falda e allo stesso modo produrre energia pulita a emissioni zero.
 

fonte:corriere.it

domenica 28 febbraio 2010, 22.38.04 | newsmtesla

geotermia a bassa entalpia…

giovedì 4 febbraio 2010, 23.03.09 | newsmtesla

 

martedì 2 febbraio 2010, 23.16.02 | newsmtesla

Più che scienza, sembra fantascienza l’idea di uno spray che, spruzzato su qualunque superficie, la protegga da sporco, usura del tempo e persino dai graffiti e che, stando agli studi di laboratorio, sarebbe pure in grado di tenere fresco il vino. Eppure è questo che promette la rivoluzionaria invenzione turca acquistata dalla tedesca Nanopool, azienda che lavora nel campo delle nanotecnologie, e che altro non è – in realtà – che vetro liquido, ovvero diossido di silicio, mescolato ad acqua o alcol a seconda dell’uso che se ne vuole fare.
Gli utilizzi sembrano essere davvero molteplici: il prodotto – già in vendita in Germania a 9 euro e in arrivo negli store inglesi in primavera – igienizza, infatti, all’istante, creando una pellicola protettiva centinaia di volte più sottile di un capello umano ma molto più resistente, che non distrugge i microbi ma ne impedisce la proliferazione, tanto che ne basta una spruzzata per tenere lontano sporco e batteri per quasi un anno. Ma il «vetro liquido» pare fantastico anche contro acqua e calore, contro abrasioni e corrosioni ed è persino in grado di resistere agli acidi, all’olio e ai raggi ultravioletti, permettendo, però, alle superfici di «traspirare» visto che è pure ecologico, a differenza di candeggina e altri prodotti chimici.

fonte: corriere.it

noetica

domenica 31 gennaio 2010, 13.32.46 | newsmtesla

La scienza noetica rappresenta una totale inversione di tendenza rispetto alla prospettiva scientifica di stampo positivista. Affermare che l’intelletto influenza direttamente la materia sposta l’asse degli studi scientifici dalla realtà osservata al soggetto osservante.

work in progress…

martedì 26 gennaio 2010, 0.43.56 | newsmtesla

..’casualmente’ entra in contatto con alcune persone che gli danno una nuova visione sulla realtà. Senza rendersi troppo conto di cosa si tratta si trova coinvolto. Verrà accompagnato in questo viaggio da una guida, anzi sarà la guida a trovare lui. Comprenderà il significato della realtà, significato che non può essere spiegato perché va vissuto per poter essere compreso [..]
Conoscere la nostra ‘missione’ personale aumenta il numero di coincidenze che ci guidano verso il nostro destino. All’inizio dobbiamo rispondere ad una domanda poi delle intuizioni e/o coincidenze ci porteranno le Risposte..

E2 = c2p2 + m2c4

domenica 17 gennaio 2010, 20.14.52 | newsmtesla

La formula E = mc2 venne pubblicata per la prima volta da Oliver Heaviside nel 1890 e successivamente perfezionata da Henri Poincaré (1900) e da Olinto De Pretto (1903), divenendo poi famosa con la relatività di Einstein (1905), il quale la integrò con il momento (la velocità) nell’equazione energia/momento/massa: E2 = c2p2 + m2c4.

Quando il momento è pari a zero (in quanto l’oggetto di cui misuriamo l’energia totale si muove alla nostra stessa velocità) l’equazione energia/momento/massa si semplifica nella  famosa equazione: E = mc2 che ha sempre soluzione positiva (+E).

Tuttavia, Dirac scoprì, con la sua famosa equazione, che non è possibile azzerare il momento, in quanto si deve sempre tenere conto dell’energia associata allo spin delle particelle e che, per questo motivo, la formula dell’energia dipende sempre dalla equazione energia/momento/massa che porta alla duplice soluzione: +E e -E.
Tale equazione presenta due soluzioni: una positiva (+E) che descrive energia che si muove dal passato verso il futuro e una negativa (-E) che descrive energia che si muove dal futuro verso il passato. 

wi-fi in energia elettrica – WI-TRICITY

lunedì 11 gennaio 2010, 22.32.29 | newsmtesla

Un nuovo sistema cattura i segnali wi-fi dispersi nell’aria e li trasforma in energia utile per i dispositivi elettronici

Nell’attesa che arrivi il caricatore universale per i cellulari, prende sempre più piede l’elettricità senza fili come alternativa più comoda per alimentare i nostri gadget elettronici. All’ultimo Consumers Electronic Show (CES) di Las Vegas è stato presentato un nuovo dispositivo che consente di ricaricare cellulari e lettori mp3 in modalità wireless, senza muovere un dito. Si chiama Airnergy ed è un sistema messo a punto dalla compagnia statunitense RCA (la stessa che 61 anni fa ha ideato il 33 giri). Si presenta come un piccolo dispositivo in grado di catturare i segnali wi-fi trasmessi dai vari access point presenti in casa o in ufficio. I segnali vengono convertiti in energia utile per ricaricare (sempre in modalità senza fili) cellulari e lettori mp3 dotati di una speciale batteria. Una sorta di riciclo di energia, quindi, che potrebbe essere esteso anche alle altre fonti elettromagnetiche presenti tra le mura domestiche. Per ora, la capacità di Airnergy dipende dalla potenza del segnale wi-fi nelle vicinanze. Durante la dimostrazione al CES, è riuscito a ricaricare un Blackberry in circa 90 minuti. Airnergy sarà messo in commercio dal prossimo autunno negli Stati Uniti, al costo di 40 dollari. Ma non si tratta dell’unico dispositivo a fare da apripista per la nuova frontiera dell’elettricità senza fili. Lo scorso anno, sempre al CES di Las Vegas, la startup PowerBeam ha presentato il sistema WiTricity che permette di alimentare piccoli gadget elettronici in modalità wireless. La compagnia Case-Mate ha di recente presentato The Hug: basta poggiarci il cellulare sopra per ricaricare la batteria. The Hug costa 90 dollari ed è già disponibile per iPhone.

fonte: corriere.it

domenica 10 gennaio 2010, 23.24.54 | newsmtesla

pluralitas non est ponenda
sine necessitate

domenica 10 gennaio 2010, 23.06.34 | newsmtesla

*   MMX   *

domenica 27 dicembre 2009, 18.30.01 | newsmtesla

Il primo Boeing 787 Dreamliner è decollato alle 10.28-15/12/209 dalla pista 34L di Paine Field, pilotato dai collaudatori Mike Carriker e Randy Neville. È il primo aereo di linea interamente in materiali compositi: un momento storico nell’evoluzione della tecnologia aeronautica.

Tutt’intorno una folla di spettatori, in parte dipendenti Boeing ed in parte appassionati che hanno pagato fino a 250 dollari per un posto sul prato accanto alla pista. Il tempo di Seattle ha concesso una pausa e la pioggia ha cessato di cadere nella notte, circa sei ore prima del decollo.
Il primo aereo di linea interamente in materiali compositi, nella cui realizzazione gioca un ruolo di primo piano Alenia Aeronautica, ha spiccato il volo con circa 26 mesi di ritardo sulla tempistica iniziale. Lo stillicidio di annunci, compreso il clamoroso dietrofront del giugno 2009, quando Boeing aveva annunciato il primo volo entro il mese per poi smentirlo pochi giorni dopo, aveva trasformato l’aereo da sogno – Dreamliner, appunto – in un incubo. Ora il primo volo rassicura sia i partner industriali che le compagnie aeree che si erano affrettate ad ordinarlo in centinaia di esemplari. Nonostante le 83 cancellazioni legate ai ritardi, il portafoglio resta pur sempre di 840 macchine. La sfida è ora di concludere la fase di certificazione, accelerare la produzione e iniziare le consegne.

 

Sebbene questo sia il primo volo reale, Carriker e Neville hanno già accumulato molta esperienza sul “787 virtuale”, cioè i molti simulatori utilizzati per lo sviluppo dell’aereo. Lo stesso software dei comandi di volo ha già volato su un 777 reale, fornendo dati essenziali per la messa a punto della versione definitiva. Mentre l’enorme bireattore accelerava sulla pista bagnata lo sorvolavano un elicottero Ecureuil per le riprese di un film IMAX di grande formato, due addestratori Lockheed T-33 infunzione di scorta. Li precedeva un Northrop T-38 con funzioni di avanscoperta meteo.
Il piano di volo annunciato prevede portare il prototipo sull’oceano Pacifico e di volare fino a cinque ore e mezzo, effettuando varie prove generali prima di riatterrare al Boeing Field di Seattle, il “city airport” sul quale il costruttore ha il proprio centro sperimentale. L’atterraggio è previsto tra le tre e le quattro del mattino ora italiana.

fonte: dedalonews.it

domenica 27 dicembre 2009, 18.29.37 | newsmtesla

Che cos’è la mente?
Scienza, filosofia e religione cercano da secoli di rispondere a questa domanda, ma le diverse soluzioni proposte sono sempre state parziali e spesso in contrasto reciproco: in pratica mai nessuna spiegazione è risultata davvero valida ed esauriente.Al di là delle convinzioni personali e religiose, oggi la scienza ci informa con ragionevole certezza che il processo del pensiero è dovuto a fenomeni chimici e fisici che avvengono nel cervello e nel sistema nervoso a livello microscopico, ovvero a livello molecolare ed atomico. Il funzionamento della natura a livello atomico e sub-atomico è governato dalle leggi della cosiddetta “meccanica quantica”, una teoria fisica sviluppata agli inizi del secolo ventesimo, che risulta molto valida e precisa ma che presenta risvolti molto strani o perfino paradossali.

A livello sub-atomico la materia perde le familiari proprietà… “materiali” e si manifesta invece come un gioco di forze e di onde. Chi ha studiato un po’ di chimica sa che l’atomo è molto stabile e può essere considerato una pallina “solida”. Il modello fondato su particelle “dure” però fallisce quando si analizza la struttura interna dell’atomo: la “solidità” dell’atomo è creata in realtà da un gioco di forze che si crea al suo interno tra gli elettroni, i quali non si comportano come vere e proprie “particelle” o “corpuscoli” materiali ma si distribuiscono spazialmente in determinate “nuvole elettroniche” o “orbitali”. Tali orbitali in realtà sono delle “onde risonanti” che obbediscono alle leggi della meccanica quantistica, le quali presentano diversi aspetti paradossali.

Se la mente umana è veramente capace di agire a livello quantistico, essa può avere delle grandi potenzialità inespresse (nettamente superiori a quanto generalmente si ritiene). Che cosa si intende esattamente?
___________
fonte:http://www.ipotesi.net/ipotesi/premessa.htm

domenica 27 dicembre 2009, 18.29.02 | newsmtesla

Il 2010 sarà ricordato come l’anno di nascita della prima forma di vita artificiale, attraverso il trapianto del genoma, mediante il quale sarà possibile creare le basi della genomica sintetica: Synthia (da Synthetic). Il primo passo è già compiuto, annunciato qualche mese fa da un articolo su Science.

Vi si riferivano i risultati dell’esperimento del team di Craig Venter, che ha portato alla creazione di un batterio, il primo essere vivente ad avere ricevuto un Dna nuovo di zecca.

Da decenni, i biologi molecolari erano impegnati in sperimentazioni in cui avevano modificato geneticamente microbi e altre specie di cellule aggiungendo al loro patrimonio genetico piccole sequenze di Dna, geni interi e addirittura grandi pezzi di cromosomi. Ma non avevano ancora ottenuto il risultato di trasformare un organismo cellulare in un altro organismo con un nuovo patrimonio genetico. La possibilità di creare da zero nuove forme di vita avrà un enorme impatto. Potrebbe permettere di ottenere di microrganismi in grado di risolvere questioni cruciali nel campo delle applicazioni energetiche, della tutela ambientale e nella medicina. Le applicazioni sono tante e i ricercatori sono già preparati a un uso industriale.

Accanto alla Genomica si sentirà parlare nel 2010 di una nuova disciplina, la Proteomica, che ricopre un ruolo fondamentale nella ricerca biomedica e da cui ci si aspettano ricadute significative su patologie ad alto impatto epidemiologico come i tumori, le patologie cardiovascolari, quelle neurologiche, il diabete, le terapie del dolore. E infine il nuovo anno nasce sotto il segno delle Nanotecnologie – la frontiera del futuro – che promettono di rivoluzionare la vita quotidiana in diversi settori: dalla sicurezza, alla diagnostica alla meccanica all’elettronica.

fonte: corriere.it

luna nuova

lunedì 21 dicembre 2009, 21.38.16 | newsmtesla


guarda k lo so
gli okki k hai 
nn sono sinceri
sinceri mai
neanke qnd ti svegli

tanto è lo stesso
intuisco anke spesso
mi abiurerai
io ti conosco
e lo farai
anke senza rispetto

forse neanke tu lo sai
ma qnd vorrai
ad ogni novilunio con rimpianto mi rincontrerai

luna piena

martedì 1 dicembre 2009, 0.35.46 | newsmtesla

” Monti mari e fiumi
attraverserò

sopra la tua terra
mi ritroverai

turbini e tempeste io
cavalkerò

tra lampi fulmini volerò
sulle braci il mio spirito camminerà

 negli abissi del tuo sguardo sprofonderò
 e nella tua irridescenza, trafitto, risorgerò “

..confucio..

lunedì 28 settembre 2009, 22.23.26 | newsmtesla

 

venerdì 11 settembre 2009, 13.08.07 | newsmtesla

…,,,…,,,…,,,…

alberi artificiali ANTI-CO2

giovedì 27 agosto 2009, 21.50.58 | newsmtesla

La proposta arriva da un report dell’Institution of Mechanical Engineers: potrebbero catturare CO2 con un’efficienza altissima, dando tempo agli scienziati per trovare soluzioni definitive al problema delle emissioni

 
 

Geo-ingegneria come soluzione indispensabile ai problemi del riscaldamento atmosferico: è quello che sostengono i ricercatori dell’Institution of Mechanical Engineers nel report Geo-Engineering, in cui si trova un’idea decisamente originale che potrebbe essere realizzata entro vent’anni. Si tratta di un folto esercito di 100 mila alberi artificiali che, grazie a un filtro, sarebbero in grado di trattenere le emissioni di anidride carbonica (responsabili come è noto del surriscaldamento del pianeta) con un’efficienza elevatissima. Come spiega Tim Fox, a capo del team di ricerca, gli alberi sarebbero già in fase avanzata di progettazione: sono grandi come container da trasporto, ciascuno potrebbe assorbire circa una tonnellata di CO2 quotidiana e, prodotti in serie, costerebbero circa 20 mila dollari l’uno. Gli alberi che catturano CO2 sono solo una parte delle iniziative presentate dagli scienziati dell’Institution of Mechanical Engineers. Le finalità perseguite per salvarela Terra dall’effetto serra sono infatti essenzialmente due: raffreddare il pianeta e ridurre le emissioni, e su questi fronti esistono anche altri progetti in fase di sviluppo. Uno prevede l’adozione di contenitori di alghe capaci di ridurre l’anidride carbonica durante la fotosintesi, un altro l’installazione di specchi sui tetti degli edifici in modo da respingere il calore..

fonte:corriere.it

Emanuela Di Pasqua
27 agosto 2009

l’eolico senza pale: «Tornado Like»

mercoledì 22 luglio 2009, 10.09.22 | newsmtesla

Tornado Like, progettato da un gruppo di ingegneri russi e ingegnerizzato dalla «Western co», società di San Benedetto del Tronto specializzata nelle tecnologie rinnovabili, è stato presentato a Firenze durante «Lavori verdi», summit sull’energia alternativa voluto dal leader dei Verdi toscani Fabio Roggiolani e al quale hanno partecipato esperti da tutta Europa. La macchina, che ricorda un cono, ha il vantaggio di non avere le pale e dunque di poter essere mimetizzata molto meglio nell’ambiente. Un aerogeneratore raggiunge in media i venti, trenta metri, «Tornado» non supera i due tre metri e in futuro sarà ancor più miniaturizzato. «Funziona ovunque anche dove non c’è troppo vento – spiega Roggiolani – perché è in grado di accelerare l’aria e di creare un effetto tornado ottimo per muovere le turbine e produrre energia». La resa energetica è superiore a quella di un normale aerogeneratore e il costo inferiore al 30%. Come funziona? «L’aria penetra dalla base del cono – risponde Giovanni Cimini, presidente della Western co – e dentro la macchina il flusso viene trasformato in un vortice fino a quando, potentissimo, raggiunge la sommità del dispositivo dove si trovano le turbine per generare l’energia elettrica». I test saranno effettuati da un consorzio di aziende hi-tech toscane e marchigiane in collaborazione con l’Università delle Marche e il Cnr di Firenze. Un primo impianto sarà installato nel Parco dei Monti Sibillini. Poi si passerà alla produzione. «Contiamo di costruire le prime macchine dopo il primo semestre 2010», annuncia Cimini. Ma le meraviglie tecnologiche verdi non finiscono qui. Sempre al summit di Firenze sono stati presentati sistemi per catturare energia dall’ambiente senza inquinare. Come la piattaforma meccanica e chimica, messa a punto dall’ingegner Alessio Cianchi (Officine Berti), capace di sfruttare la cavitazione e la luminescenza dell’acquae trasformarla in energia. E ancora le «nuove molecole fotovoltaiche» presentate dal Laboratorio europeo di spettrofotometria non lineare dell’Università di Firenze in grado, in un futuro molto prossimo, di centuplicare la potenza di un pannello fotovoltaico. Quasi fantascientifica la ricerca del dipartimento di Scienze della Terra dell’Università di Pisa. I professori Paolo Fulignati e Alessandro Sbrana hanno presentato alcuni impianti «a ciclo binario» capaci di trasformare il calore del sottosuolo in energia elettrica senza estrarre alcun fluido dalla falda.

fonte: corriere.it – Marco Gasperetti
mgasperetti@corriere.it

giovedì 16 luglio 2009, 17.17.51 | newsmtesla

 

mercoledì 8 luglio 2009, 10.13.59 | newsmtesla

[..work in progress..]

 

…l’ormone/neurotrasmettitore quantico pinealina…

..sinapsi multidimensionali e campo quantico…

..l’illuminazione è una neurosimulazione dei nostri cervelli..

 

martedì 30 giugno 2009, 10.13.40 | newsmtesla

…mi kiedevo il xk di tt qst, finalmente ora è tutto MOLTO kiaro..

martedì 30 giugno 2009, 10.12.28 | newsmtesla

…mi kiedo il xk d tt qst…

 

giovedì 18 giugno 2009, 9.43.38 | newsmtesla

…Om mani padme hum…

mercoledì 3 giugno 2009, 17.06.10 | newsmtesla

“…La fisica non e’ la rappresentazione della realta’,

ma è semplicemente una sua rappresentazione…”

- Werner Heisenberg -

STAIR – CELLE AD ARIA

mercoledì 27 maggio 2009, 15.57.34 | newsmtesla

 
Lo schema della pila allo studio. L’ossigeno è catturato dall’aria e reagisce con l’elettordo di carbonio poroso
(Engineering and Physical Sciences Research Council)

La cella chiamata STAIR (St Andrews Air) messa a punto dai ricercatori inglesi, che sta alla base della nuova batteria, funziona ricaricandosi grazie a un nuovo componente costituito da un elettrodo di carbone poroso utilizzato al posto del litio usato fino a oggi, materiale oltretutto molto più costoso. Il carbone poroso contenuto nella cella STAIR «ruba» l’ossigeno catturandolo dall’aria intorno a sé, continuando a «cibarsi» di energia. Per questo motivo tale cella è una bella speranza anche nel settore delle energie rinnovabili: intanto elimina completamente i componenti chimici – riuscendo oltretutto ad accumulare più energia anche con pile della stessa dimensione – e poi supera i problemi legati alle singole energie alternative, come la mancanza di vento o di energia solare per ricaricarsi. Tali energie infatti soffrono del problema dell’intermittenza, giacché a fenomeno assente il pannello non si ricarica più.  Diverso è l’uso di un sistema che crea energia semplicemente a contatto con l’aria. Grazie all’interazione tra il carbone poroso e l’ossigeno si crea un ciclo di carica, ma anche di scaricamento delle batterie, che può essere ripetuto infinite volte. Ora non resta che attendere la fine delle sperimentazioni e, a seguire, le prime applicazioni, che i ricercatori stessi prevedono non prima di 5 anni per la cella STAIR. Batterie ricaricabili nutrite di aria, che promettono di far da base alle auto elettriche del futuro, quelle che ancora non possiamo neppure immaginare, ma anche che potranno dare energia a lungo ai laptop e ai telefoni cellulari, sempre più bisognosi di carica per vedere video, navigare, fare foto. Sono queste tipologie di batterie quelle studiate in Gran Bretagna, all’Università di St Andrews, e finanziate dall’agenzia britannica Engineering and Physical Sciences Research Council (EPSRC): è loro il primato di durata, che sarà di 10 volte di più rispetto alle batterie oggi in commercio. Il progetto è ora a metà del suo percorso, dopo 4 anni di sperimentazioni, e si concluderà nell’estate del 2011.

fonte: corriere.it

Eva Perasso
19 maggio 2009

giovedì 14 maggio 2009, 9.48.44 | newsmtesla

L’ambiente in cui viviamo, gli stimoli che riceviamo dall’esterno, le  nst esperienze e addirittura i nostri pensieri sono i responsabili della determinazione di ciò che siamo? Non sono i “geni” a determinare il destino, ma il nostro pensiero. Sono le emozioni che viviamo che “regolano” l’attività di miliardi di cellule che cooperano perché l’organismo funzioni correttamente.

Ciò è la base della ‘verità’ proposta da un facoltoso biologo molecolare, autorità mondiale nello studio dei legami tra biologia e comportamento (epigenetica). La prima fondamentale conseguenza di questa nuova teoria è che ognuno di noi ha il potere di condizionare il proprio destino.

Si spinge oltre: prende posizione anche sull’attuale diatriba su Darwin e dimostra l’infondatezza delle sue teorie. “[...]L’evoluzione non si basa sulla competizione ma, al contrario, sulla cooperazione per la creazione di comunità[...]“

Fino alla scoperta dell’epigenetica, si credeva che il nucleo di una cellula, contenente il DNA, fosse il “cervello” della cellula stessa, del tutto necessario per il suo funzionamento. Recentemente è stato dimostrato che le cellule possono vivere e funzionare molto bene anche dopo che i loro nuclei sono stati asportati. Il vero “cervello” della cellula nn è il nucleo ma è la sua membrana che reagisce e risponde alle influenze esterne, adattandosi dinamicamente ad un ambiente in perpetuo cambiamento. Che cosa significa questo per noi? Man mano che incrociamo le diverse influenze ambientali, siamo noi a suggerire ai nostri geni cosa fare, di solito inconsciamente.

..dunque, noi saremmo il frutto dei nst pensieri e dell’ambiente con cui interagiamo?  forse. e la genetica?? i geni sarebbero soltanto informazioni racchiuse nel nucleo… un immenso database, ma niente di più.

..i geni non possono determinare la nst esistenza (come illustri medici e similari docent), altrimenti se ‘tutto’ fosse già scritto, dove e come si manifesterebbe il nst libero arbitrio??

Questo punto assume un’importanza filosofica colossale, perché solo in questa ipotesi l’uomo viene ad assumere una vera libertà nelle sue azioni; altrimenti egli sarebbe solo un burattino in balia di geni ereditati.

ensō

giovedì 2 aprile 2009, 11.55.48 | newsmtesla

 

Ensō  è una parola giapponese che significa cerchio. L’ensō è forse il soggetto più comune della calligrafia giapponese. Esso simboleggia l’illuminazione, la forza, l’universo. È ritenuto da molti che l’indole dell’artista sia completamente rivelata dal modo in cui disegna questo cerchio; inoltre si ritiene che solo chi sia mentalmente e spiritualmente completo possa disegnare un vero ensō. Alcuni artisti ne disegnano uno ogni giorno, come una sorta di diario spirituale. Alcuni lo disegnano con un’apertura nel cerchio, mentre altri lo completano. L’apertura potrebbe simboleggiare che questo cerchio non sia separato dal resto delle cose ma faccia parte di qualcosa di più grande.

fonte:wikipedia.it

 

mercoledì 1 aprile 2009, 12.48.17 | newsmtesla

  L’AERONAUTICA MILITARE FESTEGGIA I SUOI 86 ANNI DI STORIA

 

 

fonte:aeronautica.difesa.it

lunedì 30 marzo 2009, 21.37.40 | newsmtesla

!

–  BUON COMPLEANNO  –

 

 

fusione fredda !?

martedì 24 marzo 2009, 10.28.59 | newsmtesla

E’ una coincidenza, oppure una strategia di comunicazione studiata apposta per dire al mondo: ci siamo ancora? Esattamente venti anni dopo la contestata scoperta della «fusione fredda» da parte di due chimici americani, gli eredi di questa linea di ricerca, riuniti a Salt Lake City, in un simposio dell’American Chemical Society dedicato a «New Energy Technology», sostengono non solo di avere ripetuto con successo gli esperimenti, ma anche di vedere le prove che si tratta di una reazione di fusione nucleare a bassa energia: cioè i neutroni, i piccoli proiettili nucleari che scaturirebbero, abbondanti, dal processo. Non è la prima volta che i fusionisti freddi tentano di tornare alla ribalta con annunci di risultati positivi. Ma poiché la storia della scienza è fatta anche di scoperte che stentano a decollare prima di affermarsi, ci pare corretto dare spazio anche a queste ultime rivendicazioni.

Sarà utile riassumere come andò vent’anni fa, prima di passare alla cronaca. Il 23 marzo del 1989 due chimici dell’università dell’ Utah, Martin Fleischmann e Stanley Pons, decidono di comunicare la loro scoperta in una conferenza stampa, prima di avere pubblicato l’articolo relativo su una rivista scientifica. Attirano subito l’attenzione di tutto il mondo perché, assicurano, si tratta di un fenomeno che promette energia pulita e a basso costo, anche attraverso impianti di piccole dimensioni. In una cella elettrolitica riempita di acqua pesante (con deuterio al posto dell’ idrogeno), sostengono i due, basta immergere una barretta di palladio per vedere scaturire un eccesso di energia. Solo la fusione dei nuclei di deuterio penetrati nel reticolo cristallino del palladio, potrebbe spiegare il fenomeno e così si parla di «fusione fredda», per distinguerla da quella ad altissime temperature che viene sperimentata nelle grandi ciambelle magnetiche in alcuni laboratori mondiali della big science. Nelle loro numerose presentazioni in giro per il mondo (noi assistemmo a quelle del Cern di Ginevra e del Centro Majorana di Erice), i due chimici americani non forniscono tutti gli elementi necessari per ripetere l’ esperimento e minimizzano le difficoltà di riproducibilità del fenomeno. Inoltre, Fleishmann e Pons scavalcano un loro collega, Steven Jones, che aveva lavorato alla stessa ricerca e con cui avevano concordato una contemporaneità di pubblicazioni. Il mondo scientifico è frastornato, i media sono impazziti. La possibilità di avere a portata di mano la soluzione dei problemi energetici suggerisce attenzione, al di là del comportamento irritante di Fleischmann e Pons. Mentre centinaia di ricercatori si affannano a ripetere gli esperimenti con risultati contraddittori, alcuni scienziati del prestigioso Caltech, l’Istituto di tecnologia della California, organizzano una severa istruttoria scientifica. In appena un mese la sentenza è pronta: il fenomeno non esiste, non è spiegabile, forse è pura illusione. Per altri è addirittura frode scientifica.

CONTRADDIZIONI – Ma nel frattempo altri gruppi di ricerca di provata professionalità, in diverse parti del mondo, fra i quali un gruppo di fisici e chimici dell’Enea guidati dal professor Franco Scaramuzzi, riescono a riprodurre il fenomeno. Il mondo della ricerca si divide così fra scettici e possibilisti. Negli anni successivi, pur essendo accertato che in certe circostanze si arriva alla liberazione di inspiegabili quantità di energia dalla cella elettrolitica, non si arriva a chiarire se si tratta di reazioni chimiche o nucleari. Soprattutto, risultano illusorie le promesse di quanti annunciano la fabbricazione di prototipi sperimentali che possano fornire elettricità e calore sulla base del nuovo fenomeno.

In questi giorni, al congresso di Salt Lake City, l’ultimo atto della tormentata ricerca. Pamela Mosier-Boss, chimica del U.S. Navy’ s Space and Naval Warfare Systems Center (SPAWAR) di San Diego, California, annuncia, anche a nome di altri ricercatori, di avere ottenuto per la prima volta la prova che la fusione fredda esiste e che si tratta di un processo nucleare, come proverebbero le abbondanti tracce di neutroni registrate nel corso di vari esperimenti. Questa volta, spiega la ricercatrice, la cella elettrolitica contiene deuterio mescolato a cloruro di palladio e gli elettrodi sono fatti con fili di nikel o di oro. «Oltre ai neutroni, le cui tracce sono state evidenziate da una plastica speciale posta accanto alla cella -spiegala Mosier-Boss-, il fenomeno è accompagnato dall’eccesso di calore, dall’emissione di raggi X e dalla formazione di trizio. Tutti indizi a sostegno dell’avvenuta fusione del deuterio». Dal convegno di Salt Lake City, oltre alla speranza di un rilancio del fenomeno su più solide basi, è venuto però un avvertimento che suona come di rottura rispetto all’avventuroso passato di questa vicenda: non si parli più di fusione fredda, ora il termine giusto è l’impronunciabile LENR, acronimo di Low Energy Nuclear Reactions (reazioni nucleari a bassa energia). Basterà la nuova sigla a garantire un percorso meno accidentato a quanti ancora lavorano a queste ricerche?

fonte:corriere.it

FILOSOFIA DI VITA

lunedì 23 marzo 2009, 21.27.10 | newsmtesla

Un professore di filosofia, in piedi davanti alla sua classe, prese un grosso vasetto di marmellata vuoto e comincio a riempirlo con dei sassi, di circa 3cm di diametro. Una volta fatto chiese agli studenti se il contenitore fosse pieno
 ed essi risposero di si.

Allora il Professore tirò fuori una scatola piena di piselli, li versò dentro il vasetto e lo scosse delicatamente.Ovviamente i piselli si infilarono nei vuoti lasciati tra i vari sassi. Ancora una volta il Professore chiese agli studenti se il vasetto fosse
pieno ed essi, ancora una volta, dissero di si.

Allora il Professore tirò fuori una scatola piena di sabbia e la verso dentro il vasetto. Ovviamente la sabbia riempi ogni altro spazio vuoto lasciato e coprì  tutto. Ancora una volta il Professore chiese agli studenti se il vasetto fosse pieno e questa volta essi risposero di si, senza dubbio alcuno.

 
Ora, disse il Professore, voglio che voi capiate che questo vasetto rappresenta la vostra vita. I sassi sono le cose importanti – la vostra famiglia, i vostri  amici,la vostra salute, i vostri figli – le cose per le quali se tutto il resto fosse perso, la vostra vita sarebbe ancora piena. I piselli sono le altre cose per voi importanti: come il vostro lavoro, la vostra casa, la scuola…. La sabbia e’  tutto il resto…… le piccole cose.

 

Se mettete dentro il vasetto per prima la sabbia, continuò  il Professore, non ci sarà spazio per i piselli e per i sassi. Lo stesso vale per la vostra vita. Se dedicate tutto il vostro tempo e le vostre energie alle piccole cose, non avrete spazio per le cose che per  voi sono importanti. Dedicatevi alle cose che vi rendono felici: giocate con i vostri figli, portate il vostro partner al cinema, uscite con gli amici. Ci sarà sempre tempo per lavorare, pulire la casa, lavare l’auto. Prendetevi cura dei sassi per prima – le cose che veramente contano. Fissate le vostre  priorità… il resto e’ solo sabbia.

fonte:http://motxam.interfree.it/vita.html

venerdì 13 marzo 2009, 17.20.40 | newsmtesla

 

ciao S… !

martedì 10 marzo 2009, 13.04.01 | newsmtesla

…è tempo di cambiare…

PLUTARCO, anni 80-90 d.C.

domenica 8 febbraio 2009, 13.17.13 | newsmtesla

PLUTARCO: L’ARTE DI ASCOLTARE

Ti invio la stesura del discorso da me tenuto su come si ascolta, perché tu sappia disporti in modo corretto all’ascolto di chi si rivolge a le con la voce della persuasione, ora che hai indossato la toga virile e ti sei liberato da chi ti dava ordini1. Questa condizione di «anarchia», che alcuni giovani, ancora immaturi sul piano formativo, sono portati a confondere con la libertà, fa sì che le passioni, quasi fossero sciolte dai ceppi, diventino per loro padroni più duri dei maestri e dei pedagoghi di quando erano ragazzi2. Insieme con la tunica, dice Erodoto, le donne si spogliano anche del pudore3: così ci sono giovani che nell’atto stesso di deporre la toga puerile, depongono anche ogni senso di pudore e di rispetto, e sciolto l’abito che li teneva composti si riempiono subito di sregolatezza. Tu, invece, che in più occasioni hai avuto modo di ascoltare che seguire Dio ed obbedire alla ragione, che sono la stessa cosa, devi pensare: il passaggio dalla fanciullezza all’età adulta, per quelli che ragionano bene, non significa non aver più un’autorità cui sottostare, ma semplicemente cambiarla, perché al posto di una persona stipendiata o di uno schiavo essi assumono a guida divina dell’esistenza la ragione. Quella ragione, i cui seguaci è giusto ritenere i soli uomini liberi, dato che solo loro hanno imparato a volere ciò che si deve e perciò stesso vivono come vogliono. Ignobile, invece, meschino ed esposto a grandi rimorsi, è l’arbitrio che si esplica negli impulsi e nelle azioni che nascono da immaturità e falsi ragionamenti.”

Note

1- All’età di diciassette anni i giovani romani smettevano la toga puerilis (detta anche praetexta perché era listata di porpora) e assumevano la candida Toga virilis. Si è calcolato, con attendibile approssimazione, che Nicandro (probabilmente figlio di Eutidamo, collega di sacerdozio di Plutarco a Delfi) sia nato tra il 60 e il 70 d. C., il che porrebbe la data di composizione dell’opuscolo nel decennio tra l’80 e il 90 d. C.

2- L’inadeguatezza sul piano «formativo-culturale», la non conseguita maturità, può indurre i giovani al pericoloso fraintendimento di scambiare per «libertà» la nuova condizione in cui vengono a trovarsi, quando non devono più sottostare agli ordini dei pedagoghi e dei maestri. Sulla notoria rigidità e durezza di questi ultimi si veda ad esempio lo pseudo-Platone, Assioco V, 366 e:  «Quando il bambino [...] raggiunge i sette anni, sopravvengono a tiranneggiarlo i pedagoghi, i grammatici e i maestri di grammatica e, quando è cresciuto, una grande schiera di padroni, dagli insegnanti di letteratura ai geometri, agli istruttori militari. E una volta iscritto nella lista degli efebi, ecco il cosmeta e il timore delle percosse» (tr. di Giovanna Sillitti in Platone, Opere complete, 8, Laterza, Bari, 197l).

3- Erodoto, I, 8, 3 (si tratta del celebre episodio di Gige e della moglie di Candaule).

Il SILENZIO

Il silenzio è ornamento sicuro per un giovane in ogni circostanza, ma lo è in modo particolare quando, ascoltando un altro, evita di agitarsi o di abbaiare ad ogni sua affermazione, e anche se il discorso non gli è troppo gradito, pazienta ed attende che chi sta disertando sia arrivato alla conclusione; e non appena ha finito si guarda dall’investirlo subito di obiezioni, ma, come dice Eschine8, lascia passare un po’ di tempo per consentire all’altro di apportare eventuali integrazioni o di rettificare e sopprimere qualche passaggio. Chi si mette subito a controbattere finisce per non ascoltare e non essere ascoltato, e interrompendo il discorso di un altro rimedia una brutta figura. Se invece ha preso l’abitudine di ascoltare in modo controllato e rispettoso, riesce a recepire e a far suo un discorso utile e sa discernere meglio e smascherare l’inutilità o falsità di un altro, e per di più dà di sé l’immagine di una persona che ama la verità e non le dispute, ed è aliena dall’essere avventata o polemica9. Non è sbagliato quello che dicono alcuni, e cioè che se si vuole versare qualcosa di buono nei giovani bisogna prima sgonfiarli più di quanto non si faccia con l’aria contenuta negli otri, di ogni presunzione e albagia, perché altrimenti, pieni come sono di alterigia e di boria, non riuscirebbero ad accogliere nulla.

 Note

8.Non si hanno elementi per capire se Plutarco si riferisca qui al celebre oratore ateniese del IV sec. a. C. o all’omonimo filosofo socratico. 

9.La prima norma è dunque di non interrompere chi parla e riflettere prima di muovere un’obiezione: non si tratta tanto di buone maniere, anche se questo aspetto non è da trascurare, quanto dell’utilità effettiva che si può ricavare da una lezione. Non pare, invece, che qui entri in discussione il tema della liceità o meno del contraddittorio, ammesso in alcune scuole e negato da altre. Tra queste ultime rientravano gli stoici (cfr. Luciano, Ermotimo 13, dove Licino chiede a Ermotimo, che seguiva appunto la disciplina del Portico, se nella sua scuola era consentito ai giovani di controbattere le affermazioni dei maestri, ma si sente rispondere negativamente) e i pitagorici (cfr. , ad esempio, Gellio, I, 9, 4): più in generale, a Plutarco preme evidenziare come solo attraverso un ascolto attento e una successiva ponderata riflessione si possa dare la giusta valutazione di ciò che si è ascoltato.

fonte:filosofico.net/plutarcarteascoltare.htm

…LEGGE DELLA SINTROPIA

sabato 7 febbraio 2009, 22.21.52 | newsmtesla

LA SCOPERTA DELLA LEGGE DELLA SINTROPIA:

QUALI IMPLICAZIONI PER LA PSICOLOGIA?

 

L’EQUAZIONE ENERGIA/MOMENTO/MASSA

Nella relatività ristretta di Einstein (1905) l’energia E, la massa m e il momento p

(velocità) di un oggetto sono legate dall’equazione:

 E2 = c2p2 + m2c4.

Questa equazione, nota come equazione energia/momento/massa, si semplifica nella famosa

 

E=mc2 quando p=0, cioè quando la velocità è uguale a 0 (Einstein, 1905).

Nel 1924, tuttavia, Pauli scoprì lo spin associato agli elettroni (Pauli, 1924), una velocità “intrinseca” alla struttura stessa dell’atomo e che non può mai essere uguale a 0; ciò obbliga di conseguenza ad utilizzare, nel microcosmo, sempre la forma estesa dell’equazione:

E2 = c2p2 + m2c4 .

Come si nota, in questa equazione l’energia è elevata al quadrato; ciò implica che, per calcolare il valore finale di E, sia necessario operare una radice quadrata: una caratteristica interessante delle radici quadrate è quella di portare sempre a due tipi di soluzioni, una positiva ed una negativa (ad esempio, 4 può essere espresso sia come +22 che come -22). Nel nostro caso, avremmo quindi energia a segno positivo (+E) ed energia a segno negativo (-E).

In base ai principi della relatività ristretta, questi due tipi di energia hanno moti di propagazione perfettamente simmetrici: l’energia a segno positivo (+E), la cui velocità non supera mai quella della luce, si propaga dal passato verso il futuro, mentre l’energia a segno negativo (-E), che viaggia a velocità superluminare, si muove a ritroso nel tempo, dal futuro verso il passato. Ciò implica che la +E diverge da una fonte collocata nel passato propagandosi verso il futuro (causalità, relazioni causa-effetto) , mentre la –E diverge da una fonte collocata nel futuro propagandosi a ritroso verso il passato (retrocausalità, relazioni effetto-causa). Dal momento che noi ci muoviamo dal passato verso il futuro, percepiamo la –E nella forma di forze convergenti (ad esempio, la forza di gravità), o di attrattori. La soluzione a segno negativo è stata ritenuta sin dall’inizio un’assurdità, uno “scherzo” della matematica privo di corrispondenza empirica. Tuttavia, nel 1928 Paul Dirac, proprio nel tentativo di risolvere questa contraddizione, giunse alla dimostrazione teorico-matematica dell’esistenza dell’antiparticella dell’elettrone, da lui chiamata neg-elettrone. Questa scoperta spianò la strada alle ricerche future sull’antimateria. Infatti, nel 1932, il fisico C. D. Anderson giunse a dimostrare sperimentalmente l’esistenza dell’antielettrone, l’antiparticella dell’elettrone che si muove a ritroso nel tempo, dal futuro al passato e oggi nota anche con il nome di positrone. Per questa scoperta Anderson ricevette il Premio Nobel nel 1936. Nel 1951, il fisico John Stewart Bell dimostrò l’esistenza della simmetria CPT (Charge Parity and Time reversal symmetry), secondo la quale, nel microcosmo, tutte le cause sono simmetriche rispetto al verso del tempo. Infine, nel 1980, il fisico Alain Aspect realizzò il primo esperimento EPR (Einstein-Podolski-Rosen), grazie al quale si potè osservare una velocità di trasmissione dell’informazione superiore alla velocità della luce, dimostrando così l’esistenza di –E.

 

L’INTUIZIONE DI FANTAPPIÈ:

LA TEORIA UNITARIA DEL MONDO FISICO E BIOLOGICO

Nel 1942 Luigi Fantappiè, uno dei maggiori matematici italiani, studiando le proprietà matematiche della doppia soluzione dell’energia, scoprì che la soluzione positiva (+E) descrive fenomeni governati dal principio dell’entropia, mentre la soluzione negativa (-E) descrive fenomeni governati da un principio simmetrico a quello dell’entropia che Fantappiè denominò sintropia.

Come è noto, l’entropia è descritta dal secondo principio della termodinamica in base al quale in ogni trasformazione di energia (ad esempio trasformando il calore in lavoro), una parte di energia si dissipa nell’ambiente: quando l’energia dissipata nell’ambiente è distribuita in modo uniforme (ad esempio non vi sono più variazioni di calore) si raggiunge uno stato di equilibrio in cui non è più possibile trasformare l’energia in lavoro. Questo stato di equilibrio è anche noto come “morte termica”.

I fenomeni sintropici, al contrario, si caratterizzano per la tendenza alla concentrazione dell’energia, alla creazione di differenziazione ed ordine e al mantenimento del sistema lontano dalla “morte termica”. Fantappiè notò immediatamente la coincidenza tra le proprietà dei fenomeni sintropici e le qualità tipiche dei sistemi viventi, e presentò questi suoi risultati il 30 ottobre 1942 presso l’Accademia d’Italia in un volume intitolato “La Teoriaunitaria del mondo fisico e biologico” (Fantappiè, 1942). In questa teoria, Fantappiè descrive ampiamente, ponendole a confronto, le qualità dei sistemi entropici e le qualità dei sistemi sintropici.

 

di:Antonella Vannini

 

 

martedì 3 febbraio 2009, 14.04.30 | newsmtesla

…il tempo nn è affatto un qualcosa di oggettivo e assoluto, bensì una proprietà umana. Esso è una categoria innata della mente che rende possibile la conoscenza: la temporalità organizza le percezioni sensibili e fa in modo che queste giungano all’intelletto…

Immanuel Kant (1724-1804): “Critica della ragion pura”.

un essere immortale…!?

giovedì 29 gennaio 2009, 10.12.54 | newsmtesla

…la medusa che vive all’infinito…

Fino alla fine dei tempi: è l’unico essere vivente, per ora, che può definirsi «immortale», nel vero senso della parola.

La medusa Turritopsis nutricula è capace di invertire il proprio ciclo biologico e di sfuggire così alla tappa finale del processo di invecchiamento, ovvero alla morte. Ora, la creatura dei mari si sta moltiplicando ad un ritmo inarrestabile. «E’ in atto un’invasione silenziosa nei nostri oceani», avvertono i ricercatori.

La scoperta di questo organismo, che potenzialmente può vivere in eterno, risale a qualche anno fa e fu fatta da un team di biologi dell’Università di Lecce. La piccola idromedusa dal nome scientifico Turritopsis nutricula misura un diametro di appena quattro-cinque millimetri. Una volta raggiunta la maturità sessuale e dopo essersi riprodotta, non muore, a differenza di tutti gli altri organismi similari, sostengono gli studiosi. Questa speciale medusa, invece, scende sul fondo e si ritrasforma nello stadio giovanile da cui era stata generata. Insomma, da polipo ridiventa nuovamente medusa, e viceversa. Un processo che in sostanza può definirsi «infinito». Per gli scienziati questo ringiovanimento è reso possibile, a livello cellulare, a causa di un fenomeno conosciuto come «transdifferenziamento». L’ovvia e inevitabile conseguenza è una proliferazione di questa creatura dei mari, affermano i biologi marini sull’inglese Telegraph. «Stiamo rilevando un’invasione silenziosa in tutto il mondo», ha detto Maria Maglietta, dell’istituto di ricerca tropicale Smithsonian a Washington. Questi predatori del mare, originariamente presenti nelle acque calde dei Carabi, si stanno diffondendo velocemente in tutti gli oceani, aiutati anche da «passaggi» inconsapevolmente offerti dalle navi.

____________

fonte:corriere.it

 

Cancelliamo il tempo e capiremo…

mercoledì 21 gennaio 2009, 13.31.17 | newsmtesla

Le equazioni della gravità quantistica descrivono un Universo che manda in mille pezzi la nostra logica. È possibile che il Big Bang non sia stato l’inizio, ma solo il rimbalzo di un cosmo che prima si stava contraendo

   
   
CARLO ROVELLI
   
UNIVERSITA’ DI MARSIGLIA
Ventisei secoli fa, un uomo che viveva in una città greca sulla costa dell’odierna Turchia ebbe un’idea prodigiosa e stupefacente: E se il cielo sopra la nostra testa continuasse anche sotto i nostri piedi? E se la Terra non fosse che un grosso sasso che galleggia nello spazio, sospesa sul nulla? L’uomo si chiamava Anassimandro, la città era Mileto. L’idea, nuova nella storia del mondo, era, come ben sappiamo oggi, oltre due millenni e mezzo più tardi, giusta.

Il filosofo della scienza Karl Popper ha definito quest’idea «una delle più audaci, più rivoluzionarie e più portentose della storia del pensiero umano». Ma Anassimandro ci ha lasciato un’eredità ancora più importante. Ha mostrato che la realtà non è come ci appare, che possiamo avere idee sbagliate sul mondo e che, se partiamo da una serena consapevolezza della nostra ignoranza, attenta osservazione e intelligente riflessione possono permetterci di liberarci da qualcuno degli innumerevoli pregiudizi che impastoiano i pensieri: possiamo vedere più lontano. Così facendo, Anassimandro ha iniziato un’immensa e affascinante avventura: la strada della conoscenza scientifica.

Seguendo questa strada, abbiamo imparato che la Terra è una sfera, poi che gira su se stessa vorticosamente e corre intorno al Sole. Che Terra e Sole si attirano come la Terra attira i sassi, che lo spazio è curvo, che gli oggetti sono fatti di atomi, che il calore è il rapido movimento di questi atomi, che ci sono 100 milioni di stelle nella galassia e 100 milioni di galassie nel cielo che vediamo. Che l’Universo era nel passato una palla di fuoco esplosa in un gigantesco scoppio 14 miliardi di anni fa. Abbiamo anche imparato innumerevoli altre cose, che hanno cambiato profondamente la nostra comprensione del mondo e di noi stessi.

Ogni cambiamento è difficile, perché scardina abitudini mentali e pregiudizi e richiede idee inusitate. Come è possibile, chiedevano ad Anassimandro gli antichi, che, se vado sotto alla Terra, poi io possa camminare a testa in giù? Come può il mio «sotto» diventare un «sopra»? E’ incomprensibile! E a Galileo, che difendeva l’idea di Copernico che la Terra stesse girando, i contemporanei, confusi, chiedevano come potesse essere possibile che ci stiamo muovendo, quando stiamo invece qui fermi. Cosa vogliono dire «sopra» e «sotto», «muoversi» ed «essere fermi»? Queste nozioni devono essere riviste per capire meglio il mondo. Il lettore non sorrida di queste difficoltà degli antichi. Sono le stesse che portano molti oggi a domandarsi cosa diavolo intendesse Einstein nel sostenere che un evento, che accade «prima» per me, possa accadere «dopo» per te. Ci sono passi nell’evoluzione della nostra comprensione del mondo che sono stati acquisiti dal nostro senso comune ed altri che sono ben acquisiti nell’ambito di discipline scientifiche, ma non ancora dal senso comune.

Oggi la ricerca continua lungo questa strada e mette in discussione altri concetti. Tra questi, ci sono le nozioni stesse di «spazio» e «tempo», come ho spiegato nella mia conferenza al Festival delle Scienze di Roma dedicato all’Universo. E se «spazio» e «tempo» non fossero strutture universali alla base del reale, ma solo approssimazioni che hanno significato per la nostra esperienza quotidiana, ma non vanno più bene per capire il mondo un po’ più in profondità? Questa idea è oggi esplorata a fondo da una vivace comunità di scienziati. L’idea non cade dal cielo, ma è stata suggerita, come dovrebbe essere sempre per la buona scienza, da osservazioni e riflessione. Le «osservazioni» sono date dallo straordinario successo empirico delle due grandi teorie fisiche del XX secolo: la Relatività generale di Einstein e la meccanica quantistica di Heisenberg, Dirac e altri. Le due teorie ci hanno insegnato cose importanti sulla Natura. Einstein ci ha insegnato che spazio e tempo sono oggetti dinamici: si agitano come una specie di immenso mollusco (l’analogia è di Einstein), in cui tutto è immerso. La meccanica quantistica ci ha insegnato che ogni oggetto dinamico ha una struttura granulare: esiste una scala di dimensioni sotto la quale l’oggetto non esiste più. La «riflessione» è lo sforzo di combinare queste grandi scoperte del XX secolo in un quadro coerente, in cui i fenomeni osservati siano comprensibili.

Come Anassimandro cercava un quadro concettuale in cui fosse comprensibile che il Sole sparisca ad Occidente e ricompaia ad Oriente, così oggi cerchiamo un quadro concettuale in cui siano comprensibili le scoperte della fisica. Come Anassimandro, per comporre il nuovo quadro, ha dovuto comprendere che le nozioni di «sopra» e «sotto» dovessero essere diverse da come erano intese dal senso comune del suo tempo; così oggi dobbiamo probabilmente ripensare a fondo le nozioni di «spazio» e di «tempo».

Ripensare cosa sia il tempo è il passo più arduo. Siamo abituati a concepire l’uniforme scorrere del tempo; questo grande fiume in cui siamo immersi e che ci trascina. Ma un vero fiume è solo una danza disordinata di milioni di molecole d’acqua; vista da lontano, la danza disordinata diventa un placido e ordinato fluire, a costante velocità. E se il tempo si scomponesse anch’esso in una danza incoerente e disordinata, quando osserviamo il reale alle scale più minute? Se la nostra idea di un Grande Tempo che fluisce non fosse che una specie di approssimazione, che ha senso solo su scale «grandi»? Se per scrivere le equazioni fondamentali che descrivono il mondo fosse necessario dimenticarsi del tutto della variabile «tempo»? In fondo, come aveva osservato Newton, non osserviamo mai direttamente il tempo: osserviamo solo posizioni di oggetti che si muovono, come le lancette degli orologi. Newton aveva ben scritto che l’esistenza del tempo è una «utilissima ipotesi» per mettere ordine nella complessità del reale. Se questa ipotesi fosse utile alle nostre scale usuali, ma non più a scale molto piccole o molto grandi? Se il tempo in realtà non esistesse? Un’idea altrettanto assurda che pensare che la Terra galleggi nello spazio.

Il campo di ricerca che si occupa di questi problemi si chiama «gravità quantistica»: è il nome dato alla teoria che stiamo cercando e che deve combinare Relatività generale e meccanica quantistica in un quadro coerente. E’ una teoria cercata ansiosamente da decenni, un «Santo Graal» della fisica teorica contemporanea. Negli ultimi sei-sette anni università e istituti di ricerca in tutti i maggiori paesi d’Europa – Francia, Germania, Spagna e Inghilterra – hanno assunto numerosi giovani brillanti che lavorano in questo campo. Non ovviamente in Italia, nonostante il fatto che fra gli scienziati più influenti in questo campo ci siano italiani.

Recentemente, la gravità quantistica ha visto risultati spettacolari e incoraggianti. E’ da pochi mesi rimbalzata ovunque, per esempio, la notizia che, utilizzando la teoria della gravità quantistica chiamata «a loop», è ora possibile calcolare cosa possa essere successo «prima» del Big Bang. Finora il Big Bang, l’esplosione cosmica di 14 miliardi di anni fa, rappresentava una frontiera assoluta della conoscenza, dove tutte le equazioni finivano per diventare insufficienti. Non così le equazioni della gravità quantistica a loop. Queste, scritte già alla fine degli Anni 80, combinano Relatività generale e meccanica quantistica e oggi si comprende che ci permettono di provare a studiare la fisica stessa del Big Bang. Quello che emerge dalle equazioni, con sorpresa di tutti, è la possibilità che il Big Bang non sia stato un vero inizio della storia del mondo, ma un gigantesco rimbalzo (un «Big Bounce») di un Universo che prima si contraeva.

Le equazioni della gravità quantistica a loop descrivono la dinamica dello spazio come una danza di minutissimi anellini («loop» in inglese ). Nelle equazioni non c’è la variabile tempo. Le equazioni ci forzano, quindi, a ripensare da capo il mondo, senza mettere il «tempo» alla base della struttura della realtà. Se la teoria è giusta, il tempo non esiste. Il tempo è, come la velocità media dell’acqua di un fiume, nient’altro che una nozione media e approssimata, utile solo a scale molto grandi rispetto alla trama minuta del reale. Per comprendere questa trama minuta dobbiamo fare uno sforzo di immaginazione che ci porti fuori dalle nostre abitudini: pensare il mondo senza pensare al tempo.

Chi è Rovelli Fisico
RUOLO: E’ ORDINARIO DI FISICA TEORICA ALL’UNIVERSITA’ DI MARSIGLIA E MEMBRO DELL’ISTITUTO UNIVERSITARIO DI FRANCIA
RICERCHE: TEORIA DELLA GRAVITA’ QUANTISTICA A LOOP

_________

fonte:lastampa.it

A moment in history…

martedì 20 gennaio 2009, 11.52.46 | newsmtesla

 

Barack Obama’s inauguration

..x2

venerdì 16 gennaio 2009, 11.12.30 | newsmtesla

 

…in arrivo la cometa Lulin (C/2007 N3)

giovedì 15 gennaio 2009, 11.02.02 | newsmtesla

E’ in arrivo la cometa Lulin (C/2007 N3) ed è visibile nel suo transito tra le stelle della costellazione della Libra. Ora visibile solo con strumenti, promette di dare spettacolo in febbraio quando, il giorno 24 passerà alla minore distanza dalla Terra (0,41 unità astronomiche). Allora dovrebbe essere abbastanza luminosa da raggiungere la 4a magnitudine ed essere anche visibile ad occhio nudo. 

 

 

 

 

http://ssd.jpl.nasa.gov/sbdb.cgi?orb=1;sstr=2007+N3

LEVITAZIONE MAGNETICA

martedì 13 gennaio 2009, 14.03.08 | newsmtesla

Articolo pubblicato dal Politecnico di Torino

Giancarlo Genta

Dipartimento di Meccanica – Laboratorio interdisciplinare di Meccatronica
Politecnico di Torino

Da quando fu scoperto che l’aria ha un peso, molti inventori hanno proposto di utilizzare le forze aerostatiche per realizzare questo sogno, e nel 1783 i fratelli Montgolfier e J.A.C. Charles riuscirono a realizzare, a breve distanza di tempo gli uni dall’altro, due aerostati, funzionanti su principi completamente diversi, in grado di trasportare persone. Per generare forze aerostatiche sufficientemente intense sono però necessari palloni di enormi dimensioni, e questo modo di volare si è subito rivelato poco pratico ed ha trovato poche applicazioni.


Per tutto l’ottocento si è discusso sulla possibilità di far volare macchine più pesanti dell’aria, ed all’inizio del nuovo secolo finalmente le prime macchine a sostentazione aerodinamica si sono sollevate dal suolo. L’uso di ali, e poi di rotori, ha però poco a che vedere con la vera e propria levitazione senza contatto e richiede macchine grandi ed ingombranti, spesso in moto a forte velocità, ed una notevole spesa energetica. Più vicini al concetto di levitazione arrivano dispositivi quali i veicoli a cuscino d’aria ed i supporti ad aria, in cui un sottile velo di aria compressa mantiene un oggetto staccato dalla superficie di appoggio.


La scoperta dei fenomeni elettromagnetici ha aperto nuove strade, e molti inventori e scienziati si sono cimentati con questa nuova sfida: la levitazione magnetica. L’uso di forze magnetiche di attrazione (sospensione magnetica) o di repulsione (levitazione magnetica vera e propria) permette di realizzare un vero e proprio supporto senza contatto, anche in assenza di aria.


Alla fine del XIX secolo i progressi nella comprensione dei fenomeni elettromagnetici permisero di chiarire che era, in effetti, possibile usare forze magnetiche per ottenere la levitazione senza contatto, ma che allo stesso tempo era molto difficile garantire la stabilità dell’equilibrio.

Nel 1842 S. Ernshaw aveva pubblicato un articolo sull’etere luminifero che, anche se direttamente non aveva nulla a che fare con la levitazione magnetica, dimostrò che una particella elettricamente carica posta in un campo elettrico è in equilibrio instabile. Questo risultato, noto come teorema di Ernshaw, è spesso considerato come la dimostrazione teorica dell’impossibilità di ottenere la levitazione magnetica passiva, anche se solamente nel 1939 Braunbeck2 lo generalizzò dimostrando l’instabilità di un corpo dielettrico in un campo elettrico e di un corpo ferromagnetico o paramagnetico in un campo magnetico.


L’impossibilità di levitazione stabile non riguarda né i materiali diamagnetici o superconduttori, che quindi possono levitare in modo stabile in un campo magnetostatica, né particolari configurazioni in cui intervengano altri fenomeni dinamici non compresi nel teorema di Ernshaw e nelle sue generalizzazioni.


Verso la fine del XIX secolo sono state realizzate alcune applicazioni della sospensione magnetica nel campo delle macchine rotanti, in cui tuttavia la sospensione non era completamente senza contatto Infatti per stabilizzare il corpo in levitazione è possibile, senza violare il teorema sopra citato, realizzare soluzioni in cui la sospensione magnetica è stabile in alcune direzioni, mentre un supporto meccanico convenzionale stabilizza l’oggetto nelle direzioni in cui si avrebbe instabilità. Tali soluzioni, utili per ridurre il carico agente sui cuscinetti meccanici, vengono oggi definite sospensioni ibride.


Fu solamente con i progressi nel campo della scienza dei controlli automatici e dell’elettronica che fu possibile realizzare sospensioni magnetiche controllate, dotate cioè di un sistema di sensori che rilevano la posizione dell’oggetto sospeso e di un sistema di controllo in grado di pilotare gli amplificatori di potenza che alimentano gli elettromagneti di sospensione in modo da stabilizzarlo nella posizione voluta. Tali sistemi sono necessariamente attivi in quanto necessitano di una fornitura di potenza dall’esterno.


Nel 1930 J.W. Beams dell’Università della Virginia a Charlottesville riuscì a realizzare una sospensione magnetica, che oggi verrebbe definita ad un asse attivo, per una centrifuga ad alta velocità. Il primo sistema a levitazione magnetica senza contatto era stato realizzato con successo e si era dimostrato utile in un’applicazione pratica.


Nel 1933, K.W. Meissner e R. Ochsenfeld scoprirono che i superconduttori si comportavano come diamagneti perfetti, respingendo i campi magnetici e generando in questo modo una forza repulsiva (effetto Meissner).
Pochi anni dopo fu chiaro che ciò permetteva di realizzare un sistema di levitazione magnetica passiva in grado di generare forze di repulsione ben superiori a quelle, debolissime, ottenibili mediante i materiali diamagnetici convenzionali. Tuttavia la levitazione magnetica era confinata a pochissime applicazioni, per la maggior parte in sofisticate attrezzature per la ricerca l’elettronica non era in grado di fornire sistemi di controllo praticamente utilizzabili per i sistemi attivi e la necessità di operare a temperature vicine allo zero assoluto (-273 0C) rendeva estremamente difficile l’uso dei sistemi a superconduttori.
A partire dagli anni `70 il continuo progresso nei sistemi elettronici di controllo e di potenza ha permesso di realizzare sistemi attivi di levitazione che trovano applicazione in un numero crescente di macchine di vario tipo.
Verso la fine degli anni `80. La scoperta di superconduttori con temperatura critica molto più elevata di quella dei superconduttori convenzionali ampliò i possibili campi di applicazione della levitazione a superconduttori. Essi tuttavia richiedono sempre di raggiungere temperature molto basse, dell’ordine di 180 0C sotto zero: lavorare alla temperatura dell’azoto liquido è molto più semplice che dover raggiungere quella dell’elio liquido, soprattutto in termini di costi e di semplicità di impianto.
Per di più i nuovi materiali ceramici (superconduttori di tipo TI) hanno un comportamento differente da quelli classici (di tipo I): per bassi valori del campo magnetico sono soggetti all’effetto Meissner, mentre per campi più intensi il campo magnetico inizia a penetrare nel materiale e vi resta intrappolato; in queste condizioni si possono esercitare forze molto più intense, sia repulsive che attrattive. L’entusiasmo suscitato dai superconduttori ad elevata temperatura è con il tempo scemata: mentre essi iniziano a trovare applicazioni importanti in altri campi della tecnologia, soprattutto nel trasporto dell’energia elettrica le applicazioni relative alla levitazione magnetica non hanno avuto la rapida diffusione che alcuni speravano.

Tipi di sospensione magnetica

Per sospendere o far levitare un corpo in un campo magnetico è necessario superare l’instabilità predetta dal teorema di Ernshaw. Bisogna notare che l’instabilità riguarda solamente alcune delle direzioni: come chiunque può notare usando uno o due magneti permanenti ed un pezzo di ferro, un corpo ferromagnetico sospeso sotto un magnete permanente od un elettromagnete è instabile in direzione verticale (se si avvicina al magnete la forza di attrazione cresce e si avvicina ulteriormente sino ad attaccarsi, se si allontana la forza diminuisce e continua ad allontanarsi sino a cadere) ma stabile in direzione laterale. Un magnete permanente in repulsione sopra ad un altro magnete permanente è invece stabile in direzione verticale ma instabile in direzione laterale (tende a cadere di lato). Per rimuovere tale instabilità è possibile ricorrere a varie configurazioni, che possono essere classificate nel modo seguente:

Sistemi passivi
Sospensione ibrida meccanica-magnetica
Sospensione diamagnetica ed a superconduttori
Sospensione elettrodinamica
Sospensione con stabilizzazione giroscopica
Sistemi attivi
Sospensione parzialmente attiva
Sospensione totalmente attiva

Le sospensioni ibride sfruttano uno o più supporti meccanici per stabilizzare le direzioni che sarebbero naturalmente instabili. Tali configurazioni non sono quindi veramente senza contatto e pertanto, se il corpo sospeso è in moto, si ha comunque usura ed attrito. E tuttavia possibile sfruttare le forze magnetiche per ridurre il carico sull’appoggio meccanico riducendo ad esempio la resistenza al moto, oppure l’usura o ancora la necessità di usare lubrificanti in alcune parti critiche della macchina.
La levitazione diamagnetica ha l’inconveniente fondamentale di richiedere campi magnetici estremamente intensi per generare forze sufficienti a sospendere oggetti di un certo peso. Oggi si riescono a raggiungere valori del campo magnetico impensabili in passato e si sono viste dimostrazioni in cui oggetti quali una goccia d’acqua, una mela o addirittura una rana viva sono state fatte levitare utilizzando sistemi simili a quelli usati in medicina per la risonanza magnetica. Bisogna notare che i campi magnetici usati, pur molto intensi, sono statici e non sembra che causino alcun danno alle persone o ad altri esseri viventi. I superconduttori producono forze che, a parità di valori del campo magnetico, sono circa 100 volte superiori. Gli inconvenienti che ostacolano la diffusione della sospensione magnetica di questo tipo sono soprattutto legati alla bassa rigidezza della sospensione ed alla necessità di mantenere il superconduttore a bassissima temperatura, dato che anche i superconduttori ad elevata temperatura critica devono lavorare ad una temperatura inferiore a -100 0C.
I sistemi elettrodinamici sono basati sulle forze repulsive che si generano tra un magnete permanente od un elettromagnete ed un conduttore in cui siano presenti correnti indotte causate dal movimento all’interno di un campo magnetico. Si può far muovere il conduttore su un sistema di magneti fissi o far muovere il magnete sul conduttore, quello che conta è che ci sia moto relativo. In alternativa le correnti indotte possono essere dovute ad una corrente alternata, ma in quest’ultimo caso le forze di levitazione che si possono generare sono molto basse. Gli inconvenienti dei sistemi elettrodinamici, che peraltro stanno trovando applicazioni pratiche (il treno a levitazione magnetica giapponese è basato su un sistema elettrodinamico, con grossi elettromagneti superconduttori a bordo e via di corsa conduttrice), sono la necessità di avere moto relativo (il treno citato deve partire utilizzando ruote convenzionali, per “decollare” ad una certa velocità), la necessita di campi magnetici molto intensi e la notevole resistenza al moto causata dalle correnti indotte
È poi possibile sfruttare la stabilizzazione giroscopica di un magnete permanente rotante che così può levitare in repulsione sopra un magnete fisso, ma il sistema è stabile solamente in un ristretto campo di velocità di rotazione ed ha una bassissima rigidezza. E pertanto dubbio che sistemi di questo tipo possano avere applicazioni pratiche, oltre al ben noto giocattolo scientifico conosciuto con il nome commerciale di Levitron.
Nei sistemi attivi il corpo sospeso è ferromagnetico ed è attirato da un elettromagnete che lo mantiene in sospensione la configurazione sarebbe quindi instabile, se non fosse presente un sistema di controllo. Un sistema di sensori misura la posizione del corpo ed il controllore aumenta la corrente che fluisce nell’elettromagnete se il corpo si allontana, o la diminuisce se il corpo si avvicina oltre la posizione stabilita causando un aumento o una diminuzione della forza magnetica che riporta il corpo in posizione.
Dato che l’interazione tra un corpo ferromagnetico ed un elettromagnete produce solamente forze di attrazione per sospendere un corpo in una direzione è necessaria una coppia di magneti contrapposti che lo possa spostare in entrambe le direzioni, attraendolo ora in un senso, ora nell’altro. Fa eccezione la direzione verticale, per cui è sufficiente un solo magnete posto in alto, dato che la forza verso il basso è fornita dalla gravità. E così possibile usare un solo elettromagnete, in una configurazione detta ad un asse attivo: il corpo viene attirato verso l’alto, contro la forza di gravità, dal sistema attivo, mentre è naturalmente stabile in direzione orizzontale.

Tale configurazione non è però adatta ad applicazioni pratiche, dato che la rigidezza della sospensione risulta molto bassa, soprattutto in direzione orizzontale.
Per fissare completamente la posizione di un corpo, assimilato ad un punto materiale, nello spazio, occorre vincolarlo in tre direzioni, con una configurazione “a tre assi attivi”. Se si vuole impedire che moti, è necessario vincolare anche le rotazioni intorno ai tre assi, utilizzando una configurazione “a sei assi attivi”, realizzabile nel modo più generale usando 12 elettromagneti controllati. Se il corpo deve essere libero di ruotare intorno al suo asse, come avviene nelle macchine rotanti, si ha una sospensione a cinque assi attivi”.
La configurazione a cinque assi attivi è quella che permette la maggior stabilità ed è la più interessante per le macchine rotanti, ma ha l’inconveniente di essere alquanto complessa. Per ridurne la complessità si può sfruttare la stabilità naturale in alcune direzioni, abolendo uno o più assi attivi. Se ad esempio le forze esterne applicate nella direzione dell’asse di rotazione sono molto piccole, si può sfruttare la stabilità del sistema in tale direzione, con una configurazione a “quattro assi attivi” basata su quattro coppie di elettromagneti (Fig. 2).

Si nota infine che i campi magnetici necessari a far levitare un oggetto in questo modo sono tanto più intensi quanto più grande è la distanza tra i magneti ed il corpo in levitazione. Nelle applicazioni la distanza è dell’ordine di soli 0,5 mm, cosa che permette di generare forze di levitazione molto grandi, sospendendo oggetti anche di varie tonnellate, usando potenze elettriche in generale molto basse.
I sistemi di sospensione attiva fanno parte di quella vasta gamma di dispositivi, oggi definiti meccatronici, in cui si ha una fortissima integrazione tra discipline scientifico-tecnologiche diverse, quali la meccanica, l’elettronica e la scienza dei controlli automatici.
Applicazioni della sospensione magnetica

Le possibili applicazioni di dispositivi in grado di mantenere un corpo in una posizione fissa senza alcun contano fisico con altri oggetti sono molte, come ad esempio la sospensione dei modelli in 2alleria del vento. Un sistema a levitazione magnetica permette di sospendere il modello senza disturbare la corrente d’aria, simulando il campo aerodinamico in modo molto migliore di tutte le tecniche di sospensione attualmente in uso e contemporaneamente, se si usa un sistema attivo di sospensione, di regolare con grande precisione la posizione dell’oggetto rispetto alla corrente e di misurare le forze con grande precisione. Applicazioni di questo tipo sono ancora ostacolate dalla fortissima intensità dei campi magnetici necessari a causa della grande distanza tra il corpo sospeso ed i magneti.
Un’altra applicazione interessante è l’isolamento dalle vibrazioni. Mentre nella maggior parte delle applicazioni sono sufficienti i metodi consueti basati su elementi elastici e smorzanti, alcuni strumenti richiedono livelli di vibrazione così bassi da rendere necessario l’uso di tecniche di isolamento non convenzionali. In particolare, vi sono alcuni esperimenti scientifici eseguiti in condizione di microgravità su satelliti o sulla stazione spaziale, che sono resi impossibili dai disturbi provocati dal movimento di oggetti o persone a bordo del veicolo. In questi casi si può eseguire l’esperimento su una piattaforma sospesa magneticamente all’interno del veicolo spaziale: l’assenza di una via di trasmissione delle vibrazioni permette di creare un ambiente veramente privo di disturbi.
Le applicazioni più importanti della sospensione senza contatto sono però quelle in cui l’oggetto sospeso è in moto. Il moto può essere di rotazione, come nei cuscinetti magnetici per le macchine rotanti, oppure di traslazione, come nei veicoli a levitazione magnetica. Si parla in questo caso di sospensione a cinque assi, dato che il moto in una direzione (direzione di avanzamento del veicolo o rotazione intorno al proprio asse per i rotori) deve essere lasciato libero
I vantaggi della levitazione magnetica sono in questo caso notevoli. Per prima cosa non vi è contatto fisico tra parti dotate di moto relativo, e pertanto non si ha né attrito né usura. Si possono quindi raggiungere velocità relative anche molto elevate e la potenza richiesta per il moto è molto minore di quella che si ha nelle soluzioni convenzionali.
L’assenza di usura permette di aumentare la durata, riducendo i costi di manutenzione.
L’assenza di strisciamenti tra parti in moto rende superflua la presenza del lubrificante. I vantaggi sono molto diversi a seconda delle applicazioni: nelle macchine per l’industria alimentare e quella tessile i lubrificanti costituiscono sempre una possibile fonte di contaminazione del prodotto e quindi la possibilità di eliminarli è importante. In molti impianti a vuoto i vapori di lubrificante costituiscono una grave contaminazione: non per nulla una delle maggiori applicazioni dei cuscinetti magnetici è nelle pompe a vuoto usate per la fabbricazione dei semiconduttori, in cui la presenza dei vapori di lubrificante è estremamente nociva.
In molti casi inoltre l’impianto di lubrificazione è complesso, comprendendo pompe, filtri, radiatori ed altri componenti, costoso ed ingombrante. In talune macchine l’abolizione del sistema di lubrificazione può rendere economicamente vantaggioso l’uso della sospensione magnetica, anche in assenza di altri vantaggi.
I sistemi attivi di sospensione magnetica hanno in più la possibilità di modificare caratteristiche quali la rigidezza e lo smorzamento semplicemente intervenendo sull’elettronica di controllo, dando al progettista una grande libertà e rendendo possibili soluzioni che non erano neppure pensabili con le tecnologie convenzionali. In più è possibile utilizzare i sensori, che devono essere presenti nella macchina, per acquisire in tempo reale informazioni sul suo funzionamento. Tali informazioni, acquisite direttamente da un calcolatore di controllo, possono essere usate per eseguire una diagnosi, anche via Internet, dello stato della macchina, permettendo tempestivi interventi in casi di malfunzionamento.
Lo svantaggio principale sta nel maggior costo complessivo del sistema, in parte legato al fatto che si tratta di una tecnologia relativamente nuova, che non beneficia della riduzione di costi legata alla produzione in grande serie, come avviene, ad esempio, per i cuscinetti a sfere od a rulli. In alcune applicazioni pesano a sfavore anche l’assenza di una normativa specifica e la diffidenza da parte di molti utenti verso una tecnologia troppo nuova
Considerazioni simili valgono anche per i veicoli a levitazione magnetica, anche se qui il vantaggio è più quello di poter raggiungere elevate velocità che non la bassa resistenza al moto. Un treno a levitazione magnetica deve comunque vincere la resistenza aerodinamica, che alle alte velocità è maggiore di quella legata al sistema di sostentamento. Tuttavia nel campo dei sistemi di trasporto l’elevato costo della via di corsa ed i continui progressi delle ferrovie convenzionali hanno finora limitato le applicazioni. Sicuramente l’impatto dei sistemi a levitazione magnetica sui mezzi di trasporto è stato molto più quello di spingere i sistemi convenzionali ad un continuo progresso per mantenersi concorrenziali in termini di velocità, che non quello di offrire un’alternativa praticabile.
Attualmente vi sono due sistemi diversi in concorrenza tra loro: quello giapponese, basato su un sistema elettrodinamico, e quindi passivo, e quello del Transrapid tedesco, basato su un sistema elettromagnetico a cinque assi attivi. Altre soluzioni sono teoricamente possibili, anche se i grandi investimenti che sono stati già fatti per lo sviluppo dei due sistemi citati fa prevedere che, se si proseguirà con la decisione politica di realizzare un sistema di trasporto a levitazione magnetica, i due standard che si affermeranno saranno quelli sopra menzionati.

Conclusioni

La levitazione magnetica è oggi una realtà, anche se ancora confinata in alcune applicazioni di nicchia. I sistemi passivi hanno il vantaggio di una maggior semplicità e potenzialmente di un costo minore, ma la bassa rigidezza della sospensione ed altre limitazioni, quali quella di richiedere campi molto intensi (sistemi diamagnetici) o bassissime temperature (sistemi a superconduttori), non fanno prevedere una loro ampia diffusione nel prossimo futuro.
I sistemi attivi al contrario si stanno affermando in vari campi specialistici e, grazie alla sempre maggior potenza di calcolo ed alle continue riduzioni di costo dei sistemi digitali, diverranno sempre più competivi con i sistemi convenzionali.
La possibilità di ridurre la resistenza al moto e di aumentare la velocità di rotazione permette la realizzazione di macchine più compatte, leggere e soprattutto di ridurre i consumi energetici. La riduzione delle esigenze di manutenzione potrà permettere una riduzione dei costi e l’assenza di lubrificanti avrà sicuramente vantaggi di tipo ambientale.

La levitazione magnetica ad EXPERIMENTA

Ad Experimenta sono presenti due semplici dimostratori che permettono di vedere al lavoro i principi di base della sospensione magnetica attiva.
Il primo è un levitatore ad un asse attivo: un elettromagnete tiene sospesa una palla di materiale ferromagnetico. mentre due sensori ottici ne rilevano gli spostamenti verticali.
Un sistema di controllo analogico regola la corrente dell’elettromagnete per mantenere la palla in una posizione prefissata E inoltre possibile fornire al sistema una posizione variabile nel tempo: il levitatore mantiene ora la palla non più in una posizione fissa, ma le fa eseguire oscillazioni verticali controllate.
Il secondo è un motore elettrico il cui rotore è sospeso mediante un sistema a quattro assi attivi. Otto elettromagneti di sospensione, pilotati da un controllore digitale che riceve a sua volta informazioni sulla posizione del rotore da otto sensori ottici, mantengono il rotore in levitazione. ad una distanza di 5 mm dalle loro espansioni polari. Un motore asincrono, dello stesso tipo di quello realizzato più di un secolo fa da Galileo Ferraris per dimostrare il principio del campo magnetico rotante, lo mantiene in rotazione. Il sistema è dotato di due cuscinetti di atterraggio, semplici metallici su cui il rotore si appoggia in caso di mancanza di alimentazione agli elettromagneti.
Bisogna notare che non si tratta di una vera macchina operativa, ma di un dimostratore, realizzato per rendere evidenti i principi di funzionamento della sospensione magnetica attiva dei rotori. Per ottenere una buona efficienza, la distanza tra elettromagneti e rotore (il traferro) dovrebbe essere circa un decimo di quella qui adottata, cosa che permetterebbe di usare elettromagneti molto più piccoli. Anche il motore elettrico dovrebbe essere dimensionato diversamente per ottenere una buona efficienza, ma i piccolissimi valori del traferro impedirebbero una immediata comprensione del funzionamento della macchina.
Le macchine sono state realizzate dall’Officina Meccanica e dal Laboratorio Interdisciplinare di Meccatronica del Centro di Servizi di Prototipazione del Politecnico di Torino. Hanno collaborato alla realizzazione:

Dip. di Automatica e Informatica Dip. di Meccanica
Stefano Carabelli Nicola Amati
Eugenio Brusa
Dip. di Energetica Cristiana Delprete
Andrea Tonoli Giancarlo Genta
Wang Seeng Chee
Dip. di Elettronica
Marcello Chiaberge Centro di Prototipazione
Eduardo Miranda Andrea Argondizza
Andrea Delmastro
Dip. di Ingegneria Elettrica Marco Muzzarelli
Giuseppe Gianolio Francesco Muraglia
Giovanni Griva Costantino Rocco
Pietro Trocino

___________

blog: www.koroljov.splinder.comwww.ansu.it;

WiTricity: l’elettricità senza fili

venerdì 9 gennaio 2009, 1.14.03 | newsmtesla

In arrivo una nuova generazione di dispositivi in grado di ricaricarsi senza bisogno di attaccarsi alla rete

Al prossimo CES (Consumer Electronics Show) di Las Vegas, la più grande fiera dell’elettronica che si terrà dall’ 8 all’ 11 gennaio, la start-up californiana PowerBeam mostrerà al mondo un innovativo sistema in grado di trasformare l’elettricità in un laser invisibile che trasmette il calore a una cella fotovoltaica che lo riconverte poi in elettricità, utile per ricaricare piccoli dispositivi in modalità wireless.

ADDIO CAVI E CARICABATTERIE - A quanto pare, dunque, è infine arrivato il momento dell’energia senza fili – la cosiddetta WiTricity (wireless electricity), già oggetto di una ricerca dello scorso anno firmata Mit – che permette di alimentare le apparecchiature senza la necessità di connetterle fisicamente alla rete elettrica. Tra i prodotti commerciali dotati della nuova tecnologia che saranno presentati a Las Vegas vi sono cornici digitali e casse acustiche. «Faremo scomparire dal dizionario il verbo ricaricare», ha detto David Graham, co-fondatore of PowerBeam, sottolineando il fatto che grazie all’elettricità senza fili qualsiasi dispositivo si trovi in un ambiente dotato di WiTricity succhierà dall’aria l’energia che gli è necessaria senza che l’utilizzatore debba fare alcunché. Così per esempio, entrando in una stanza con rete elettrica senza fili, la batteria semiscarica di un cellulare o di un iPod si ricaricherà automaticamente anche restando nella tasca o nella borsa del proprietario, che non avrà più bisogno degli antipatici e sempre incompatibili caricabatteria.

FUTURO TOTAL WIRELESS - Secondo gli esperti,la WiTricity farà per l’elettronica di consumo ciò che il wi-fi ha fatto per l’internet, liberandoci ulteriormente dalla schiavitù dei cavi e agevolando non poco quanti hanno la necessità di lavorare anche in mobilità, come in aeroporti o altri luoghi pubblici. Grazie agli hotspot dell’elettricità non sarà più necessario attaccare alcuna spina. Attualmente il laser messo a punto dall’azienda californiana è in grado di generare circa 1,5 watt di potenza comunicando con una cella solare a10 metri di distanza. Una quantità di energia, questa, che basterebbe ad alimentare degli altoparlanti o delle lampade a Led: un laptop avrebbe invece bisogno di 30-50 watt, e secondo Graham la tecnologia può facilmente essere implementata affinché anche questo diventi possibile.

_______

fonte:corriere

martedì 6 gennaio 2009, 21.52.20 | newsmtesla

 

..esperienze quali il dolore, la sofferenza e la malattia ti ‘regalano’ una sensibilità ke ti porta (meglio dire, supporta) a riflettere su ciò che è realmente importante nella vita..

29dec08

sabato 3 gennaio 2009, 22.34.18 | newsmtesla

 

 

L’Ospedale Madonna del Buon Consiglio Fatebenefratelli di Napoli.

L’Ordine si ispira all’operato di San Giovanni di Dio, che nella prima metà del 1500 svolse in Spagna il suo apostolato a sostegno degli infermi e dei bisognosi.
Alla sua morte, nel 1550, la schiera dei discepoli incominciò a diffondere il messaggio di carità e di ospitalità ereditato dal Santo, fondando vari ospedali sia in Europa che in altri continenti.
La storia dei Fatebenefratelli in Italia ha inizio a Napoli. Qui, nel 1572 i frati Pietro Soriano e Sebastiano Arias fondarono nel borgo Chiaia il piccolo Ospedale S. Maria della Vittoria, prima tappa di un percorso che vedrà i Religiosi sempre presenti nel capoluogo partenopeo. Nel 1587, infatti, nacque in via Tribunali l’Ospedale S. Maria della Pace. Nel 1656 la loro presenza a Napoli risultò determinante per fronteggiare l’epidemia di peste abbattutasi sulla città. Nel 1853 i Fatebenefratelli caldeggiarono l’istituzione di una scuola teorico-pratica per medici, chirurghi e farmacisti e nel 1854 destinarono all’assistenza ai malati di colera una piccola casa di loro proprietà a Capodimonte. Nel 1867 i Religiosi subirono la confisca dei beni da parte dello Stato, ma proseguirono indefessi l’attività assistenziale e nel 1936 acquistarono l’ex Collegio di via Manzoni, dove nel 1937 inaugurarono l’Ospedale a tutt’oggi attivo, intitolandolo alla Madonna del Buon Consiglio.

3..2..1…___^^2009^^

sabato 3 gennaio 2009, 1.38.48 | newsmtesla

 

 

giovedì 1 gennaio 2009, 3.44.45 | newsmtesla

Non c’è una via per raggiungere la felicità…la felicità è la via..

giovedì 25 dicembre 2008, 12.06.00 | newsmtesla

 

 

 

 

l’elettrone immortale

venerdì 19 dicembre 2008, 22.51.15 | newsmtesla

…una particella essendo priva di ragionamento, di pensiero e soprattutto di un “orologio” come fa a distinguere il passato dal futuro? Una particella elementare, quale è l’elettrone (scoperto da Thomson nel ….), è un’entità fatta di nient’altro che di sè stessa.

Come fa, allora, a concepire l’esistenza o la nn esistenza di un passato, di un presente e di un futuro??? Wigner ci suggerisce che per tutte le particelle elementari, qlc sia il modo in cui interagiscono, il passato e il futuro devono essere totalmente equivalmenti.

dunque???? ritorniamo al punto di partenza.. Se consideriamo x veritiero il teorema di Wigner, il tempo, inesistente a livello subatomico nn dovrebbe esistere neppure a livello macroscopico..

venerdì 19 dicembre 2008, 22.41.35 | newsmtesla

giovedì 18 dicembre 2008, 13.41.09 | newsmtesla

?

lunedì 15 dicembre 2008, 11.38.30 | newsmtesla

nn importa se nn ci vediamo o ci vediamo spesso…  nn importa se le nst strade si dividono o  si uniscono…nn importa se le nstr scelte ci portano a stare vicini o lontani… La cosa ke conta è ke ci vogliamo bene, molto bene!

venerdì 12 dicembre 2008, 0.20.15 | newsmtesla

 

 

Alessio II

giovedì 11 dicembre 2008, 23.19.12 | newsmtesla

La materia e l’energia sono due volti della stessa realtà. La materia si può trasformare in energia e l’energia in materia. Così la materia perde quel valore di compattezza che per secoli aveva avuto nella fisica classica, ed acquista un valore più fluido, essa è principalmente energia che “appare” come qualcosa di compatto, ma non lo è nella sua natura più intrinseca.  Tutto l’universo che ci circonda, gli oggetti e lo stesso nostro corpo, sono forme diverse della stessa energia fondamentale, che sembra qualcosa di separato dal resto e con un aspetto nettamente solido e pesante, mentre in realtà è etereo e impalpabile.

 

E la teoria della relatività è ormai confermata da numerosi esperimenti scientifici. Si è riusciti a trasformare la materia in energia un giorno riusciremo a trasformare l’energia in materia.

Ma quel che più ha sconvolto la concezione della materia è stato lo sviluppo del Principio di Indeterminazione di Eisenberg. Secondo tale principio, se si studia una particella di materia in movimento e se ne conosce la posizione esatta, non si può conoscere la sua velocità, e viceversa. Se invece si studia un proiettile lanciato da un cannone o una pistola, se si conosce con precisione la posizione in un momento e la forza e la direzione con cui è stato lanciato, se ne potrà conoscere la velocità e tutta la traiettoria che percorrerà fino ad arrivare alla meta. Quel che si riesce a definire per il mondo macroscopico non è possibile quando studiamo il mondo microscopico delle particelle. Forse perché, quanto più ci avviciniamo al più piccolo del più piccolo, cioè all’infinito, tanto meno possiamo conoscere con determinazione la realtà che ci circonda.

Insomma, quella materia che sembrava così compatta, inizia ad avere delle caratteristiche più simili a quelle della mente che della materia stessa. 

La materia sembra essere soltanto una “qualità della mente cosmica”, cioè di Dio, dell’Infinito.

Infine, secondo il Principio di Indeterminazione, l’osservatore gioca un ruolo non più passivo, come un essere esterno e staccato dal mondo che osserva, ma come qualcuno che influenza e partecipa col mondo che osserva. La particella che si muove sarà influenzata dall’osservatore che la sta studiando.

Quindi il mondo non è più “esterno” a noi ma “parte” di noi. L’uomo e il mondo sono “un tutt’uno”, proprio perché sono entrambi espressioni della stessa, unica energia universale che pervade ogni cosa essendone la sua natura fondamentale. 

L’uomo è l’universo, l’uomo è Dio, la materia non è altro che una condensazione dell’energia divina.

E questi concetti della fisica moderna, a cui solo ora gli scienziati più aperti a nuove conoscenze si stanno avvicinando, sono esistiti da tempi molto antichi nel pensiero filosofico dell’India e li troviamo presenti in molte tradizioni filosofico-religiose e negli insegnamenti dei Grandi Maestri Illuminati.

giovedì 11 dicembre 2008, 23.16.31 | newsmtesla

Ogni qualvolta nella nostra vita ci è capitato qualcosa di grave, la domanda ricorrente nella nostra mente era: “Perché a me?” Perché mi debbo trovare di fronte a situazioni simili nella mia vita? Soprattutto quando la situazione è di quelle negative, la tendenza dell’uomo è di incolpare o gli altri o Dio per ciò che gli è capitato. Ma, in effetti, chi è responsabile di ciò che ci capita? Sono i fattori esterni che controllano gli eventi oppure ne siamo responsabili?? Noi siamo gli architetti della nostra vita”. Noi siamo completamente e totalmente responsabili di qualunque cosa ci capita nella vita. La mente e la materia sono collegati. La mente influenza la materia e la materia influenza la mente. Il potere della mente sulla materia è il potere del pensiero creativo. Questo universo si basa su certe leggi e certi principi, che sono alla base dell’esistenza umana.

Uno dei principi della filosofia indiana: “tu diventi ciò che pensi”. Il mondo è la manifestazione del nostro stato interno. Le situazioni che ci si presentano, le persone che incontriamo, i problemi con cui dobbiamo confrontarci, la varietà delle esperienze di vita che abbiamo sono la proiezione di ciò che è dentro di noi. In altre parole, noi creiamo la nostra Realtà. Noi siamo gli architetti del nostro Destino.Le percezioni sono filtri che filtrano le esperienze che abbiamo della realtà. La Realtà percepita diventa ad un certo punto una Realtà manifestata. Tu diventi ciò che pensi. Noi troviamo ciò che abbiamo percepito. Il pensiero è immensamente potente. Ha la forza di creare. Ogni volta che percepiamo, ospitiamo un pensiero che ha una carica o una emozione, il processo della creazione è stato messo in moto. Una freccia è stata scoccata nel piano etereo, la sfera del pensiero. Una volta che è stata scagliata, interviene “la legge dell’attrazione delle specie omogenee”. Questo pensiero attrae tutti i pensieri simili. Tutte le frecce simili formano un fascio e quando è stata raggiunta la soglia, viene messa in moto la “legge dell’azione reciproca”. Il pensiero che hai rilasciato ora si è materializzato in azione. Raccogli ciò che hai ripetutamente seminato. Se la freccia che hai scagliato era “giudizio”, incontrerai persone che emettono giudizi. Se si trattava di “tradimento”, sarai tradito, se era “odio” sarai odiato, se si è trattato di paura, tale situazione si manifesterà.
“Perché mi è capitato questo?” non è più un paradosso. Te lo sei creato. Noi non abbiamo una chiara percezione per vedere il rapporto che c’è tra il pensiero e l’azione. Forse l’intervallo di tempo che corre tra i due è troppo lungo perché noi possiamo seguire la traccia. Dal pensiero all’azione, forse ci vorrà una settimana, un mese, un anno, un decennio o più. Un esame attento della nostra vita ci aiuterà a vedere il legame. La velocità dell’influenza reciproca dipende dall’evoluzione dell’individuo. Per raggiungere la soglia a volte ci vorrà una vita intera o anche più.  

mercoledì 10 dicembre 2008, 21.44.41 | newsmtesla

Cogito ergo sum

Con riferimento alla prima regola del metodo, Cartesio si trova davanti un problema non da poco: quali aspetti della realtà si possono considerare chiari e distinti in modo da prenderli a fondamento della nuova conoscenza?

Cartesio sostiene che occorre dubitare di tutto, persino della nostra percezione sensoriale, in quanto “non vi sono indizi concludenti né segni abbastanza certi per cui sia possibile distinguere nettamente la veglia dal sonno“. Come possiamo sapere in modo certo e incontrovertibile se questa nostra esistenza sia anch’essa un sogno oppure la realtà? Nemmeno riguardo agli assiomi della matematica e della geometria possiamo sapere con certezza se essi corrispondano effettivamente alla realtà, dobbiamo infatti supporre, spingendo il dubbio all’iperbole, che esista un dio talmente onnipotente da essere ingannatore, un dio che ci inganni anche sulle conoscenze che riteniamo più certe e universali.

Cosa resiste allora al dubbio iperbolico, a questo scetticismo radicale? La risposta di Cartesio è che l’unico aspetto della realtà che viene percepito indubbiamente in modo chiaro e distinto è il pensiero che si pone il dubbio: l’esistenza incontrovertibile del pensiero che si pone il dubbio permette di affermare cogito ergo sum (penso dunque sono), perché se esiste il pensiero, deve pur esistere anche l’entità che esprime il pensiero del dubbio. L’esistenza del pensiero (cogito) è dunque quel residuo minimo della conoscenza che resiste ad ogni dubbio, compreso quello iperbolico.

Il cogito cartesiano suggerisce quindi l’ipotesi che le cose non siano necessariamente esistenti oggettivamente e indipendentemente dal pensiero stesso, ma che ogni cosa esistente è qualcosa che di per sé è comunque pensata (quindi espressa dal soggetto) e che la realtà esterna al pensiero non è un dato da assumere immediatamente come certo e incontrovertibile: anche il soggetto che si pone il dubbio sa di essere in modo certo e incontrovertibile un soggetto pensante, ma la realtà stessa del suo corpo non può essere affermata con assoluta certezza desumendola dal solo cogito.

Nella prospettiva realistica, gli enti della natura e, una volta prodotti, anche i manufatti dell’uomo, esistono anche senza il pensiero: sono cose extrasoggettive. La filosofia moderna (quantistica) mostra invece che non solo i nostri stati inerti, psichici, ma anche gli oggetti esterni, la terra, gli alberi, il cielo, gli astri e tutti gli enti della natura sono dei pensati.

lunedì 8 dicembre 2008, 21.20.40 | newsmtesla

Il Tempo nn esiste..

L’altro giorno, leggendo un interessante articolo su un giornale, mi sono posto alcune domande su cosa sia realmente il Tempo. Il tempo…. esiste veramente? o è soltanto una nst struttura mentale… un’eredità di un ‘passato’ lontano. Tutte le nostre esperienze si collocano nello spazio e nel tempo. Kant arriva a dire che lo spazio ed il tempo sono categorie della mente definite a priori e non derivate dall’esperienza. La nostra percezione dei fenomeni sarebbe soggetta allo spazio ed al tempo in quanto modalità di funzionamento del cervello e non in relazione ad una evoluzione concettuale delle esperienze. Una prima difficoltà consiste nel concetto di tempo che scorre per sempre all’infinito, già S. Agostino notava il paradosso che esiste tra l’istante presente infinitesimo e un tempo che non ha fine. S. Agostino, seguendo il filo di una tale argomentazione, arrivava a sostenere che la realtà è fuori dal tempo, il tempo non esiste è solo una nostra percezione.

Il nostro modo di costruire concetti si basa su azioni che possiamo effettuare e sulle possibilità percettive tipiche della nostra struttura biologica; la nostra struttura biologica è determinante per la formazione di concetti + o - complessi. I fisici hanno introdotto il tempo nelle loro equazioni sulla base di alcune considerazioni pratiche. Possiamo misurare lo spazio tramite il confronto con un metro campione, altrettanto possiamo misurare il tempo utilizzando un orologio. Gli orologi sono costruiti sulla base di movimenti campione, per esempio la rotazione della terra su se stessa, oppure l’oscillazione periodica di un pendolo… Un tipo particolare di orologio è basato sull’emissione radioattiva di particelle instabili; nella maggioranza dei casi misuriamo il tempo sulla base di un evento che si ripete con regolarità. Esiste una ragione per cui non è possibile invertire il senso del tempo in fisica: la legge di crescita indefinita dell’entropia.

Questa legge proviene dalla termodinamica e afferma che un sistema fisico evolverà nel senso di maggior disordine; tenderà ad occupare indistintamente tutti gli stati possibili compatibilmente con la disponibilità di energia.

Questa legge fa supporre che il tempo abbia avuto un inizio. E se ha avuto un inizio… si può ragionevolmente osservare ke possa avere anke una fine…

Ma può esistere una realta senza il tempo?

L’aumento col tempo del disordine o dell’entropia è un esempio della freccia del tempo, qualcosa che distingue il passato dal futuro, dando al tempo una direzione ben precisa. Esistono almeno tre frecce del tempo diverse:

la direzione del tempo in cui aumenta il disordine o l’entropia;

la direzione in cui ricordiamo il passato e non il futuro;

la direzione del tempo in cui l’universo si sta espandendo anziché contraendo.

Le leggi fisiche determinano il movimento dei corpi con grande precisione. Noi interpretiamo gli eventi in termini di causa ed effetto. Causa ed effetto hanno luogo nel tempo: la causa precede l’effetto. Passato e futuro sembrano completamente determinati da leggi fisiche. È possibile prevedere con grande precisione il moto futuro di una palla di cannone.

Prima della meccanica quantistica le equazioni della fisica delineavano un universo completamente prevedibile nella sua evoluzione temporale.Era un problema di calcolo e non di principio poter prevedere il futuro. Prima del XX secolo era opinione diffusa che l’universo fosse statico. Oggi sappiamo che è impossibile avere un modello statico infinito dell’universo in presenza di gravitazione. Vi sono tre teorie che hanno modificato questa visione del mondo:

la teoria della relatività ristretta,
la teoria della relatività generale,
la teoria quantistica.

La teoria della relatività ristretta Il tempo non è più assoluto. Ogni osservatore avrebbe un proprio tempo relativo indipendente. Secondo tale teoria due gemelli uno sulla terra ed uno su un’astronave invecchierebbero in maniera diversa, in particolare quello in viaggio vedrebbe scorrere il proprio tempo più lentamente. Gli orologi di un sistema di riferimento in moto rallentano, in particolare il tempo per un viaggiatore alla velocità della luce sarebbe fermo. In particolare il tempo presente non è più infinitesimo ma finito e dipendente dalla velocità della luce.

 

La teoria della relatività generale: La teoria della relatività generale. In questa teoria la gravità viene interpretata come curvatura dello spazio e del tempo. Il tempo e lo spazio sarebbero soggetti alla presenza di masse gravitazionali, i corpi tenderebbero a muoversi in linea retta ma essendo la struttura dello spazio-tempo incurvata le traettorie stesse risulterebbero curve; L’universo sarebbe finito ma senza confini incurvato su se` stesso dal campo gravitazionale. Il tempo e lo spazio si fondono in un unico spazio-tempo che può essere incurvato dalla presenza di forze gravitazionali.

 

la teoria quantistica.La teoria quantistica introduce una imprevedibilità nelle leggi fisiche. Il moto di un elettrone non è più descrivibile con il concetto di traettoria. Le equazioni sono ancora determinate nel tempo ma un oggetto fisico non può più essere descritto con un’unica storia: occorrono infinite storie tutte compatibili per descrivere il moto di un oggetto. Un tipico paradosso che ne scaturisce e ben descritto dal famoso esperimento del gatto di Schrodinger. Si mette un gatto in una scatola in cui del cianuro può essere liberato da un evento subatomico come l’emissione radioattiva di una particella: soggetta ad una certa probabilità.

Fintanto che non si apre la scatola il gatto si trova in due storie descritte deterministicamente dalle equazioni della meccanica quantistica in una storia il gatto e` morto, in un’altra coesistente il gatto è vivo.

Per cui si può pensare che il gatto sia contemporaneamente vivo e morto.

L’osservatore con il suo intervento di misura, aprendo la scatola, fa collassare lo stato misto vivo-morto in uno stato definito: il gatto è vivo oppure è morto. Tutto ciò fa pensare che potrebbe esserci un’azione da parte della consapevolezza umana su stati fisici della materia. L’operazione di misura determina un processo irreversibile sullo stato fisico che fornisce una direzione al tempo. Per evitare il coinvolgimento dell’osservatore nei processi di misura alcuni hanno postulato la coesistenza di infiniti universi.

…. in conclusione il tempo è una nostra sovrastruttura mentale? Sono le decisioni quotidiane che determinano il nstr universo fatto di passato, presente e futuro…?? il tempo nn esiste, siamo noi ‘osservatori’ che scegliendo tra il molteplice delle possibilità, creiamo la realtà che vogliamo?

E se fossero le nstr scelte a determinare qst tipo di realtà? (di fatto una realtà limitata ……….)

Ma prima di effettuare una scelta nn entra in gioco il pensiero? un ragionamento…? E se fosse, allora, il Pensiero a determinare la nstra realtà circostante.??

Ma il pensiero nn presuppone gia’ una scelta inconscia ??? ed una scelta, per definizione, nn fa collassare le infinite possibilita “quantistiche” che oscillano intorno a noi ???

allora bisognerebbe agire sull’inconscio…? e agendo sull’incoscio potremmo svincolarci da qst tipo di realtà e quindi anke dal tempo???  

lunedì 8 dicembre 2008, 21.18.51 | newsmtesla

sabato 22 novembre 2008, 11.22.34 | newsmtesla

Modelli Quantistici della Coscienza

In questo articolo viene presentata una breve rassegna dei modelli quantistici della coscienza rinvenuti in letteratura. Nella parte conclusiva vengono forniti due criteri di classificazione dei modelli giungendo così a selezionare unicamente quei modelli che nascono dall’unione della meccanica quantistica con la relatività ristretta.

 

 

1. Premessa

Fino a pochi decenni fa, la sfera dei contenuti e degli stati coscienti non era reputata un oggetto adeguato di indagine scientifica. Essa appariva troppo sfuggente, troppo imparentata con concetti metafisici per poter essere ricondotta al modello naturalistico delle leggi universali e al rigore dei metodi e delle procedure di controllo in uso nella scienza. A partire dagli anni ’80, tuttavia, il vertiginoso progresso delle neuroscienze ha portato conferme sperimentali sempre più numerose sul legame esistente tra fenomeni cerebrali e processi mentali. Acquisita in tal modo una solida base fisiologica di riferimento, l’indagine sulla mente e sulla coscienza ha cessato di essere considerata un argomento di pura speculazione filosofica, per entrare a pieno titolo nel campo della ricerca scientifica.

Gli autori – scienziati e filosofi – che attualmente si interessano al problema della coscienza e degli stati mentali sono moltissimi, ed estremamente variegata è la gamma delle loro posizioni. Le teorie sulla coscienza proposte negli ultimi decenni vanno dai modelli fondati sulla fisica classica (ad esempio i modelli avanzati da Paul Churchland, Antonio Damasio, Daniel Dennett, Gerald Edelman, Francisco Varela e John Searle) ai modelli di ultima generazione che tentano di fondare una spiegazione delle dinamiche coscienti sui principi della Meccanica Quantistica (MQ), quali i concetti fondamentali di dualismo onda-particella, collasso della funzione d’onda, retrocausalità, non località e campo unificato (ad esempio i modelli proposti da John Eccles, Stuart Hameroff, Roger Penrose e Chris King). Malgrado i progressi finora ottenuti, una autentica comprensione dei fenomeni mentali appare ancor oggi un traguardo piuttosto lontano.

2. I modelli quantistici della coscienza: una cronologia

Verranno descritti brevemente, in ordine cronologico a partire dall’anno 1924, i modelli

quantistici della coscienza rinvenuti in letteratura.

 

2.1. Il modello di Alfred Lotka: la costante di Planck come linea di confine tra mondo

oggettivo e mondo soggettivo (1924).

Il modello di Lotka, proposto prima della scoperta del principio di indeterminazione di

Heisenberg e della formulazione dell’interpretazione di Copenhagen, può essere considerato il primo modello quantistico della coscienza. Lotka ipotizza due tipi di coscienza. La prima, da lui chiamata deterministica, corrisponde al mondo esterno dei fatti oggettivi. La seconda, da lui chiamata soggettiva, corrisponde al mondo interiore (qualia). Secondo Lotka, la coscienza del primo tipo (deterministica) è relativa a tutti quei fenomeni che si manifestano al di sopra della costante di Planck. A questo livello si ipotizzava che vigessero le leggi deterministiche della fisica newtoniana. La coscienza del secondo tipo (soggettiva) avrebbe invece luogo al di sotto della costante di Planck, dove le leggi della fisica newtoniana non hanno più modo di operare.

 

2.2. Il modello di Niels Bohr: la coscienza crea la realtà attraverso il collasso della funzione d’onda (1930).

L’interpretazione di Copenhagen, proposta da Niels Bohr e Werner Heisenberg, ipotizza un collegamento diretto tra coscienza e proprietà della Meccanica Quantistica. Infatti,la CI

riconosce esplicitamente alla coscienza (tramite l’esercizio dell’osservazione o  misurazione del sistema), la capacità di far collassare la funzione d’onda determinando, in questo modo, la manifestazione della realtà stessa.

Secondo il modello proposto da Bohr e Heisenberg, la coscienza sarebbe una proprietà

immanente della realtà che precede e determina, attraverso l’osservazione ed il conseguente collasso della funzione d’onda, tutta la realtà esistente.

 

2.3. Il modello di Lugi Fantappiè: onde anticipate e coscienza (1941).

Il punto di partenza del modello di Fantappiè è, dal punto di vista fisico-matematico,

l’operatore di d’Alembert. Tale operatore fu ottenuto da Klein e Gordon nel 1927, quando

riscrissero l’equazione d’onda di Schrödinger al fine di renderla compatibile con gli assunti

della relatività ristretta.

L’operatore di d’Alembert prevede due tipi di onde: onde ritardate che divergono dal passato verso il futuro e onde anticipate che divergono a ritroso nel tempo, dal futuro al passato e che, per noi che ci muoviamo avanti nel tempo, corrispondono ad onde convergenti.

Studiando le proprietà matematiche di queste onde Fantappiè scoprì che le onde divergenti sono governate dalla legge dell’entropia, mentre le onde convergenti sono governate da una  legge simmetrica, che porta alla creazione di differenziazione e ordine, e che Fantappiè chiamò la legge della sintropia. In particolare, Fantappiè identificò nell’organizzazione dei sistemi viventi la manifestazione della sintropia, ossia delle onde anticipate. Partendo dalle proprietà matematiche della sintropia e dell’entropia, Fantappiè giunse a formulare un modello della coscienza articolato sui seguenti punti:

  • Libero arbitrio: elemento costitutivo della coscienza, viene visto da Fantappiè come

conseguenza di uno stato costante di scelta tra informazioni provenienti dal passato e

sollecitazioni provenienti dal futuro.

  • Sentimento di vita: altro elemento costitutivo della coscienza è, secondo Fantappiè, il

sentimento di vita, quale diretta conseguenza delle onde convergenti, che si muovono a

ritroso nel tempo, dal futuro verso il passato. Fantappiè sostiene questa affermazione

argomentando che, nel momento in cui i sensi del mondo esterno oggettivo si

affievoliscono, come negli stati di meditazione profonda, le persone sperimentano forme di coscienza in cui passato, presente e futuro coesistono. La coesistenza di passato,

presente e futuro discende direttamente dai principi della relatività ristretta e dalla loro

applicazione nell’equazione di Klein-Gordon.

  • Memoria non locale: Fantappiè ipotizza, come conseguenza del principio della sintropia,

l’esistenza di collegamenti non locali nell’universo. Ad esempio, la memoria dei sistemi

viventi potrebbe manifestarsi come collegamenti non locali con eventi passati che, in base

all’equazione di Klein-Gordon, sono tuttora presenti.

L’impostazione di Fantappiè può essere oggi ritrovata nell’Interpretazione Transazionale della MQ (TI) e nel modello della coscienza proposto da Chris King.

 

2.4 Il modello di David Bohm: l’ordine implicato (1950).

Bohm introduce i concetti di ordine implicato e ordine esplicato. Nell’ordine implicato non vi è differenza tra mente e materia, mentre nell’ordine esplicato la mente e la materia si separano.

Quando ci muoviamo all’interno della materia, ossia nel mondo quantistico del microcosmo, l’ordine implicato emerge, mentre quando ci muoviamo al di sopra del livello di azione della MQ, ossia nel macrocosmo, l’ordine esplicato prende il sopravvento. Secondo Bohm la coscienza coincide con l’ordine implicato. Nell’ordine implicato le particelle prendono forma, si  “in-formano” attraverso il collasso della funzione d’onda, e quindi l’ordine implicato coincide con il processo di in-formazione (prendere forma). Bohm era solito spiegare l’ordine implicato riportando l’esempio della musica. Quando ascoltiamo un brano musicale, infatti, percepiamo l’ordine implicato nel suono (cioè l’informazione associata al suono come esperienza soggettiva dell’ascolto del brano musicale) e non solo l’ordine esplicato dal suono (parametri fisici del suono, come la frequenza e l’ampiezza delle onde sonore). Secondo Bohm, ogni particella materiale è dotata di una rudimentale qualità mentale. Il processo dell’informazione, cioè del prendere forma da parte della materia, costituisce il ponte tra le qualità mentali e le qualità materiali delle particelle. Al livello più basso della realtà, cioè al livello della MQ, i processi mentali (coscienti) e quelli fisici sarebbero essenzialmente la stessa cosa.

 

2.5 Il modello di Herbert Fröhlich: l’ordine dei condensati di Bose-Einstein (1968).

I condensati di Bose-Einstein sono uno stato della materia che si raggiunge a temperature

estremamente basse. Questi condensati si manifestano come strutture estremamente

“ordinate”, e l’ordine raggiunto è tale che tutte le particelle, che compongono il condensato, si comportano come se fossero un’unica particella.

Nel 1960 Fröhlich mostrò che durante la digestione tutti i dipoli si allineano e oscillano in

modo perfettamente coordinato. Di conseguenza, Fröhlich ipotizzò che ciò potesse portare, nelle membrane cellulari a temperatura ambiente, alla formazione di condensati di Bose- Einstein. Una proprietà dei condensati di Bose-Einstein è che essi consentono di amplificare i  segnali e di codificare le informazioni, elementi che, secondo Fröhlich, sono alla base della coscienza. Il lavoro di Fröhlich venne ripreso e ampliato nel modello QBD (Quantum Brain Dynamics) della coscienza, proposto da Umezawa e Ricciardi.

2.6. Il modello di Evan Walker: il tunneling sinaptico (1970).

Nella meccanica quantistica, con il termine effetto tunneling si indica il fenomeno per cui una particella viola i principi della meccanica classica oltrepassando una barriera (ad esempio una differenza di potenziale) più forte dell’energia cinetica della particella stessa.

Secondo Walker, grazie all’effetto tunneling gli elettroni possono passare da una neurone

adiacente all’altro, creando così un network neurale “virtuale” (e parallelo a quello

macroscopico o “reale”) a cui sarebbe associata la coscienza. Il sistema nervoso reale opera attraverso messaggi sinaptici, mentre il sistema nervoso virtuale opererebbe attraverso effetti di tunneling quantico. Il sistema nervoso reale seguirebbe le leggi della fisica classica, mentre il sistema nervoso virtuale seguirebbe le leggi della meccanica quantistica. La coscienza sarebbe perciò il prodotto delle leggi della meccanica quantistica, anche se il comportamento del cervello può essere descritto in base alle leggi della fisica classica.

 

2.7. Il modello di Umezawa e Ricciardi: Quantum Field Theory e Quantum Brain Dynamics (1980).

Nel 1967 Luigi Maria Ricciardi e Horoomi Umezawa proposero un modello della coscienza

basato sulla Teoria Quantistica dei Campi (QFT, Quantum Field Theory). Questo modello è un ampliamento del modello proposto da Fröhlich sui condensati di Bose-Einstein. Le funzioni più elevate ed evolute del cervello vengono viste come conseguenza di fenomeni quantici di ordine collettivo. In particolare, la memoria viene associata ai “vacuum states”. Nella QFT i vacuum states sono i livelli più bassi di energia in cui, per definizione, non sono contenute particelle. La stabilità dei vacuum states li rende ideali come unità di memoria. Umezawa e Ricciardi sottolineano che una delle proprietà dei vacuum states è quella di consentire correlazioni e forme di ordine che possono estendersi fino al livello macroscopico, producendo campi che interagiscono con il sistema neurale. Secondo Umezawa, la coscienza sarebbe il risultato della totalità dei processi fisici di tipo quantistico, mentre il sistema nervoso sarebbe relegato alla sola funzione di trasmissione dei segnali macroscopici.

Il modello di Umezawa è stato ripreso e sviluppato ulteriormente da Giuseppe Vitiello.

 

2.8. Il modello di John Carew Eccles: gli psiconi (1986).

John Carew Eccles, premio Nobel per la fisiologia nel 1963, scoprì che in tutti i tipi di sinapsi a trasmissione chimica gli impulsi che invadono un reticolo vescicolare presinaptico determinano al massimo una sola esocitosi. Esiste un principio di conservazione al livello del trasmettitore sinaptico, attraverso un processo ancora sconosciuto di complessità superiore.

L’esocitosi è l’attività unitaria fondamentale della corteccia cerebrale. Con i principi della

meccanica quantistica è possibile spiegare la bassa probabilità di emissioni quantiche

(esocitosi) in risposta agli impulsi nervosi. Eccles introduce gli psiconi, particelle di coscienza, che ipotizza abbiano la capacità di connettersi insieme per offrire un’esperienza unificata.

Prove sempre più numerose, secondo Eccles, indicano che il complesso processo

dell’esocitosi e la sua natura probabilistica sono governati da transizioni quantistiche fra stati molecolari metastabili. Per Eccles, la mente è un campo non-materiale; l’analogo più simile è forse un campo di probabilità. La coscienza appartiene ed è evocata dall’attenzione che agisce su aree selezionate della corteccia cerebrale determinandone l’eccitazione.

 

2.9. Il modello di Nick Herbert: la coscienza pervasiva (1987).

Secondo Herbert la coscienza è una proprietà che pervade tutta la natura, ed è una

componente fondamentale dell’universo come lo sono le forze e le particelle. Herbert giunge a questa affermazione analizzando i principi di probabilità, di assenza di materia (gli oggetti si formano solo quando vengono osservati) e di interconnessione (entenglement). Secondo Herbert, questi tre principi sono direttamente collegati alle tre caratteristiche fondamentali della coscienza: libero arbitrio, ambiguità di fondo e interconnessione psichica.

 

2.10. Il modello James Culbertson: lo psicospazio (1987).

Secondo Culbertson la memoria è alla base della coscienza, e nasce nel momento in cui la materia cambia il suo stato nel tempo. In altre parole, la memoria non è altro che il risultato di connessioni che si stabiliscono tra stati distinti dello spazio-tempo. La memoria non è quindi il frutto di dati che vengono immagazzinati nel cervello, ma di collegamenti tra momenti distinti dello spazio-tempo. Di conseguenza, Culberston afferma che la coscienza non risiede nel cervello, ma nello spazio-tempo dove risiede la memoria stessa. Per descrivere questo concetto, Culberston conia il termine di psico-spazio.

Dal momento che tutti gli oggetti della natura cambiano il proprio stato nel tempo, Culberston arriva alla conclusione che tutti gli oggetti della natura potrebbero essere dotati di coscienza.

2.11. Il modello di Ian Marshall: Quantum Self Theory (1989).

Il lavoro di Marshall prende le mosse dalla proposta di Fröhlich e collega le proprietà olistiche della coscienza con l’eccitazione dei condensati di Bose-Einstein. Quando i condensati vengono eccitati da un campo elettrico, si ha un’esperienza cosciente. Marshall ipotizza che il collasso della funzione d’onda vada sempre verso la formazione di condensati Bose-Einstein e che vi sia quindi una tendenza universale verso la creazione di vita e coscienza (principio antropico). Le mutazioni non avverrebbero quindi in modo casuale, ma tenderebbero verso la formazione di vita e coscienza. Il mondo mentale (l’esperienza conscia) coinciderebbe con i bosoni (particelle attrattive come i gravitoni e i gluoni che stabiliscono “relazioni” e possono  condividere gli stessi stati), mentre il mondo materiale coinciderebbe con i fermioni (elettroni, protoni, neutroni) in cui non vi è condivisione degli stessi stati.

 

2.12. Il modello di Michael Lockwood: l’interpretazione “Many Minds” (1989).

Il modello di Lockwood si riferisce esplicitamente all’interpretazione della MQ denominata

“Many Worlds” (vedi sopra). Secondo Lockwood, le sensazioni sono attributi intrinsechi degli stati fisici del cervello e sussisterebbero tutte contemporaneamente, creando un sistema a tante “menti” quante sono le combinazioni di tutti gli stati mentali possibili. La coscienza andrebbe poi a “selezionare” nel cervello le sensazioni, estraendole da tutte le possibili, ma non le creerebbe.

 

2.13. Il modello di Roger Penrose e Stuart Hameroff: ORCH-OR, Orchestrated Objective

Reduction (1989).

Il modello di Hameroff e Penrose parte dal presupposto che la realtà sia composta da 3

mondi: il mondo platonico, il mondo fisico e il mondo mentale. Mentre nell’interpretazione di Copenhagen il mondo fisico viene dete minato dal mondo mentale (dall’osservazione)

attraverso il collasso della funzione d’onda, nel modello di Penrose e Hameroff questi mondi sono separati e interagiscono tra loro attraverso il collasso della funzione d’onda.

Penrose e Hameroff suggeriscono che nei microtubuli, strutture di tubulina che formano il

citoscheletro dei neuroni, abbia luogo, ogni 25 msec, il collasso della funzione d’onda (OR), producendo così un’esperienza cosciente, cioè portando il mondo mentale ad entrare in contatto con il mondo fisico.

Secondo gli autori l’insieme dei collassi della funzione d’onda darebbe origine al flusso della coscienza e ad una “orchestrazione”, cioè a processi di computazione quantica che si autoorganizzano.

 

2.14. Il modello di Chris King: Supercausalità e coscienza (1989).

Il matematico Chris King propone un modello fondato sull’interpretazione transazionale (TI) della MQ che, come abbiamo visto, prevede una duplice soluzione dell’equazione d’onda relativizzata (equazione di Klein-Gordon).

Nel modello proposto, King afferma che gli oggetti quantici si trovano costantemente di fronte a biforcazioni (sollecitazioni provenienti dal passato e sollecitazioni provenienti dal futuro) che possono essere superate unicamente operando scelte. King ricorda i lavori di Eccles, Penrose e Hameroff che dimostrano l’esistenza di strutture quantiche nei sistemi viventi e giunge così ad ipotizzare che i sistemi viventi stessi siano influenzati non solo dalla causalità ma anche dalla retrocausalità (supercausalità). Ciò porrebbe i sistemi viventi in uno stato costante di scelta che, secondo King, è una caratteristica comune a tutti i livelli dell’organizzazione biologica, dalle molecole fino alle macrostrutture. Dal momento che le unità fondamentali di un organismo biologico agirebbero ognuna in base al libero arbitrio e, dal momento che gli esiti di questo libero processo di scelta non sono determinabili a priori, il sistema stesso dovrebbe manifestare costantemente dinamiche caotiche e sfuggire così ad un approccio di studio puramente deterministico. King individua due livelli di spiegazione della coscienza. Nel primo livello, l’informazione si trasferisce dalla mente al cervello, attraverso le scelte operate esercitando il libero arbitrio; nel secondo livello, l’informazione passa dal cervello alla mente, grazie alla selezione e all’amplificazione dei segnali (ad esempio i segnali sensoriali ricevuti dai recettori periferici, ma anche i segnali interni) operata dalle dinamiche caotiche (ad esempio le strutture frattali) del cervello.

2.15. Il modello di Matti Pitkänen: TGD, Topological Geometro Dynamics (1990).

Il modello TGD della coscienza si basa sull’ipotesi di salti quantici che coinvolgono momenti diversi del tempo (quantum jumps between quantum histories) e sul concetto che tutto è coscienza. In base a questo modello si parte da uno stadio iniziale di massima coscienza che diminuisce progressivamente via via che le particelle sviluppano interconnessioni tra di loro (entanglement). In altre parole, il Sé rimarrebbe cosciente finché non è entangled e la coscienza può solo essere persa.

 

2.16. Il modello di Karl Pribram: Modello Olonomico della mente (1991).

Nel suo modello, Karl Pribram propone una ipotesi olografica della memoria e della mente. Un ologramma è una fotografia tridimensionale prodotta con l’aiuto di un laser. Per creare un ologramma, l’oggetto da fotografare è prima immerso nella luce di un raggio laser, poi un secondo raggio viene fatto rimbalzare sulla luce riflessa del primo e lo schema risultante dalla zona di interferenza dove i due raggi si incontrano viene impresso sulla pellicola fotografica.

Quando la pellicola viene sviluppata risulta visibile solo un intrico di linee chiare e scure che, illuminato da un altro raggio laser, lascia emergere il soggetto originale. La tridimensionalità di tali immagini non è l’unica caratteristica interessante degli ologrammi; infatti, se ad esempio l’ologramma di una rosa viene tagliato a metà e poi illuminato da un laser, si scoprirà che ciascuna metà contiene ancora l’immagine intera della rosa. Anche continuando a dividere le due metà, vedremo che ogni minuscolo frammento di pellicola conterrà sempre una versione più piccola, ma intatta, della stessa immagine. Diversamente dalle normali fotografie, ogni parte di un ologramma contiene tutte le informazioni possedute dall’ologramma integro. Secondo la visione di Pribram, i ricordi non sono “immagazzinati” in qualche area del cervello, ma si celano negli schemi degli impulsi nervosi che si intersecano attraverso tutto il cervello, proprio come gli schemi dei raggi laser che si intersecano su tutta l’area del frammento di pellicola che contiene l’immagine olografica. Secondo questo modello, inoltre, ogni sensazione viene trasformata dal cervello in un’onda, e tutte le onde interferiscono tra loro generando così gli ologrammi. Le stesse equazioni utilizzate per analizzare gli ologrammi (le trasformazioni di Fourier) sono utilizzate, secondo l’autore, dal cervello per analizzare i dati sensoriali.

 

2.17. Il modello di Henry Stapp: Quantum State Reduction and Conscious Acts (1993)

Il modello di Stapp si basa sul concetto che la coscienza crea la realtà (interpretazione di

Copenhagen). Stapp parte dall’affermazione di Von Neumann secondo la quale l’universo è il risultato oggettivo di atti soggettivi (di osservazione) per giungere all’affermazione che ciò che esiste è l’esperienza soggettiva, e che l’unica cosa che possiamo conoscere sono le nostre stesse percezioni. Il modello della coscienza di Stapp è tripartito:

1. La realtà è una sequenza di eventi finiti nel cervello.

2. Ogni evento si traduce in un aumento di conoscenza.

3. La conoscenza è la conseguenza di sistemi che osservano.

 

2.18. Il modello di Kunio Yasue: Quantum Brain Dynamics (1995).

Yasue Kunio e Jibu Mari partono dal modello di Umezawa per sviluppare una neurofisica

quantistica nella quale le onde cerebrali vengono rappresentate per mezzo dell’equazione di Schrödinger. Il cervello diventa così un sistema quantistico macroscopico. Yasue ipotizza che la coscienza emerga dall’interazione tra i campi elettromagnetici e i campi molecolari dell’acqua nelle proteine. L’evoluzione della funzione d’onda neurale non sarebbe random (probabilistica), ma sarebbe funzionale all’ottimizzazione dell’azione dei neuroni, giungendo così ad un modello cibernetico della coscienza non basato su reti neurali fisiche, ma sul  concetto delle interazioni tra onde.

2.19. Il modello di Giuseppe Vitiello: modello dissipativo della coscienza (1995).

Il modello proposto da Vitiello si fonda sulla QFT (Quantum Field Theory) e riprende il lavoro di Umezawa, nel quale i “vacuum states” erano considerati come unità di memoria. L’autore parte dalla considerazione che un problema lasciato aperto da Umezawa è quello della capacità di memoria. Infatti, nel modello di quest’ultimo, le nuove informazioni sovrascrivono quelle precedenti. Nel tentativo di ovviare a questo limite, Vitiello propone un modello dissipativo della coscienza, nel quale i sistemi viventi si comportano come sistemi dissipativi proprio allo scopo di abbassare le temperature interne e permettere la formazione di vacuum states (che richiedono temperature molto più basse di quelle corporee). Quando si considera il cervello come un sistema dissipativo, è necessario tener presente, nel formalismo matematico della QFT, l’ambiente, il cui ruolo è appunto quello di assorbire l’energia dissipata dal sistema. Vitiello giunge, dal punto di vista del formalismo matematico della QFT, ad affermare che l’ambiente, per poter espletare la propria funzione assorbitrice, debba avere il verso del tempo orientato in direzione opposta rispetto al cervello. Poiché la funzione cognitiva che Vitiello tenta di spiegare conla QFT è la memoria che, per definizione, è un processo irreversibile che si muove dal passato verso il futuro, l’ambiente deve necessariamente muoversi indietro nel tempo, dal futuro verso il passato. Il modello di Vitiello consente di aumentare i gradi di libertà del sistema e, di conseguenza, le dimensioni della memoria, risolvendo in questo modo il problema della sovrascrittura. Infine, l’autore ipotizza che la coscienza nasca nel processo continuo di interazione del cervello con il suo “doppio”, rappresentato dall’ambiente.

 

2.20 Il modello di Alex aivainen modello gerarchico della coscienza (1996) 

Il modello gerarchico di Kaivarainen parte dal presupposto che l’eccitazione neurale dipenda da un insieme di onde:

  • • termiche (onde di de Broglie – onde B)
  • • elettromagnetiche (onde IR)
  • • acustiche (onde tr)
  • • gravitazionali (onde lb).

A tal fine vengono inseriti 4 nuovi tipi di particelle:

1. Effectons (per le onde tr e lb);

2. Convertons (per l’interazione tra one tr e lb);

3. Transitons (per gli stati tr e lb);

4. Deformons (superposizioni di transitions e convertons).

Questo modello porterebbe, secondo l’autore, a giustificare condensati di materia nelle

cellule.

 

2.21. Il modello di Massimo Bondi: giunzioni sinaptiche e coscienza (1998).

Bondi parte dall’analisi delle situazioni in cui la coscienza svanisce, come ad esempio il

sonno, le anestesie e le situazioni patologiche. Questi tre momenti (fisiologici, farmacologici e patologici), dimostrerebbero la natura globale della coscienza che si accende e spegne quando le strutture neurali (giunzioni sinaptiche) perdono le loro proprietà computazionali di natura quantica. Il modello proposto da Bondi prevede l’esistenza di canali a spirale che si propagano nelle strutture labirintiche della corteccia cerebrale portando alla costituzione di strutture anatomiche e istologiche nelle quali il flusso delle particelle determina uno stato costante di coscienza.

 

2.22. Il modello di Hupping Hu: la coscienza mediata dallo spin (2002).

Hu sottolinea che lo spin sta emergendo come l’elemento fondamentale della meccanica

quantistica. Hu associa gli spin ai pixel, in questo caso pixel mentali. Il modello della

coscienza che ne consegue ha quindi proprietà non-locali e non-computabili.

 

 

3. Classificazione dei modelli quantistici della coscienza e prospettive per la ricerca

I modelli della coscienza fin qui rinvenuti in letteratura possono essere suddivisi in tre grandi categorie:

1. modelli che collocano la coscienza nella posizione di un principio primo dal quale

discende la realtà;

2. modelli che fanno discendere la coscienza dalle proprietà indeterministiche e

probabilistiche del mondo quantistico;

3. modelli che individuano nella MQ un principio d’ordine dal quale discendono e si

organizzano le proprietà della coscienza.

La tabella n. 1 mostra in quale categoria rientra ciascun modello. Analizzando i modelli

quantistici della coscienza qui descritti, è possibile rinvenire una tendenza alla “deriva mistica” principalmente nei modelli che rientrano nella prima categoria e che si rifanno, in modo più o meno esplicito, all’interpretazione di Copenhagen della MQ. Tali modelli sfuggono, per definizione, alla verifica sperimentale, in quanto fanno discendere le loro assunzioni dal fatto che la coscienza stessa si pone a monte della realtà osservata e la determina. In questo senso, i modelli che rientrano nella prima categoria potrebbero essere considerati non tanto dei modelli della coscienza, quanto piuttosto dei modelli che cercano di spiegare l’emergere della realtà osservabile da processi panpsichisti. Non a caso, questi autori fanno esplicito riferimento al concetto di panpsichismo.

Per quanto riguarda la seconda categoria di modelli, anch’essi si pongono al di là della

falsificabilità, in quanto partono dall’assunto che la coscienza risieda in un dominio non

osservabile con le attuali tecnologie della ricerca, come ad esempio i processi che avvengono a scale di misura al di sotto della costante di Planck.

1)

La coscienza crea la realtà

Bohr (1930)

Herbert (1987)

Penrose e Hameroff (1989)

Stapp (1993)

2)

Determinismo vs indeterminismo

Lotka (1924)

Bohm (1950)

Walker (1970)

Culbertson (1987)

Lockwood (1989)

Pitkänen (1990)

Kaivarainen (1996)

Bondi (1998)

3)

L’ordine crea la coscienza

Fantappiè (1941)

Fröhlich (1968)

Umezawa e Ricciardi (1980)

Eccles (1986)

Marshall (1989)

King (1989)

Pribram (1991)

Yasue (1995)

Vitiello (1995)

Hu (2002) 

Tabella 1: classificazione dei modelli quantistici della coscienza

Infine, i modelli che rientrano nella terza categoria e che si basano sulla ricerca, in natura, di un principio di ordine che possa giustificare le proprietà della coscienza, si richiamano

prevalentemente a principi e fenomeni che hanno già portato alla realizzazione di interessanti

applicazioni in campo fisico (come, ad esempio, i condensati di Bose-Einstein, i

superconduttori e il laser). Questo fa in modo che tali modelli possano essere più facilmente tradotti in ipotesi operative da verificare in campo sperimentale.

Al criterio della falsificabilità scientifica, appena discusso, va aggiunto, però, un secondo

criterio relativo alla compatibilità del modello con le caratteristiche tipiche dei sistemi biologici.

Ciò in quanto i principi di ordine rinvenuti nella terza categoria propongono soluzioni spesso palesemente incompatibili con le caratteristiche dei sistemi biologici, come, ad esempio, i condensati di Bose-Einstein che richiedono, per manifestarsi, temperature prossime allo zero assoluto (-273 C°). Applicando questo secondo criterio di selezione vengono progressivamente esclusi tutti i modelli ad eccezione del modello di Luigi Fantappiè e di Chris King. A tal proposito è necessario sottolineare che il modello proposto da Fantappiè ed il modello di King possono essere considerati degli “ibridi” tra meccanica quantistica e relatività ristretta, in quanto partono dall’unione dell’equazione di Schrödinger (meccanica quantistica) con l’equazione energia, momento, massa (relatività ristretta).

Si giunge così alla conclusione che tutti i modelli della coscienza proposti nell’ambito della

meccanica quantistica non sono traducibili in proposte sperimentali perché sono o

incompatibili con il criterio della falsificabilità e/o incompatibili con le caratteristiche dei sistemi  biologici. Gli unici due modelli che superano il vaglio di questa prima rassegna sono quelli che uniscono la meccanica quantistica con la relatività ristretta.

 

Bibliografia

1. Baaquie B., Martin F., Quantum Psyche. Quantum Field Theory of the Human Psyche,

NeuroQuantology, March 2005, Vol. 3(1):7-42;

2. Bernoider G., Quantum Neurodynamics and the Relation to Conscious Experience,

NeuroQuantology, June 2003, Vol. 1(2):163-168;

3. Bohm D., Wholeness and the implicate order, Routledge, Oxford,1980;

4. Bondi M., Quantum Electrodynamics and Unified Synaptic Channel in the identification of

Consciousness, NeuroQuantology, June 2005, Vol. 3(2): 119-133;

5. Craddock T.J.A., Tuszynski J.A., On the Role of the Microtubules in Cognitive brain

Functions, NeuroQuantology, March 2007, Vol. 5(1): 32-57;

6. Cramer J.G., The Transactional Interpretation of Quantum Mechanics, Reviews of Modern

Physics, July 1986, 58:647-688;

7. Culbertson J., The minds of robots, University of Illinois Press, 1963;

8. Culbertson J., Sensetions, memories and the flow of time, Cromwell Press, Trowbridge,

UK,1976;

9. Eccles J., Evolution of the brain, Routledge, Oxford, 1989;

10. Eccles J., The self and its brain, Springer, Berlin, Germany, 1994;

11. Fantappiè L., Principi di una teoria unitaria del mondo fisico e biologico, Di Renzo Editore,

Roma, 1991;

12. Fantappiè L., Conferenze scelte, Di Renzo Editore, Roma, 1993;

13. Flanagan B.J., Multi-Scaling, Quantum Theory, and the Foundations of Perception,

NeuroQuantology, December 2003, Vol. 1(4):404-427;

14. Fröhlich H., Long range coherence and energy strorage in biological systems, Int. J.

Quantum Chemistry 1968, 2:641-649;

15. Georgiev D.D., Consciousness Operates Beyond the Timescale for Discerning Time

Intervals, NeuroQuantology, March 2004, Vol. 2(1):122-145;

16. Georgiev D.D., Falsifications of Hameroff-Penrose Orch-Or Model of Consciousness and

Novel Avenues for Development of Quantum Mind Theory, NeuroQuantology, March

2007, Vol. 5(1):145-174;

17. Globus G., Quantum Intentionality, NeuroQuantology, March 2006, Vol. 4(3):222-239;

18. Hameroff S., Penrose R., Conscious events as orchestrated space-time selections,

Neuroquantology, 2003, Vol. 1(1):10-35;

19. Hameroff S., Quantum computation in brain microtubules: the Penrose-Hameroff model of

consciousness, Phil. Trans. R. Soc. Lond. 1998, 356:1869-1896;

20. Hameroff S., Consciousness, the brain and spacetime geometry, in The Annals of the

New York Accademy of Sciences, Special Issue Cajal and Consciousness, 1998;

21. Hameroff S., Orchestrated reduction of quantum coherence in brain microtubules,

Neuroquantology, March 2007, Vol. 5(1):1-8;

22. Herbert N., Quantum Reality: Beyond the New Physics, American Journal of Physics, May

1987, 55(5):478-479;

23. Hu H., Wu M., Spin as Primordial Self-Referential Process Driving Quantum mechanics,

Spacetime Dynamics and Consciousness, NeuroQuantology, March 2004, Vol. 2 (1):41-

49;

24. Järvilehto T., Consciousness and the Ultimate Essence of Matter, NeuroQuantology,

September 2004, Vol. 2(3):210-218;

25. Jibu, M., Yasue, K., Quantum brain dynamics and consciousness, in Advances in

Consciousness Research, Vol.3, John Benjamins Publishing Company, Amsterdam, 1995;

26. Kaivarainen A., Hierarchic Model of Consciousness, NeuroQuantology, September 2005,

Vol. 3(3):180-219;

27. Khoshbin M.R., Achille’s Heels of the ORCH OR Model, NeuroQuantology, March 2007,

Vol. 5(1): 182-185;

28. King C.C., Chaos, Quantum-transactions and Consciousness, NeuroQuantology, March

2003, Vol. 1(1):129-162;

29. King C.C., Dual-Time Supercausality, Physics Essays, 1989, 2(2):128-151;

30. King C.C., Did Membrane Electrochemistry Precede Translation?, Origins of Life &

Evolution of the Biosphere 1990, 20:15-25;

31. King C.C., Fractal and Chaotic Dynamics in the Brain, Prog Neurobiol 1991, 36:279-308;

32. King C.C., Fractal neurodyamics and quantum chaos: Resolving the mind-brain paradox

through novel biophysics, In E. Mac Cormac and M. Stamenov (Eds.), Fractals of brain,

fractals of mind, Advances in Consciousness Research, 7, John Benjamin Publishing

Company, Amsterdam, 1996;

33. King CC. Quantum Mechanics, Chaos and the Conscious Brain, J Mind and Behavior

1996b, 18:155-170;

34. Lockwood M., Mind, brain and the quantum, Basil Blackwell, Oxford, 1989;

35. Lotka AJ., Elements of Mathematical Biology, Dover Publications, New York, 1924;

36. Mac Cormac E., Stamenov M.I., Fractals of brain, fractals of mind, in Advances in

Consciousness Research, Vol. 7, John Benjamins Publishing Company, Amsterdam

1996;

37. Marshall, I.N., Consciousness and Bose-Einstein Condensates, New Ideas in Psychology

1989, 7 :73 – 85;

38. Marshall I.N., Zohar D., Quantum Society, William Morrow, New York, 1994;

39. Matsushima K., Kotani S., Neuronal microtubule-associated proteins, NeuroQuantology,

March 2007, Vol. 5(1): 9-31;

40. Mender D., Decentering the subject of physics, Neuroquantology, March 2007, Vol. 5,

Issue 1: 175-181;

41. Penrose R., Il grande, il piccolo e la mente umana, Cortina Editore, Milano 2005;

42. Penrose R., Ombre della mente, Rizzoli, Milano 1994;

43. Penrose R., The Emperor’s New Mind, Oxford Univ. Press, 1989;

44. Pereira A., The Quantum Mind/Classical Brain Problem, NeuroQuantology, March 2003,

Vol. 1, Issue 1: 94-118;

45. Perus M., Conscious Image Processing. An Integrated Neural and Quantum Model,

NeuroQuantology, June 2003, Vol. 1, Issue 2: 200-231;

46. Pitkänen M., TGD (Topological Geometro Dynamics) Inspired Theory of Consciousness,

NeuroQuantology, March 2003, Vol. 1, Issue 1: 68-93;

47. Pratt D., Consciousness, Causality, and Quantum Physics, NeuroQuantology, March

2003, Vol. 1, Issue 1:58-67;

48. Pribram K., Languages of the Brain, Prentice Hall, New Jersey, 1971;

49. Pribram K., Brain and Perception, Lawrence Erlbaum, Oxford, 1990;

50. Ricciardi, L.M. e Umezawa, H., Brain and physics of many body problems, Biological

Cibernetics, Vol. 4, N. 2, pp. 44-48, Springer, Berlin 1967;

51. Shan G., A Possibile Quantum Basis of Panpsychism, NeuroQuantology, March 2003,

Vol. 1, Issue 1:4-9;

52. Stapp H.P., Mind Matter and Quantum Mechanics, Springer-Verlag, Berlin, 1993;

53. Stapp H.P., Attention, intention, and will in quantum physics”, Journal of Consciousness

Studies, 6(8/9), 1999, pp. 143-164.;

54. Tabony J., Self-Organization and higher level emergent phenomena in a population of

microtubules, NeuroQuantology, March 2007, Vol. 5, Issue 1: 100-144;

55. Vitiello G., Quantum Dissipation and Information. A route to consciousness modelling,

NeuroQuantology, June 2003, Vol. 1, Issue 2:266-279;

56. Vitiello, G. My Double Unveiled – The dissipative quantum model of brain – Benjamins

Publishing Co., Amsterdam, 2001;

57. Walker E., The Nature of Consciousness, Mathematical BioSciences 7, 131—178, 1970;

58. Watson D, Williams B, Eccles’ Model of the Self Controlling Its Brain, NeuroQuantology,

March 2003, Vol. 1, Issue 1:119-128.

_____________

ISSN 1825-7968

http://www.sintropia.it

 

Antonella Vannini1 

sabato 22 novembre 2008, 11.20.20 | newsmtesla

…finalmnt ora m è tutt kiaro

sabato 15 novembre 2008, 21.15.10 | newsmtesla

Meccanica Quantistica (MQ)

 

La Meccanica Quantistica(MQ) o fisica quantistica è un complesso di teorie fisiche la cui elaborazione è iniziata nella prima metà del ventesimo secolo e che descrivono il comportamento della materia a livello microscopico, a scale di lunghezza inferiori o dell’ordine di quelle dell’atomo. La meccanica quantistica permette di interpretare fenomeni che, nell’opinione della maggior parte dei fisici contemporanei, non possono essere giustificati dalla meccanica classica. In questo articolo viene descritta brevemente la nascita della MQ e presentati alcuni modelli interpretativi.

1. L’esperimento della doppia fenditura: la luce come onda

Il 24 novembre 1803 Thomas Young presentò pressola Royal Societydi Londra

l’esperimento della doppia fenditura, giungendo così alla dimostrazione della natura

ondulatoria della luce:

L’esperimento di cui sto per parlare (…) può essere ripetuto con grande facilità, purché

splenda il sole e con una strumentazione che è alla portata di tutti”.

L’esperimento di Young era molto semplice. Un raggio di sole veniva fatto passare attraverso un foro praticato in un cartoncino, quindi raggiungeva un secondo schermo, con due fori. La luce che attraversava i due fori del secondo schermo finiva infine su uno schermo, dove creava una figura di luci e ombre che Young spiegò come conseguenza del fatto che la luce si diffonde attraverso i due fori in forma di onde. Queste onde danno origine, nei punti in cui si sommano, a fasce chiare (interferenza costruttiva), mentre nei punti dove non si sommano a fasce scure (interferenza distruttiva).

 

L’esperimento di Young venne accettato come dimostrazione del fatto che la luce si irradia per mezzo di onde. Infatti se la luce fosse stata costituita da particelle, non si sarebbe osservata questa alternanza di luci e ombre, ma si sarebbero osservate solo due bande luminose, una per foro. Nell’esperimento della doppia fenditura la banda più luminosa si colloca tra i due fori, in corrispondenza della parte oscurata dallo schermo.

 

L’esperimento di Young sulla natura ondulatoria della luce ha rappresentato un caposaldo

della fisica fino a quando, a partire dal lavoro di Max Planck agli inizi del ‘900, la scienza andò sempre più scoprendo ciò che è oggi noto come dualismo onda/corpuscolo e che rappresenta uno dei principi fondamentali della meccanica quantistica.

 

2. Nascita della meccanica quantistica

Verso la fine del diciannovesimo secolo Lord Rayleigh e Sir James Jeans cercarono di

estendere il principio statistico di equiripartizione, utilizzato per la descrizione delle proprietà termiche dei gas (particelle), alle radiazioni termiche (onde).

Il Teorema di Equiripartizione, che viene dedotto matematicamente dai principi newtoniani

della Meccanica, afferma che ”l’energia totale contenuta in un gas si ripartisce

ugualmente (in media) fra tutte le particelle.”

Il teorema di equiripartizione, applicato alle onde, portava però a prevedere l’esistenza del

fenomeno della “catastrofe ultravioletta”; infatti, la radiazione termica si sarebbe concentrata nelle frequenze più elevate, la frequenza ultravioletta dello spettro, dando luogo a picchi infiniti di energia termica che avrebbero causato, appunto, la catastrofe ultravioletta.

Tuttavia, la catastrofe ultravioletta non si manifestava in natura e questo paradosso venne risolto il 14 dicembre 1900 quando Max Planck presentò, ad un raduno della Società tedesca di fisica, un lavoro secondo il quale i livelli di energia sono quantizzati. Ovvero, l’energia non cresce o diminuisce in modo continuo, ma sempre per multipli di un “quanto di base”, una quantità che Planck definì come il prodotto hv dove v è la frequenza caratteristica del sistema preso in considerazione e h è una costante fondamentale, oggi nota come costante di Planck e che corrisponde a 6,6262٠10-34 joule/sec. Planck aveva concettualizzato la trasmissione dell’energia in forma di pacchetti discreti, alcuni grandi, altri piccoli, in funzione della frequenza di oscillazione del sistema. Al di sotto della frequenza minima del pacchetto di energia, l’intensità della radiazione veniva meno, impedendo così che questa crescesse agli altissimi livelli previsti dalla catastrofe ultravioletta.

Il 14 dicembre 1900 è oggi ricordato come la data in cui è nata la meccanica quantistica.

 

3. L’effetto fotoelettrico e la luce come particelle: i fotoni

L’effetto fotoelettrico consiste nel fatto che quando i raggi di luce colpiscono un metallo, il

metallo emette degli elettroni. Questi elettroni possono essere individuati e le loro energie

misurate.

Le analisi dell’effetto fotoelettrico, per vari metalli e con luci di frequenze differenti, mostrano che:

  • • fino ad una certa soglia di frequenza il metallo non emette elettroni;
  • • sopra la soglia emette elettroni la cui energia resta la stessa;
  • • l’energia degli elettroni cresce solo se si aumenta la frequenza della luce.

La teoria classica della luce non era in grado di spiegare questi fenomeni, ad esempio:

  • • perché l’intensità della luce non aumentava l’energia degli elettroni emessi dal metallo?
  • • perché la frequenza ne influenzava invece l’energia?
  • • perché non venivano emessi elettroni sotto una determinata soglia?

Nel 1905 Einstein rispose a queste domande utilizzando la costante di Planck e ipotizzando che la luce, precedentemente considerata solo come onda elettromagnetica, potesse essere descritta in termini di quanti, ovvero pacchetti discreti di energia, particelle che oggi chiamiamo fotoni. La spiegazione fornita da Einstein ebbe un ruolo chiave nella storia dello sviluppo della fisica quantistica, giacché trattava la luce in termini di fasci di particelle, invece che in termini di onde, aprendo così la strada alla dualità onda-particella.

La validità dell’ipotesi di Einstein fu dimostrata sperimentalmente nel 1915 da Robert Millikan che, per ironia, era motivato dall’intento opposto, cioè di dimostrare l’erroneità dell’ipotesi di Einstein. Millikan dedicò una decina d’anni all’esame delle spiegazioni di Einstein sull’effetto fotoelettrico, sperimentando con sempre maggiore accuratezza. Scoprì così che le teorie alternative fallivano, mentre l’interpretazione di Einstein si rivelava corretta. Diversi anni dopo, lo stesso Millikan commentò: “Ho dedicato dieci anni della mia vita ad esaminare quell’equazione del 1905 di Einstein, e contrariamente ad ogni mia aspettativa nel 1915 sono stato costretto ad ammettere la sua netta validità, nonostante la sua illogicità!

Nel 1923 le ricerche di Arthur Compton dimostrarono che i quanti elettromagnetici si

comportano esattamente come particelle, scambiandosi oltre all’energia anche il momento (la velocità) durante la collisione con gli elettroni.

 

4. L’esperimento della doppia fenditura: la dualità onda-particelle

L’esatto equivalente dell’esperimento di Young può oggi essere condotto servendosi di un

fascio di elettroni. Gli elettroni lanciati in un esperimento della doppia fenditura producono una figura d’interferenza sullo schermo rilevatore (in questo caso uno schermo simile a quello di un televisore) e devono quindi muoversi sotto forma di onda. Tuttavia, all’arrivo, generano un solo punto di luce, comportandosi quindi come particelle. Si è quindi portati a concludere che gli elettroni viaggiano come onde, ma giungono all’arrivo come particelle!

 

Se l’elettrone fosse una particella potremmo dedurre che ogni particella passa attraverso uno  o l’altro dei due fori presenti nell’esperimento; tuttavia, la figura d’interferenza che si genera sullo schermo dimostra che si tratta di onde che attraversano i due fori contemporaneamente. Le entità quantistiche si dimostrano quindi capaci di passare attraverso le due fenditure nello stesso istante; non solo, hanno anche una sorta di consapevolezza del passato e del futuro, cosicché ognuna di esse può scegliere di dare il suo contributo alla figura d’interferenza nel punto corretto, quello che contribuisce alla creazione della figura, anziché alla sua distruzione.

Secondo le parole di Richard Feynman nell’esperimento della doppia fenditura è racchiuso il “mistero centrale” della meccanica quantistica. Si tratta di un fenomeno “in cui è impossibile, assolutamente impossibile, trovare una spiegazione classica, e che ben rappresenta il nucleo della meccanica quantistica. In realtà, racchiude l’unico mistero… Le peculiarità fondamentali di tutta la meccanica quantistica” (Feynman, 1977)

 

5. Interpretazione di Copenhagen

Tra il 1930 e il1980 hadominato, tra le spiegazioni del mondo quantistico, l’Interpretazione di Copenhagen, secondo la quale la coscienza, tramite l’esercizio dell’osservazione, determina almeno in parte la realtà.

L’interpretazione di Copenhagen, formulata da Niels Bohr e Werner Heisenberg durante la

loro collaborazione a Copenhagen nel 1927, spiega l’esperimento della doppia fenditura nel modo seguente:

  • • l’elettrone lascia il cannone elettronico come particella;
  • • si dissolve immediatamente in una serie di onde di probabilità sovrapposte, ovvero una

sovrapposizione di stati;

  • • le onde passano attraverso ambedue le fenditure e interferiscono reciprocamente fino a

creare una nuova sovrapposizione di stati;

  • • lo schermo rilevatore, compiendo una misurazione del sistema quantistico, fa collassare la funzione d’onda in una particella, in un punto ben definito dello schermo;
  • • subito dopo la misurazione, l’elettrone ricomincia a dissolversi in una nuova

sovrapposizione di onde.

 

Componenti essenziali dell’interpretazione di Copenhagen sono:

  • • Il principio di indeterminazione di Heisenberg, secondo il quale un’entità quantistica non

ha un preciso momento e una precisa posizione nello stesso istante.

  • • Il concetto di complementarità, ovvero il modo in cui le particelle quantiche hanno

contemporaneamente gli attributi della particella e dell’onda.

  • • L’equazione d’onda di Schrödinger, reinterpretata, come descrizione matematica della

probabilità che l’elettrone (o qualsiasi altra entità) sia in un particolare stato.

  • • La sovrapposizione degli stati, cioè tutte le possibili funzioni d’onda sono miscelate

assieme finché la misurazione non ha luogo.

  • • Il collasso della funzione d’onda che consegue all’atto della misurazione.

Secondo l’interpretazione di Copenhagen l’esistenza oggettiva di un elettrone in un certo

punto dello spazio, per esempio in una delle due fenditure, indipendentemente da una

osservazione concreta, non ha alcun senso. L’elettrone sembra manifestare un’effettiva

esistenza solo quando l’osserviamo. La realtà viene creata, almeno in parte, dall’osservatore.

Quando Erwin Schrödinger si rese conto del modo in cui la sua funzione d’onda era stata

reinterpretata, fino a diventare un’onda di probabilità dai connotati quasi mistici, commentò:

Non mi piace, e non avrei mai voluto avere a che fare con qualcosa del genere!”. Einstein prese subito le distanze dall’interpretazione di Copenhagen affermando che il ricorso alla  coscienza ed alla probabilità non erano altro che prove dell’incompletezza di tale interpretazione. Secondo Einstein, ogni teoria scientifica doveva far uso della causalità. Einstein era solito sottolineare questa sua convinzione affermando che “Dio non gioca a dadi!

 

6. L’EPR

Einstein non se la sentì mia di accettare che il caso avesse un posto nelle leggi della natura.

Era convinto che la meccanica quantistica fosse corretta nell’assegnare le probabilità ai

possibili esiti di un esperimento; ma riteneva anche l’esigenza di ricorrere alla probabilità

fosse dovuta solo alla nostra ignoranza di un livello più profondo della teoria, livello che

doveva essere descrivibile da una fisica deterministica (priva cioè di struttura probabilistica).

Einstein fu un critico feroce della teoria dei quanti proprio perché non riusciva ad accettare

che la natura funzionasse in modo probabilistico: “Dio decreta; Dio non gioca a Dadi”.

Einstein si era convinto che mancasse qualcosa alla teoria dei quanti, che esistessero delle “variabili” nascoste. In aggiunta, Einstein aveva a cuore altre nozioni che considerava

“intuitive”, di buon senso, così come lo sono, di fatto, per la maggioranza delle persone. Ad esempio, la nozione di località, secondo la quale ciò che accade in un luogo non può

influenzare qualcosa che stia accadendo in un luogo molto distante, a meno che, ovviamente, non venga spedito in questa regione distante un segnale che possa influenzare ciò che sta succedendo in quella regione dello spazio.

Per tutta la vita Einstein tenne fede a tre principi che riteneva dovessero far parte di qualsiasi buona descrizione della natura:

  • • Il livello di base della natura dovrebbe essere descritto, per principio, da una teoria

deterministica, anche se alcune lacune nella umana conoscenza delle condizioni iniziali e

delle condizioni al contorno potrebbero costringere gli esseri umani a ricorrere alla

probabilità per poter effettuare predizioni sui risultati delle osservazioni.

  • • La teoria dovrebbe includere tutti gli elementi della realtà.
  • • La teoria dovrebbe essere locale: quello che accade qui dipende da elementi della realtà

che sono localizzati qui.

Nel 1924 Pauli aveva scoperto che gli elettroni hanno uno spin, ossia girano su se stessi

come una “trottola”, e che un’orbita può essere occupata solo da due elettroni con spin

opposto, uno che gira in senso orario e l’altro che gira in senso antiorario (principio di

esclusione di Pauli). Secondo questo principio, ogni coppia di elettroni che ha condiviso una stessa orbita rimane legata (entangled) continuando ad assumere spin opposti,

indipendentemente dalla distanza che li separa.

Nel 1934 Einstein formulò un esperimento mentale che prese il nome di esperimento EPR

(Einstein-Podolsky-Rosen) e che rimase irrisolto fino agli anni ’80. In pratica Einstein si

chiedeva “Supponiamo che due particelle siano entangled. Consideriamo ora un osservatore che si occupi di una delle due particelle in una zona molto distante dal punto in cui hanno interagito e che misuri la quantità di moto; allora, questo osservatore sarà ovviamente in grado di dedurre anche la quantità di moto dell’altra particella. Se, viceversa, egli scegliesse di misurare la posizione della prima particella, sarebbe comunque in grado di dire dove si trova esattamente l’altra. Come può lo stato finale della seconda particella venire influenzato da una misurazione effettuata sulla prima, dopo che ogni interazione fisica tra le due è cessata?

 

7. L’esperimento di Aspect

L’EPR era stato presentato come un “esperimento concettuale”, inteso a dimostrare

l’assurdità della fisica quantistica ponendo una contraddizione logica; in realtà, nessuno

chiedeva che l’esperimento venisse realmente eseguito. Ma nel 1952 David Bohm propose una variazione dell’EPR che riguardava il comportamento dei fotoni, e nel 1964 John Bell dimostrò che la variazione di Bohm poneva le basi, in linea di principio, per un autentico esperimento.

A quell’epoca, in realtà, neppure lo stesso Bell riteneva che quell’esperimento potesse

davvero essere eseguito. Ma gli sperimentatori accettarono quasi subito la sfida. Nel giro di vent’anni diversi gruppi erano arrivati vicini all’esecuzione delle misurazioni con la precisione richiesta; è comunemente accettato che sia stato proprio il risultato ottenuto dall’équipe di Aspect, pubblicato nel1982, asancire definitivamente che Einstein (e con lui il comune buonsenso) dovevano arrendersi alla realtà del mondo quantistico e alla non-località delle sue regole.

La proprietà quantistica misurata da Aspect è la polarizzazione del fotone, che può essere

immaginata come una freccia che punti o verso l’alto o verso il basso. E’ possibile stimolare un atomo in modo che produca simultaneamente due fotoni, i quali si dirigono in due direzioni diverse. Nel complesso, le polarizzazioni dei due fotoni devono cancellarsi: se la freccia del primo è su, l’altra dev’essere giù. Ogni fotone nasce con una polarizzazione definita, e il suo partner con la polarizzazione opposta, ed entrambi mantengono tale caratteristica originaria nel loro viaggio nello spazio. Tuttavia, secondo l’interpretazione di Copenhagen, qualsiasi entità quantistica che abbia la possibilità di una scelta del genere esiste in una condizione di sovrapposizione di stati, ovvero una miscela delle due possibilità, finché (in questo caso) la sua polarizzazione non viene misurata. A quel punto, e solo a quel punto, vi è ciò che viene definito “collasso della funzione d’onda”, in seguito al quale viene fissata una delle due possibilità.

Tuttavia, la controparte del fotone che viene misurato deve anch’essa trovarsi in una

sovrapposizione di stati, almeno fino al momento della misurazione. Poi, nel preciso istante in cui la misurazione del fotone A causa il collasso della funzione d’onda, la funzione d’onda del fotone B (che potrebbe, in linea di principio, trovarsi ormai dall’altra parte dell’universo) deve collassare nello stato opposto. La risposta istantanea del fotone B a ciò che accade al fotone A è proprio ciò che Einstein definì “azione fantasma a distanza”. L’effettivo esperimento realizzato da Aspect misura la polarizzazione in base ad un angolo, che può essere variato, rispetto alle frecce all’insù e all’ingiù. La probabilità che un fotone con una certa polarizzazione passi attraverso un filtro disposto con un certo angolo dipende dalla sua stessa polarizzazione e dall’angolo tra la sua polarizzazione e il filtro. In una realtà nonlocale mutare l’angolo con il quale si sceglie di misurare la polarizzazione del fotone A finirebbe per alterare la probabilità che il fotone B passi attraverso un filtro polarizzatore sistemato con un angolo diverso. Inoltre, l’esperimento non riguarda soltanto due fotoni, ma interi fasci di fotoni, ovvero serie di coppie correlate che sfrecciano attraverso l’apparecchiatura una dopo l’altra.

Bell aveva mostrato che, se Einstein aveva ragione, il numero di fotoni che passano

attraverso il filtro polarizzatore B doveva essere inferiore a quello che passa attraverso il filtro

A. Ciò prende il nome di disuguaglianza di Bell. Tuttavia, l’esperimento di Aspect dimostra

l’esatto contrario, che il primo valore (A) è in realtà sempre inferiore al secondo valore (B).

Per dirla altrimenti, la disuguaglianza di Bell viene violata e il comune buonsenso incarnato da Einstein perde la sfida.

Sebbene l’esperimento di Aspect sia stato motivato proprio dalla teoria quantistica, il teorema di Bell ha implicazioni molto più vaste e la combinazione del teorema di Bell e dei risultati sperimentali rivela una delle verità fondamentali dell’universo, ovvero che ci sono rapporti di correlazione che hanno luogo istantaneamente, indipendentemente dal grado di separazione tra gli oggetti implicati, e che sembrano esistere segnali che possono viaggiare a velocità  superiore a quella della luce.

 

8. Esperimento della scelta ritardata e retrocausalità

Wheeler propose l’esperimento della scelta ritardata partendo dagli esperimenti che mostrano che, quando si colloca un rilevatore sulle fenditure e si analizza da quale fenditura passa il fotone, la figura d’interferenza scompare. Nell’esperimento della scelta ritardata il rilevatore viene collocato in un punto intermedio tra le due fenditure e il rilevatore finale, in modo da osservare quale traiettoria viene assunta da ogni singolo fotone dopo il passaggio tra le due fenditure, ma prima di giungere al rilevatore finale. La teoria quantistica dice che se si spegne  il rilevatore intermedio e non si analizzano le traiettorie dei fotoni, questi formeranno  una figura d’interferenza. Se però si osservano i fotoni per determinare da che fenditura sono passati, anche se l’osservazione è compiuta dopo che l’hanno attraversata, non ci sarà figura d’interferenza. La “scelta ritardata” entra in gioco appunto perché è possibile decidere se analizzare il fotone (oppure la decisione può essere effettuata casualmente da un computer) dopo che il fotone è passato attraverso la/le fenditura/e. La decisione, secondo la teoria quantistica, sembra influenzare il modo in cui il fotone si comporta nel momento in cui passa per la/le fenditura/e, ovvero una frazione infinitesimale di tempo prima dell’osservazione.

Due esperimenti indipendenti compiuti all’Università del Maryland e all’Università di Monaco di Baviera, intorno alla metà degli anni ’80, hanno confermato che ciò accade realmente. Il comportamento dei fotoni in entrambi gli esperimenti è stato influenzato dall’apparato sperimentale, anche se tale apparato subiva mutazioni mentre i fotoni erano già in viaggio; ciò implica che i fotoni hanno una sorta di precognizione della futura struttura dell’apparato, prima ancora di attraversarlo nel loro breve percorso.

La scala di tempo implicata è infinitesimale: solo qualche miliardesimo di secondo. Ma, come lo stesso Wheeler aveva fatto notare, è possibile immaginare un esperimento analogo su scala addirittura cosmica. Ad esempio, utilizzando la luce proveniente da un oggetto molto distante (un quasar) che raggiungela Terrapassando per due diversi percorsi, essendo stata curvata attorno a una grande galassia che si trovava sul tragitto, per via del fenomeno conosciuto come lente gravitazionale. In linea di principio, sarebbe possibile combinare la luce delle due immagini del quasar fino a creare una figura d’interferenza, dimostrando così che ha viaggiato nell’universo come un’onda, seguendo entrambi i possibili percorsi. Oppure si potrebbero monitorare i singoli fotoni, cercando di capire attraverso quale percorso siano arrivati, ma in tal caso non si formerebbe alcuna figura d’interferenza. Dal momento che il quasar in questione potrebbe trovarsi a 10 miliardi di anni luce di distanza, si deduce che la nostra scelta sul metodo di misurazione influenza il modo in cui la luce si è messa in movimento 10 miliardi di anni fa, ovvero 5 miliardi di anni prima della nascita del nostro sistema solare. Se questa versione dell’esperimento della scelta ritardata potesse mai essere portata a termine, costituirebbe la prova più significativa che il mondo quantistico è influenzato da connessioni retrocausali, che operano a ritroso nel tempo.

 

9. Interpretazione transazionale

L’interpretazione transazionale della meccanica quantistica è stata presentata nel 1986 da

John Cramer dell’Università di Washington. Le previsioni sugli esiti degli esperimenti

rimangono esattamente analoghe a quelle delle altre interpretazioni quantistiche, ma ciò che caratterizza questo modello è una diversa prospettiva su quanto sta accadendo, che molti trovano più semplice rispetto, per esempio, all’interpretazione di Copenhagen o alle altre interpretazioni della meccanica quantistica.

Cramer si è ispirato alla teoria assorbitore-emettitore di Wheeler-Feynmen. La versione

originale della teoria di Wheeler-Feynman era, a rigor di termini, una teoria classica, giacché non prendeva in considerazione i processi quantistici. Per poter applicare tali idee alla meccanica quantistica, c’era bisogno di un’equazione con una doppia soluzione, come quella di Maxwell, in cui una soluzione, relativa ad onde ritardate, individua energia che fluisce dal passato verso il futuro, mentre l’altra soluzione, relativa ad onde anticipate, individua energia che fluisce a ritroso dal futuro verso il passato. A prima vista, la famosa equazione d’onda di Schrödinger non era adatta, perché descrive il flusso in un’unica direzione, dal passato al futuro. Tuttavia, come ogni fisico apprende all’università (per poi dimenticarlo subito dopo), tale equazione non è completa in quanto non prende in considerazione i requisiti della teoria della relatività. L’equazione d’onda completa (equazione di Klein-Gordon) comporta, invece, due soluzioni, una corrispondente alla semplice e più familiare equazione di Schrödinger, l’altra paragonabile a una sorta di immagine speculare dell’equazione di Schrödinger, che descrivere la propagazione a ritroso delle onde anticipate: dal futuro verso il passato. La stessa equazione probabilistica fondamentale, sviluppata da Max Born nel lontano 1926,

contiene un riferimento esplicito alla natura del tempo e ai due possibili tipi di equazione di

Schrödinger, una che descrive le onde anticipate e l’altra che descrive le onde ritardate. C’è un fatto importante: a partire dal 1926, ogni volta che i fisici hanno utilizzato l’equazione di Schrödinger per calcolare le probabilità quantistiche, hanno di fatto preso in considerazione la  soluzione delle onde anticipate, quindi l’influsso delle onde che viaggiano a ritroso nel tempo, senza neppure rendersene conto. Nell’interpretazione di Cramer la matematica, a partire dall’equazione di Schrödinger, è esattamente la stessa dell’interpretazione di Copenhagen.

La differenza sta, esclusivamente, nella sola interpretazione. L’interpretazione di Cramer

riesce nel “miracolo” di risolvere tutti i misteri e gli enigmi della fisica quantistica, rendendola, inoltre, compatibile con i presupposti della relatività ristretta (Fig 4).

Interpretazione Transazionale

La transazione tra onde ritardate, provenienti dal passato, e onde anticipate, provenienti dal futuro, da luogo ad una entità quantistica con proprietà duali onda/particella. La proprietà delle onde è conseguenza

dell’interferenza delle onde ritardate e anticipate e la proprietà della particella è dovuta alla localizzazione della

transazione.

 

Questo miracolo si ottiene però ad un prezzo, cioè al costo di accettare che l’onda quantistica possa realmente viaggiare a ritroso nel tempo. A prima vista, ciò è in aperto contrasto con la logica comune, che ci dice che le cause devono sempre precedere l’evento causato, ma il modo in cui l’interpretazione transazionale considera il tempo differisce dalla logica comune, giacché l’interpretazione transazionale include esplicitamente gli effetti della teoria della relatività. L’interpretazione di Copenhagen tratta, invece, il tempo in modo classico, potremmo dire “newtoniano”, e ciò è all’origine delle incongruenze che si manifestano ogni qualvolta si prova a spiegare i risultati di esperimenti come quello di Aspect e della doppia fenditura. Cramer, in pratica, ha scoperto un legame molto profondo tra relatività e meccanica quantistica e ciò rappresenta il nocciolo della sua interpretazione.  

10. Altre interpretazioni della Meccanica Quantistica

Nel corso del tempo, sono nate varie interpretazioni del formalismo matematico della

Meccanica Quantistica. Abbiamo già descritto l’interpretazione di Copenhagen (CI) e

l’interpretazione transazionale di Cramer (TI).

Altre interpretazioni sono, ad esempio:

HVT (Hidden Variable Theories): è una “famiglia” di interpretazioni basate sul presupposto che tutte le versioni abituali della Meccanica Quantistica siano incomplete, e che ci sia un livello di realtà sottostante (una sorta di mondo sub-quantistico) contenente informazioni addizionali sulla natura della realtà. Tali informazioni addizionali sono appunto presenti nella forma di variabili nascoste. Se i fisici conoscessero i valori delle variabili nascoste potrebbero prevedere con precisione i risultati di determinate misurazioni, e non dovrebbero accontentarsi della “probabilità” di ottenere certi risultati.

De Broglie-Bohm GWI (Guide Wave Interpretation): in questa interpretazione, proposta originariamente da L. De Broglie e poi migliorata e sostenuta da D. Bohm, ad ogni tipo di particella può essere associata un’onda che guida il moto della particella stessa, come un radar guida una nave. Da qui il termine teoria delle onde pilota. Matematicamente, tale onda pilota è descritta dalla classica funzione d’onda di Schrödinger della meccanica quantistica corretta però aggiungendo un fattore che rend  conto dell’influenza pilotante sul moto delle particelle. A differenza dell’Interpretazione di Copenhagen, tale onda pilota è reale e permea tutto l’universo, guidando qualsiasi particella reale (come un fotone o un elettrone).

MWI (Many Worlds Interpretation): proposta da Everett agli inizi degli anni ‘50 e sostenuta da Wheeler, tale teoria consiste nell’idea che ogni qualvolta il mondo deve affrontare una scelta a livello quantistico (ad esempio, se un elettrone può scegliere in quale fenditura passare nel noto esperimento della doppia fenditura), l’universo si divide in due (ovvero in tante parti quante sono le scelte possibili), di modo che vengano realizzate tutte le possibili opzioni (nell’esperimento di cui sopra, in un mondo l’elettrone passa attraverso la fenditura A, nell’altro attraverso la fenditura B).

 

10. Bibliografia

1. Amir D. Aczel, Entanglement: il più grande mistero della fisica, Raffaello Cortina Editore,

Milano 2004;

2. Arntz W., Chasse B., Vincente M., Bleep, Macro Edizioni, Cesena 2006;

3. Cramer J.G., The Transactional Interpretation of Quantum Mechanics, Reviews of Modern

Physics 58, pp. 647-688, July 1986;

4. Cramer J.G., What’s done is done… or is it?, New Scientist, 30 September 2006, pp. 6-10;

Syntropy 2007, 1, pag. 13-28 ISSN 1825-7968

http://www.sintropia.it

28

5. Einstein A., Relatività: esposizione divulgativa, Boringhieri, Torino 1967;

6. Feynman R., Meccanica Quantistica, in La fisica di Feynman, Vol.III, Zanichelli, Bologna

2001;

7. Gamow G., Trent’anni che sconvolsero la fisica, Zanichelli, Bologna 1990;

8. Ghirardi G.C., Un’occhiata alle carte di Dio, Il Saggiatore, Milano 2003;

9. Gribbin J., Q come Quanto: dizionario enciclopedico illustrato di fisica quantistica, Macro

Edizioni, Cesena 2004;

10. Penrose R., La strada che porta alla realtà: le leggi fondamentali dell’universo, Rizzoli,

Milano 2005;

11. Slater J.C., Teoria Quantistica della materia, Zanichelli, Bologna 1980;

12. Wheeler J.A., Tegmark M., 100 years of the quantum, Scientific American, Febbraio 2001,

pp. 68-75.

__________________

ISSN 1825-7968

http://www.sintropia.it

Antonella Vanninie Ulisse Di Corpo2

venerdì 31 ottobre 2008, 13.44.02 | newsmtesla

 

venerdì 31 ottobre 2008, 12.59.02 | newsmtesla

In fisica è possibile affermare che tutte le energie centrifughe sono espressione delle onde divergenti (entropia), mentre tutte le forze centripete sono espressione delle onde convergenti (sintropia). La nostra tecnologia, fin dalla scoperta del fuoco, dai tempi delle macchine a vapore e della rivoluzione industriale, ha sempre e quasi esclusivamente considerato il moto centrifugo. Le forze centripete rimangono tuttora misteriose, con particolare riferimento alle forze gravitazionali e agli stati quantici.

domenica 26 ottobre 2008, 13.05.23 | newsmtesla

Non c’è una via per raggiungere la felicità…la felicità è la via..

(Buddha)

 

Si ama solo ciò che non si possiede completamente..

(Marcel Proust)

C B

domenica 26 ottobre 2008, 12.42.15 | newsmtesla

LUCCA

 

giovedì 23 ottobre 2008, 9.50.26 | newsmtesla

 

Il quark e il neurone

di Brune Elisa

Un gruppo di matematici, fisici, filosofi, teologi, psicoanalisti e poeti si riunisce per discutere sul tema dell’unità della conoscenza. Uno spettatore curioso ha il privilegio di assistere al dibattito a porte chiuse e lo racconta. Gli organizzatori del simposio ritengono che il confronto tra punti di vista contrastanti potrà forse aiutarci a comprendere meglio il mondo poiché “la multidisciplinarietà costituisce la base della cultura moderna”. I venti scienziati chiamati a intervenire toccano i temi più disparati: dalla meccanica quantistica alla cosmologia, dalla teoria della relatività al big bang, dall’effetto farfalla all’elettromagnetismo, dal genoma alla poesia di William Blake, dal buco nero al buddismo, dall’ipnosi alla teoria del caos determinista. Annullando i confini tra le discipline, una citazione dalla Recherche di Proust può aiutare a chiarire il concetto di spazio-tempo; la Guernica di Picasso fornisce lo spunto per parlare dei modelli di universo; Madame Bouary contribuisce a illustrare l’unità del sé in psicoanalisi.

Seminario Presidente Westinghouse

venerdì 17 ottobre 2008, 10.27.35 | newsmtesla

Mercoledi 15 Ottobre prossimo alle 14:30 si terra in Aula Magna un importante evento, un seminario sul nucleare da parte del presidente della Westinghouse, la piu grande azienda mondiale sul nucleare.

15 Ottobre 2008

dalle 14.30 alle 16.30, nell’Aula Magna del Politecnico

 in C.so Duca degli Abruzzi, 24

Torino

Si prevede che la domanda di energia a livello
mondiale quasi raddoppiera entro il 2030. E
quindi evidente che il bisogno di un’energia
pulita, sicura e affidabile sia ormai diventato
una necessita improrogabile.
Da questa premessa prendera avvio l’intervento
del Dott. Aris Candris, Presidente della
compagnia energetica americana Westinghouse, che
il 15 ottobre prossimo sara ospite della
conferenza dal titolo:

Meeting the World’s growing Energy needs ? The case of nuclear power?.

L’incontro sara introdotto dal Prof.
Massimo Zucchetti e dal Prof. Donato Firrao,
Preside della Facolta di Ingegneria I del
Politecnico di Torino.

L’incontro presentera un panorama dell’attivita
nucleare a livello globale e spiegherà
l’evoluzione della tecnologia degli impianti. Di
fronte alla sfida energetica dei prossimi anni,
il nucleare puo essere una risposta. Il Dott.
Candris si propone inoltre di sfatare alcuni
miti generalmente diffusi sull’energia nucleare
e di spiegare perche l’uso di questa fonte non
sia dannoso per l’ambiente.
Secondo il Presidente della Westinghouse,
attualmente l’utilizzo di fonti di energia
rinnovabile non e sufficiente per soddisfare la
crescita del fabbisogno energetico mondiale;
inoltre continuare a fare affidamento sui
combustibili fossili non permette di ridurre le
emissioni di carbonio e degli altri gas serra.
Secondo i dati che saranno presentati, l’energia
nucleare copre oggi circa il 20% del fabbisogno
globale di elettricita, senza emissione di gas
serra. L’ultima generazione di impianti nucleari
giochera quindi un ruolo di primo piano nel
venire incontro alla rapida crescita della
domanda di energia.

martedì 7 ottobre 2008, 12.35.04 | newsmtesla

- 0610081900 – SL

 

GELATERIA GROM

PANNA -  NOCCIOLA  - LIMONE

  FICO – CIOCCOLATO FONDENTE

martedì 7 ottobre 2008, 10.29.28 | newsmtesla

Empatia

L’empatia è la capacità di comprendere cosa un’altra persona sta provando.
La parola deriva dal greco “εμπαθεια” (empateia), che veniva usata per indicare il rapporto emozionale di partecipazione che legava l’autore-cantore al suo pubblico. Nelle scienze umane, l’empatia designa un atteggiamento verso gli altri caratterizzato da uno sforzo di comprensione intellettuale dell’altro, escludendo ogni attitudine affettiva personale (simpatia, antipatia) e ogni giudizio. L’ascolto “empatico” pone l’altro nella condizione di esplorarsi per trovare essenzialmente la sua verità. Si tratta di offrire una relazione di elevatssima qualità basata sull’ascolto non valutativo, dove ci concentriamo sulla comprensione dei sentimenti e bisogni fondamentali dell’altro; è l’attitudine ad essere completamente disponibile per un’altra persona, mettendo da parte le nostre preoccupazioni e i nostri pensieri personali, pronti ad offrire noi stessi.

TEORIA DELLE STRINGHE..

sabato 4 ottobre 2008, 21.30.15 | newsmtesla

[..work in progress..]

DIMENSIONI EXTRA:

Una caratteristica interessante della teoria delle stringhe è che essa predice il numero di dimensioni che l’Universo dovrebbe avere. Né la teoria dell’elettromagnetismo di Maxwell né la teoria della relatività di Einstein dicono nulla sull’argomento: entrambe le teorie richiedono che i fisici inseriscano “a mano” il numero delle dimensioni.

Invece, la teoria delle stringhe consente di calcolare il numero di dimensioni dello spazio-tempo dai suoi principi base. Tecnicamente, questo accade perché il principio di invarianza di Lorentz può essere soddisfatto solo in un certo numero di dimensioni. Più o meno questo equivale a dire che se misuriamo la distanza fra due punti e poi ruotiamo il nostro osservatore di un certo angolo e misuriamo di nuovo, la distanza osservata rimane la stessa solo se l’universo ha un ben preciso numero di dimensioni.

Una analogia molto usata per questo è di considerare lo spazio multidimensionale come un tubo di gomma per il giardino. Se guardiamo il tubo da una certa distanza, esso sembra avere una sola dimensione, la sua lunghezza. Questo corrisponde alle quattro dimensioni macroscopiche cui siamo abituati normalmente. Se però ci avviciniamo al tubo, scopriamo che esso ha anche una seconda dimensione, la sua circonferenza. Questa dimensione extra è visibile solo se siamo vicini al tubo, proprio come le dimensioni extra degli spazi di Calabi-Yau sono visibili solo a distanze estremamente piccole, e quindi non sono facilmente osservabili.

 

Interazioni nel modo subatomico: linee d’universo di particelle puntiformi nel Modello Standard (a sinistra) e un foglio d’universo composto da stringhe chiuse nella teoria delle stringhe (a destra)

A tutt’oggi, la teoria delle stringhe non è verificabile. Considerare la teoria sotto il solo profilo della sua verificabilità, è comunque estremamente riduttivo ed apre il campo ad una serie di problemi. Uno dei caratteri fondamentali di una teoria scientifica è invece il requisito popperiano della falsificabilità cioè della capacità di produrre almeno un enunciato grazie al quale è possibile confutare l’intera teoria. 

In fisica quantistica i bosoni, così chiamati in onore del fisico indiano Satyendra Nath Bose, sono una delle due classi fondamentali in cui si dividono le particelle: i bosoni e i fermioni. I bosoni si distinguono dai fermioni per il fatto che mentre questi ultimi obbediscono al principio di esclusione di Pauli:

 

un singolo stato quantico non può essere occupato da più di un fermione,

i bosoni sono invece al contrario liberi di affollare in gran numero uno stesso stato quantico.

 

giovedì 2 ottobre 2008, 10.17.31 | newsmtesla

25 09 08 15.30

La vera amicizia è una pianta che cresce lentamente e deve passare attraverso i traumi delle avversità perché la si possa chiamare tale.

***

Si puó notare di amicizie che perdurano molti anni tra un uomo ed una donna che, molte volte, é lei che s’innammora di lui e che lui non lo percepisce o non corrisponde, e viceversa.

Non c’é niente di male nel confessare i nostri sentimenti.

Un vero amico deve essere sincero con l’altro e fargli sapere

quello che sente.

Se l’amicizia fra entrambi è molto forte, come si suppone, resisterá a qualsiasi confessione di declarazione d’amore e l’altro non dovrebbe sentirsi offeso né intimidito.

Celle solari

giovedì 2 ottobre 2008, 10.06.48 | newsmtesla

nuovo record di efficienza

Messa a punto una tecnologia in grado di convertire in energia elettrica il 40,8% delle radiazioni solari

 Il nuovo record mondiale per l’efficienza fotovoltaica è a stelle e strisce. Gli scienziati del Dipartimento di Energia degli Stati Uniti hanno creato un dispositivo a celle fotovoltaiche che è in grado di convertire il 40,8 per cento delle radiazioni solari in elettricità pulita. Il primato arriva solo pochi giorni dopo l’annuncio del record europeo, conquistato dall’Istituto Fraunhofer per i Sistemi a energia solare, che si è fermato a un’efficienza del 39,7 per cento.

 
Nuove celle solari sono in grado di convertire il 40,8% delle radiazioni in energia (Reuters)

 CELLA A TRIPLA-GIUNZIONE

L’innovativa tecnologia per la conversione dell’energia solare ha surclassato tutte le altre fino ad ora progettate e ha già ottenuto un riconoscimento dalla rivista R&D come una delle più innovative scoperte del 2008. La cella è stata disegnata, fabbricata e testata presso il Laboratorio nazionale di energia rinnovabile (Nrel). Si tratta di una cella a tripla-giunzione, costituita da una combinazione di semiconduttori. Su di essa la luce solare è stata concentrata fino a raggiungere un’intensità pari a 326 volte quella che raggiunge la superficie terrestre in una giornata serena. Le celle solari a multi-giunzione sono l’ultima frontiera in campo fotovoltaico. Ma questo nuovo sistema di conversione dell’energia solare differisce da tutti quelli disegnati in precedenza. I ricercatori del Nrel hanno fatto in modo che lo spettro solare venga scisso in tre parti tramite l’utilizzo di una struttura composta da strati di fosfuro di indio e gallio (GaInP) e arseniuro di indio e gallio (GaInAs): ogni porzione dello spettro viene quindi assorbita da ciascuna delle tre giunzioni alla sua massima efficienza di conversione. A tutto ciò va aggiunto che la cella viene sviluppata su un wafer di arseniuro di gallio, che in una seconda fase viene rimosso. Il risultato è un dispositivo ultra leggero e sottile che costituisce una nuova classe di celle fotovoltaiche con molti vantaggi nelle performance, nel design e nei costi. Le caratteristiche di queste celle le rendono ottime candidate per essere utilizzate nello spazio, sui satelliti, e nelle centrali fotovoltaiche che sfruttano la luce solare concentrata.

_________

fonte:corriere.it

giovedì 2 ottobre 2008, 10.06.25 | newsmtesla

“Chih Pu Chih Shang, Pu Chih Chih Ping”

(capitolo numero 71, Tao Te Ching)

Saper di non sapere è sapiente; non sapendo sapere è insania”

“Saper di non saper è gia guardare dall’alto la propria umiltà essenziale, cogliendo l’abisso celato, anche nella più elevata coscienza, il proprio dottissimo ignorare”.

“Non sapendo sapere è invece la perniciosa diffusissima presunzione di chi già, in quanto finito e mortale, non sa, eppure pretende di sapere; restando, da ultimo, isolato e solo nel proprio convincimento autoreferenziale, impedendo ogni crescita personale”.

Ma c’è di più:

“Saper di non sapere non incarna, tuttavia, l’arroganza estrema del sapere. Piuttosto è il metodo della continua ricerca, della curiosa interrogazione ma anche dell’umile limitazione e paziente persuasione. Non si accontenta di non sapere, in maniera limitata, acquisita, dogmatizzata, bensì continua a ricercare e continuamente esperisce il limite del sapere”.

_________

fonte: “dialoghi dei principi con gesu socrate lao tzu” di francesco tomatis

nixon moreno

giovedì 2 ottobre 2008, 9.58.43 | newsmtesla

Leader studentesco rifugiato nella Nunziatura da 18 mesi

CARACAS
Il Venezuela di Hugo Chavez e Vaticano

sono ai ferri corti

Casus belli, la decisione della Santa Sede di concedere asilo diplomatico «per ragioni umanitarie» a Nixon Moreno, resa nota martedì notte dagli avvocati dello studente antichavista. A stretto giro di posta, ieri, è arrivata la risposta del ministro degli interni del Venezuela, Tarek El Aissami, il quale ha intimato al Vaticano di «consegnare immediatamente questa persona che ha commesso un delitto e, quindi, deve essere processato». Ma chi è Moreno e, soprattutto, comemai Santa Sedee Venezuela hanno deciso di combattere quella che sin d’ora si prospetta come una vera e propria guerra diplomatica?

–br–
Per gli antichavisti, questo combattivo 33enne non è solo un leader studentesco perseguitato dal regime ma un «eroe nazionale» e un «orgoglio»: per questo stanno addirittura tentando di candidarlo alle elezioni amministrative del prossimo 23 novembre. Per i chavisti, invece, Nixon (così lo chiamano in molti giocando sull’omonimia con il protagonista del Watergate) non è altro che un delinquente, un criminale, un «vendepatria», uno che è ricercato dalla giustizia per l’omicidio di un funzionario di polizia e per avere tentato di violentare un’agente. Sicuramente, Nixon Moreno dal 23 marzo 2007 vive barricato all’interno della Nunziatura apostolica di Caracas e, dopo le dichiarazioni del ministro degli Interni venezuelano, è assai difficile che ottenga quel salvacondotto che gli permetterebbe di uscire dal paese. Nonostante la concessione dell’asilo del Vaticano che lo considera un «perseguitato politico».
«Se le autorità venezuelane non ce lo concederanno ci appelleremo all’articolo 14 della Dichiarazione Universale sui Diritti dell’Uomo e a tutte le convenzioni che prevedono questo diritto nel caso sia concesso l’asilo politico. E lo faremo in ogni sede internazionale». Questo assicurava ieri a La Stampa Alonso Medina Roja, uno dei due legali che assistono Moreno, confermando che la richiesta fatta dal Vaticano al ministero degli Esteri venezuelano per ottenere il salvacondotto risale allo scorso 11 giugno e che, sinora, nessuna risposta è stata data.
Di tutt’altro avviso rispetto all’avvocato Medina Roja, Robert Serra, combattivo leader studentesco chavista dalla parlantina sciolta e molto amato dalle giovani bolivariane per il suo bell’aspetto. Ieri, intervenendo a un programma televisivo dove si stava discutendo animatamente sulla decisione della Santa Sede, Robert è intervenuto telefonicamente per dire che «è la prima volta nella storia che la Santa Sede concede asilo politico a un presunto violentatore. Una vergogna per questa Chiesa che va contro i suoi principi morali, gli stessi fondamenti del cristianesimo e contro Gesù Cristo».
Per ora dalla Nunziatura, che da quando ospita Nixon Moreno ha già subito tre attentati dinamitardi con bombe carta, nessun commento. Evita ogni commento anche lo studente, raggiunto telefonicamente, mentre non devono stupire le feroci accuse e le polemiche tra Santa Sede ed il governo venezuelano. «Repellente e indegna», infatti, erano stati i due aggettivi usati lo scorso anno dal ministro venezuelano del Potere popolare per le relazioni con l’estero Nicolás Maduro per definire la Chiesa cattolica, colpevole secondo il capo della diplomazia di Caracas, «di utilizzare persone con la tonaca e con il titolo di vescovo per emettere giudizi politici funzionali al piano di destabilizzazione denunciato dal presidente Hugo Chavez».
Eravamo prima del referendum per la modifica della Costituzione voluto dallo stesso presidente ma respinto dagli elettori ela Conferenza episcopale venezuelana si era schierata apertamente contraria al cambiamento. Anche la polemica intorno a Nixon Moreno, dunque, è esplosa quando mancano un paio di mesi a un voto, questa volta non referendario ma amministrativo, e i candidati chavisti sono minacciati in molti comuni e regioni da altri, più vicini alla Chiesa. Sarà un caso?

______________

fonte:lastampa

info utili..

giovedì 2 ottobre 2008, 9.57.14 | newsmtesla

  Batteria del telefono scarica ?

Come disattivare un telefonino che ti hanno rubato?

  Batteria del telefono scarica ?

Tutti i telefonini hanno una riserva di carica nella batteria, devi digitare *3370# e automaticmente si attiva dandoti una carica supplementare fino al 50%.

Quando ricarichi di nuovo il tuo telefonino, si ricaricherà anche la riserva e sarà pronta per un’altra occasione.

(nn ho ancora provato…)

 

Come disattivare un telefonino che ti hanno rubato?

Primo, devi sapere il numero di serie (IMEI),

per recuperarlo è necessario digitare:

*#06# , nel fare questo ti appaiono 15 cifre, questo è il numero di serie del tuo telefonino, scrivilo e archivialo in un posto sicuro.

 Se lo perdi o te lo rubano, recupera il codice imei e chiama la tua compagnia telefonica; nessuno potrá più usare il telefonino anche cambiando la SIM.

mercoledì 17 settembre 2008, 10.30.29 | newsmtesla

 -  L in t. sky  -

….. ….. …… ……. …… …… …… …… ….. …… ….. ……

la fisica della mente..

mercoledì 17 settembre 2008, 10.25.41 | newsmtesla

Nel 1994 usciva in contemporanea nelle librerie inglesi ed americane un volume scritto da un famoso fisico dell’Università di Oxford R. Penrose e intitolato “Le Ombre della Mente”. Questo libro, per le tesi che prospettava nonché per l’autorevolezza del suo autore, mise in subbuglio il mondo medico-scientifico dell’epoca.

La tesi principale sostenuta da Penrose ruotava attorno all’inadeguatezza dei modelli interpretativi dei “processi cognitivi” e sulla possibilità di trovare strade alternative per spiegare le dinamiche degli “atti mentali”.

Rifacendosi ad alcune pionieristiche ricerche dell’anestesiologo S. Hameroff e del neurofisiologo B. Libet, Penrose ipotizzò che i processi cerebrali come la coscienza o la consapevolezza dovessero essere direttamente collegati al fenomeno fisico noto col nome di coerenza quantistica.

La “coerenza quantistica” è quel meccanismo fisico per cui i metalli portati a bassa temperatura manifestano il fenomeno della superconduttività. A temperature molto basse infatti, alcuni metalli possono condurre l’elettricità senza opporre resistenza. Una corrente immessa in una spira superconduttrice scorrerebbe per un tempo infinito. Il segreto di questo fenomeno è che gli elettroni che trasportano la corrente elettrica si muovono tutti insieme in modo coerente, come se fossero una unica gigantesca particella. La conseguenza di questa “pan-armonia” è che la corrente elettrica scorre praticamente senza ostacoli.

Una situazione simile -seppur in condizioni ambientali decisamente diverse- avviene, secondo Penrose, anche a livello cerebrale (al livello dei tubuli). Il cervello umano è costituito da miliardi di neuroni (il neurone è la cellula fondamentale del sistema nervoso) che a loro volta sono costituiti da migliaia di microtubuli i quali sono composti da enti ancor più piccoli chiamati tubuli.

Ora, a parere di Penrose, l’evento cosciente nell’uomo, il passaggio cioè dallo stato di pre-coscienza allo stato di coscienza, avviene al raggiungimento da parte dei tubuli dello stato di massima “eccitazione coerente”. Come gli elettroni nella superconduttività (i quali muovendosi all’unisono permettono alla corrente di fluire senza ostacoli) così la globalizzazione della coerenza tra i tubuli cerebrali permette il verificarsi del processo cognitivo.

Il tempo di transizione dalla fase pre-cosciente alla fase cosciente con la conseguente attivazione del segnale motore che consente ad esempio di muovere un braccio, dura circa mezzo secondo. Il susseguirsi delle transizioni dal livello minimo al livello massimo di coerenza dei tubuli, costituisce il “corso della coscienza” ; lo scorrere del tempo.

I fenomeni di coerenza quantistica oltre a spiegare razionalmente le dinamiche dei processi cognitivi, darebbero conto anche di quello che Penrose chiama “Senso Unitario” della mente. Il processo cosciente non può mai essere frutto dell’attivazione di una singola area del cervello ma deve scaturire dalla azione concertata in un gran numero di zone della mente. L’oscillazione coerente dei tubuli, la quale interessa la maggior parte del cervello, provvederebbe egregiamente a quel collegamento globale essenziale per l’estrinsecazione dell’atto mentale.

Una delle più singolari conseguenze dell’applicazione della coerenza quantistica alla mente, è che i processi cerebrali non potranno mai essere pienamente simulati da un calcolatore. Infatti, un computer per quanto evoluto possa essere, deve pur sempre ragionare seguendo una logica deterministica, ad ogni azione deve sempre corrispondere una reazione. Uno più uno deve sempre dare due. La coerenza quantistica alla base dei processi cerebrali invece, dovendo sottostare alle leggi della Meccanica Quantistica (le quali prevedono che qualsiasi sistema a loro soggetto debba sempre manifestare un certo grado di indeterminazione, di imprevedibilità), sfugge a questa logica. In altre parole l’aumento del grado di coerenza dei tubuli che deve condurre dallo stato di pre-coscienza allo stato di coscienza, può, seppur con probabilità molto bassa, fermarsi o accelerare spontaneamente, con tutte le conseguenze che ne derivano.

Ecco a grandi linee le novità introdotte nel campo delle “scienze cognitive” dalle idee di Penrose. Ovviamente non può bastare un semplice intervento giornalistico per spiegare in dettaglio una “costruzione di pensiero” che chiama in causa discipline scientifiche diversissime. Lo scopo del presente articolo è comunque essenzialmente quello di stimolare nel lettore la curiosità per una questione che, nei paesi anglosassoni, a differenza dell’Italia dove risulta pressoché sconosciuta, è tutt’oggi oggetto di acceso dibattito.

Un articolo simile, sempre del prof. Cantalupi, è apparso sulla pagina della Cultura de’ “Il Giorno”, “Il Resto del Carlino”, “La Nazione”, di mercoledì 18 Marzo 1998 di:TIZIANO CANTALUPI

._______________________

destino o entanglement ?

martedì 16 settembre 2008, 13.37.19 | newsmtesla

coincidenze? …destino(a cui nn credo), …o altro??

                                                          

Le coincidenze sono casuali..? sono il frutto di volontà espresse o di movimenti in atto, di desideri che si manifestano con grande forza. Esse si manifestano, però, in modo meno chiaro e immediatamente visibile e percepibile, perché non appartengono alla sfera dei nostri comportamenti quotidiani e delle nostre esperienze più frequenti e familiari. Anche quando ci rendiamo conto che una coincidenza sopraggiunta è troppo strana e inspiegabile per essere soltanto una coincidenza ci limitiamo ad un sorriso abbozzato non si sa verso chi e per che cosa..

In termini quantistici, la coincidenza penso possa essere definita con il termine “entanglement“, traducibile ad esempio come “intrecciamento”. Esso descrive la possibilità di due sistemi di avere e mantenere strane relazioni a distanza, lo stesso Einstein la definì come “azione fantasma a distanza”.

Noi dovremmo cercare di capire che cosa possano significare questi fenomeni inspiegabili all’apparenza, perché è sicuramente vero che ciò a cui non riusciamo a fornire una spiegazione, la possiede al suo interno.

Una delle più frequenti coincidenze è quella degli incontri “casuali”; si verifica quando tra due individui che vivono in una stessa città inizia un percorso di intensa sintonia, il più comune dei quali è quello dell’innamoramento (di uno o entrambi i soggetti) ma non solo, anche qualunque altro tipo di  legame profondo.

La nascita di qst nuovo sentimento condiziona inesorabilmente tutta la vita delle persone coinvolte; non c’è un modo di sottrarsi a questa legge generale; e così si verifica che le due persone interessate vengano attratte e sommerse da una forza “misteriosa” verso gli stessi luoghi, negli stessi momenti; quando, ad esempio, si fa una certa cosa in un determinato momento e in un luogo definito e, all’improvviso, ci viene in mente di dirigerci in un’altra zona, spesso incontriamo l’altra persona.

Nei casi di maggiore intensità emotiva, “sappiamo” che incontreremo l’altra persona e, quasi sempre, questo puntualmente avviene; non ci meravigliamo neppure di quell’incontro, ci sembra naturale; quando, poi, l’incontro avviene ci sentiamo felici perché tutte le nostre innumerevoli “particelle costitutive”, che precedentemente stavano lavorando con tenacia per quell’evento, hanno raggiunto il loro scopo.

E’ evidente quindi, come questa situazione, che sembra una coincidenza, in realtà non lo sia; si tratta del risultato di un lavoro..?, di una attività..? come la raccolta che viene dopo la semina e il giorno che viene dopo la notte?! del lavoro del nostro cervello e di quello della persona amata.. o a cui siamo legati sentimentalmente?; un lavoro straordinariamente intenso che si esprime alla massima potenza in quella che possiamo immaginare a una vera e propria nuova “creazione”.

Una spiegazione quantica della mente…?

martedì 16 settembre 2008, 13.13.21 | newsmtesla

La nuova visione della realtà.

Le scoperte della fisica di questo secolo hanno profondamente cambiato la visione della realtà naturale. Oggi il quadro scientifico dell’universo risulta ben diverso da quello del tradizionale “mondo-macchina” ottocentesco, che influenza ancora la nostra cultura e la nostra mentalità, sebbene sia un modello utile solo su scale superiori a quella atomica.
La Teoria della Relatività ristretta (Einstein, 1905), oltre ad unificare i concetti di spazio e di tempo, ha dimostrato che la materia è semplicemente una forma di energia. La meccanica quantistica o fisica quantistica (Planck, Bohr, Heisenberg, Schrödinger, Dirac ed altri, 1900-1928) ha poi evidenziato che a livello atomico tale forma di energia presenta una natura “vibratoria” o “ondulatoria”.
La nozione classica di “materia” è valida a livello degli oggetti visibili fino al livello molecolare ed atomico (stadio chimico), ma ai livelli sub-atomici decade. Normalmente si dice che all’interno degli atomi vi sono delle particelle in movimento (gli elettroni ed i nucleoni); in realtà tali presunte “particelle” consistono di campi oscillanti, ovvero di strutture immateriali recanti “informazione”.

Una spiegazione fisica della mente.

Considerato tutto ciò, è legittimo chiedersi se lo studio scientifico della mente umana possa trovare risposte valide in termini di fisica fondamentale piuttosto che nei tradizionali termini materialistici.
Fino ad oggi nessuno ha mai tentato un serio approccio fisico allo studio della mente: essa è considerata un’entità secondaria (rispetto alle entità fisiche fondamentali), riscontrata solo in organismi complessi come l’uomo o gli animali, e pertanto di esclusiva pertinenza delle scienze biologiche. Ma alcuni fisici, in seguito allo sviluppo della meccanica quantistica, hanno iniziato a chiedersi se la questione della mente possa avere relazioni con la fisica moderna, e questo per almeno due motivi:

1) il principio di indeterminazione (Heisenberg, 1927) sembra permettere un piccolo margine per un “libero arbitrio” della natura;
2) alcuni aspetti paradossali della meccanica quantistica,
verificati sperimentalmente, sembrerebbero richiedere l’esistenza di una “consapevolezza” nei fenomeni subatomici, o comunque richiedono un riesame del concetto di “oggettività” e del ruolo dell’osservatore cosciente nei fenomeni fisici (Bell, 1966; Aspect ed altri, 1982; Mandel, Chiao ed altri, 1991).

D’altra parte una spiegazione fisica della coscienza deve pur esistere, se non si vuole ricadere in una concezione metafisica che separi la mente dal resto del mondo. Ebbene, oggi sappiamo che l’attività mentale è dovuta a processi chimici e fisici che avvengono nel cervello e nel sistema nervoso, a livello molecolare, atomico e probabilmente anche subatomico, cioè a livelli descritti dalla meccanica quantistica [le ragioni per cui sembrerebbe lecito ipotizzare che il processo del pensiero cosciente sia un processo quantistico*].

Il “campo unificato”.

Grazie alla teoria della “Superstring” o “Supercorda” (Green, Schwartz ed altri, 1983, tuttora in evoluzione), i fisici si ritrovano vicinissimi ad una teoria completa e definitiva di unificazione dei 4 tipi fondamentali di campo o forza naturale (gravitazionale, elettromagnetico, nucleare forte e debole). Tale teoria sarebbe capace di spiegare ogni manifestazione della realtà naturale in termini di un’unico campo basilare, come già presagito da Einstein, che fu il primo a parlare di “campo unificato”.
Oggi gli scienziati sanno che l’attività mentale nell’uomo è riconducibile a processi chimici e fisici che avvengono a livello molecolare, atomico, e presumibilmente anche sub-atomico nel sistema nervoso, vale a dire nell’ambito di validità della meccanica quantistica, a livelli prossimi alla sfera di azione diretta del “campo unificato”.
Poiché dal “campo unificato” si dispiegherebbe ogni manifestazione in natura, è ragionevole ricercare la sua relazione con la mente dell’uomo. Questo è il principale campo di ricerca della M.U.M., Maharishi University of Management (già M.I.U., Maharishi International University), Fairfield, Iowa, U.S.A., con cui collaborano o hanno collaborato prestigiosi scienziati (compresi fisici come il prof. Josephson, premio Nobel; il prof. Wigner, celebre fin dagli anni ’20; il prof. Hagelin, noto per i suoi studi sulle teorie di unificazione; il prof. Sudarshan; ecc.).
La M.U.M. ritiene che la “consapevolezza” o “coscienza” sia una proprietà che emerge direttamente dal “campo unificato”, ovvero dai livelli fondamentali della realtà naturale (Maharishi, 1982). Questa ipotesi audace risulta verosimile e fondata in base alle attuali conoscenze della fisica, e sembra avvalorata dai notevoli risultati pratici (oltre che teorici) ottenuti dalla M.U.M. sul funzionamento della mente e del sistema nervoso.

La coscienza come proprietà del campo unificato.

Come abbiamo visto, è ragionevole supporre che l’attività mentale sia un fenomeno quantistico ed infatti alcuni ricercatori hanno già portato delle prove a sostegno di tale tesi*.
Le attuali teorie fisiche dei campi includono la proprietà fisica dell’autoriferimento (come conseguenza della caratteristica matematica di non-abelianità). Grazie ad essa il campo unificato può “percepire se stesso“, ovvero le varie entità fisiche possono interagire (per esempio un elettrone che interagisce con un altro elettrone è semplicemente una perturbazione del campo unificato che “si accorge” della presenza di una perturbazione analoga).
Ebbene, l’autoriferimento può essere interpretato come il primo stadio elementare di “consapevolezza”, e si può ipotizzare che il cervello umano sia strutturato in modo da “amplificare” questa proprietà.
La “consapevolezza” non sarebbe il prodotto precario e quasi accidentale di un meccanismo biologico complesso (sistema nervoso e cervello), ma sarebbe una proprietà fisica fondamentale ed universale (presente a livello latente e primordiale nel “campo unificato”). Il cervello avrebbe invece la funzione di “evidenziare” ed “elaborare” questa straordinaria proprietà, così come un laser evidenzia alcune proprietà latenti della luce che normalmente non vengono rivelate.
Le onde cerebrali sarebbero pertanto un raro esempio di effetto quantistico che si manifesta alle scale dei fenomeni ordinari invece che a livello sub-atomico. Esse costituirebbero il residuo macroscopico di una funzione d’onda, ovvero una autentica macro-funzione d’onda (le funzioni d’onda sono le entità basilari della meccanica quantistica, che indicano la distribuzione spazio-temporale dei campi quantistici, e normalmente a scale superiori a quella atomica non sono più rivelabili ma appaiono condensate o come “materia” o come “forze”).
In fisica sono noti alcuni fenomeni straordinari che manifestano proprietà quantistiche a livello visibile. Per esempio nei “superconduttori” o nei “superfluidi” la resistenza elettrica e la viscosità risultano uguali a zero, per cui non vi è alcuna dissipazione di energia (l’entropia non aumenta). Un superfluido messo in movimento (per esempio scuotendolo) non si fermerà più.
In realtà anche la propagazione della luce è un fenomeno quantistico, descritto da una funzione d’onda di natura elettromagnetica (non a caso per l’esperienza comune la luce risulta un esempio evidente di energia “intangibile”, benché certamente fisica e reale).
Tuttavia la luce ordinaria non evidenzia interamente le proprietà quantistiche, poiché essa è luce “incoerente”: le oscillazioni della sua funzione d’onda sono “sfasate”, cioè disordinate, e tendono in massima parte ad auto-annullarsi. Il laser invece è una sorgente di luce “coerente”, le cui oscillazioni risultano “in fase” e permettono di rivelare le eccezionali proprietà dei campi elettromagnetici oscillanti (potenza, precisione, stabilità, eccetera).
La possibile analogia con il cervello umano è evidente: se si potessero rendere “coerenti” le onde cerebrali si potrebbero rivelare, nel funzionamento della mente, aspetti superiori del tutto naturali ma normalmente inespressi.

Perché la mente agisce a livello quantistico.

Questa notevole affermazione verrebbe giustificata osservando che la coscienza deve essere considerata una qualità del campo unificato, per cui risulta perfettamente naturale che la mente possa accedere all’ambito quantistico ed acquisirne le qualità superiori di ordine e potenza. Questo è possibile se il sistema nervoso (che in ultima analisi è un sistema chimico-fisico, per quanto complesso e raffinato) raggiunge lo stato quantistico di “minima eccitazione” (con il rilassamento..?).

Qualcuno potrebbe dubitare del fatto che la coerenza cerebrale osservata sia veramente prodotta dal campo unificato e potrebbe supporre che essa sia causata invece da “banali” fenomeni psico-fisiologici, secondari rispetto alla fisica fondamentale.
Sono possibili  obiezioni.

Effetto di campo della coscienza.

Noi viviamo costantemente immersi in un “calderone” di campi fisici, come il campo gravitazionale, il campo magnetico terrestre, i campi elettromagnetici prodotti dalle varie emittenti radio-televisive o dai telefonini cellulari. La fisica moderna ha dimostrato che perfino la materia è una condensazione di campi quantistici. Perché mai una struttura fisica come il sistema nervoso dovrebbe rimanere estranea alle normali interazioni tra i diversi campi naturali? Negare questa possibilità significa assumere un atteggiamento chiuso, dogmatico e, in sostanza, antiscientifico.

Occorre precisare che i tipi di interazione fisica attualmente conosciuti (elettromagnetico, gravitazionale, nucleare forte e debole) non sono in grado di spiegare questo fenomeno (che pure è stato più volte osservato) ed è per questo che è necessario rivolgersi a livelli più profondi ed unificati delle leggi naturali, ovvero al “campo unificato” ricercato dalle teorie contemporanee di unificazione.

La scienza ha un carattere sperimentale e richiede una conferma concreta di ogni ipotesi o teoria: anche l’esistenza dell’Effetto di campo della coscienza deve essere sottoposta a verifica.

Il titolo originario di questo articolo (1993) è:
La “consapevolezza”: una proprietà del “campo unificato”.

____________________________

Alcune parti sono state cancellate dal sottoscritto.

 

RIVOLUZIONE ELICOIDALE..

lunedì 15 settembre 2008, 14.03.07 | newsmtesla

L’azienda gallese Quiet Revolution ha messo a punto una nuova pala che non disturba l’ambiente e rende il 20% in più.Perchè è alta solo tre metri e riesce a catturare il vento in ogni direzione..

La linea Quiterevolution, include diversi modelli. La loro originalità è evidente fin dal design che (premiato in diverse occasioni) non implica solo un miglioramento a livello estetico (e di conseguenza un impatto meno invadente allo sguardo), ma anche innovazioni strutturali che rendono queste turbine adatte anche agli spazi urbani. La forma è a spirale, piacevole, ma anche più adatta a condizioni di vento meno forte e meno stabile. E’ infatti in grado di sfruttare raffiche di vento provenienti da viarie direzioni e massimizzare quindi il rendimento. La qualità è curata anche nei materiali: i suoi componenti sono realizzati in fibre di carbonio e tutte le parti rotanti sono saldate in modo da ridurre la manutenzione al minimo.

Per produrre energia QR5 necessita di una velocità minima di 4 m/s (e massima 16 m/s), significa che in Italia potrebbe funzionare non solo sul ‘cucuzzolo della montagna’.
In un anno potrebbe produrre fino a 10.000 Kwh (con una velocità media di 5,9 m/s).
Nella versione più piccola – presto disponibile sul mercato – può essere posta sopra un edificio, lungo le strade o nel nostro giardino.

Dato però che il vantaggio sul fronte ambiente non è sempre un motivo sufficientemente valido per investire, Quiterevolution ha pensato di rendere più appetibili le sue turbine con la versione “QR display” (progetto brevettato) in grado di trasformare la turbina in un mezzo di comunicazione visiva, unendo l’utile al dilettevole (e al ritorno economico commerciale!). Grazie a una serie di LED colorati il movimento del rotore sarà in grado di ‘proiettare’ nell’aria immagini o scritte.
E’ facile immaginarne le applicazioni sia in campo pubblicitario che di utilità per il pubblico (indicazioni, eventi particolari, segnalatori, ecc.).

Il costo per QR5 è, per ora, di circa 25.000 sterline, a cui occorre aggiungere circa 8.000 sterline di installazione una tantum.
Non è poco, ma considerando che la loro durata è di circa 25 anni, basta fare due conti.

 

 

 

[work in progress..]

 

 

venerdì 12 settembre 2008, 12.40.51 | newsmtesla

Acceso il super acceleratore
Il primo fascio di protoni, «sparato» nell’anello di27 chilometri, ha completato senza problemi il primo giro

 
(Ansa)

Durante il giro è stato osservato anche un lampo di particelle mentre il fascio di protoni attraversava il gas residuo presente nel rivelatore di uno dei quattro esperimenti, il Cms. Non si tratta, naturalmente, di una collisione fra protoni perché in questo momento sta circolando un solo fascio, ma è la prima evidenza che tutto sta funzionando bene. CACCIA ALLA «PARTICELLA DI DIO: sono partiti i quattro esperimenti previsti nel progetto più ambizioso della fisica moderna: gli scienziati sperano che possa materializzarsi il bosone di Higgs, detta la «particella di Dio», una particella inafferrabile che spiega l’esistenza della massa, mai individuata, ma solo ipotizzata dallo scienziato scozzese Peter Higgs. In sostanza si spera di ricreare le condizioni del Big Bang che ha generato l’universo svelando i misteri della fisica particolare. Altri esperti tuttavia hanno manifestato il timore che si possa invece generare anti-materia – i cosiddetti buchi neri – e questo ha scatenato l’interesse generale nei confronti della fisica delle particelle prima dell’avvio della macchina. Il Cern ha assicurato che le preoccupazioni sono infondate e che il Large Hadron Collider è sicuro. «Abbiamo due emozioni: la soddisfazione per aver completato una grande missione e la speranza di grandi scoperte davanti a noi». Così Robert Aymar, direttore generale del Cern di Ginevra, ha commentato il via agli esperimenti del maxi-acceleratore.

_____________

fonte:corriere

GINEVRA – Nonostante i «piccoli problemi elettrici» sorti nella notte, si è acceso l’acceleratore più grande del mondo, il Large Hadron Colider (Lhc) del Cern di Ginevra. Il primo fascio di protoni è stato «sparato» e ha già completato il primo giro dell’anello lungo27 chilometri della più grande macchina mai costruita al servizio della fisica. I ricercatori del centro di controllo del Cern di Ginevra hanno accolto con un applauso il completamento della prima fase dell’esperimento. Un grande applauso e un brindisi hanno salutato l’evento storico anche nella sede dell’Istituto Nazionale di Fisica Nucleare (Infn) a Roma, in collegamento con il Cern di Ginevra. La tensione era altissima, a Roma come a Ginevra, dove i ricercatori hanno seguito le ultime fasi del percorso del fascio di protoni nell’anello dell’acceleratore seduti in cerchio attorno ai monitor del centro di controllo dell’Lhc. Erano presenti tutti gli ex direttori generali del Cern, compresi gli italiani Luciano Maiani, oggi presidente del Consiglio nazionale delle ricerche (Cnr), e Carlo Rubbia. «È più emozionante di un lancio spaziale», ha detto il presidente dell’Infn, Roberto Petrozio, commentando tutte le fasi dell’evento. «Quello di oggi è un lancio del microcosmo che promette di avere un’importanza fondamentale per la fisica».

Aerei Invisibili..

venerdì 12 settembre 2008, 12.37.52 | newsmtesla

I media hanno iniziato ad occuparsi di tecnologie Stealth durante l’operazione Desert Storm. Negli anni ’90 l’invisibilità per aerei e mezzi militari sembrava cosa fatta, ma solo oggi con le ultime scoperte realizzate dal Britannia Royal Navy College c’è chi afferma che manca ormai poco, pochissimo, all’occultamento definitivo. Qualche tempo addietro si parlava solo di invisibilità ai radar, e ridotta possibilità di individuazione da parte di un occhio umano o elettronico. Di fatto le industrie di settore hanno sfruttato ogni genere di tecnologia e materiale per ridurre le tracce radar; le cromie dei mezzi e la pianificazione strategica militare hanno fatto il resto. Nell’ultima edizione della rivista PhysicsWorld, però, viene descritto un nuovo progetto del Britannia che punta alla realizzazione di una nave completamente invisibile (alla vista e al radar). Insomma, l’obiettivo è quello di trasformare in realtà uno dei capisaldi della letteratura spaziale fantascientifica. Come ricorda GizMag i materiali naturali hanno indici di rifrazione diversi ma comunque sempre positivi. I metamateriali invece sono in grado di rifrangere le onde elettromagnetiche con un angolo negativo, quindi teoricamente guidarle e farle scivolare attorno a un oggetto a mo’ di “mantello”. Insomma, la luce potrebbe continuare a “correre” sulla superficie di un mezzo celandolo di fatto alla vista.
La Duke University vi è già riuscita nel 2006 fasciando i metamateriali di microonde; poco dopo i ricercatori dell’Ames Laboratory hanno sviluppato un metodo per gestire analogamente le lunghezze d’onda nello spettro della luce visibile. Gli scienziati del settore sono convinti di poter raggiungere l’invisibilità totale in non più di dieci anni.

Il settore militare è il più interessato a raggiungere il risultato. Chris Lavers, il ricercatore del Britannia che si occupa di sensori, sostiene infatti che le navi stealth di nuova generazione potrebbero essere virtualmente invisibili all’occhio umano, ai radar e ai missili a ricerca di calore grazie anche al camuffamento delle loro vibrazioni sonore e dell’impatto magnetico. “Se possono essere sviluppati metamateriali ottici e radar, può essere individuato un modo per rendere le navi invisibili sia all’occhio umano che ai sistemi radar, senza ovviamente dimenticare le incredibili difficoltà di costruire un mantello grande abbastanza per nascondere un’intera nave”, ha dichiarato Lavers a PhysicsWorld.
Al momento,la Classe stealth più avanzata del mondo è quella delle corvette svedesi Visby.

______

fonte:ecplanet

I principi della Meccanica Quantistica..

mercoledì 10 settembre 2008, 10.59.19 | newsmtesla

La comprensione della meccanica quantistica sembra, a prima vista, una questione piuttosto complessa. Anche ad un secondo sguardo, tuttavia, le cose non sembrano migliorare di molto. Di certo si può dire che la meccanica quantistica riguarda il comportamento della materia a livello atomico e subatomico. Possiamo dire, in via preliminare, che con la teoria dei quanti l’atomo perde molto della sua certezza deterministica a favore di una maggiore incertezza statistica.

Plank e la sua costante. Tutto cominciò con la scoperta di uno studente di fisica di nome Max Plank, il quale scoprì nel 1900 che le radiazioni emesse da un corpo caldo non sono emesse in modo continuo ma in pacchetti, ovvero in quanti ( è bene sapere che scaldare la materia equivale ad agitarne gli atomi e provocare il desiderio di fuggire in alcune particelle; in altri termini, l’agitazione degli atomi e delle molecole può produrre la rottura dei legami che tengono unite le singole particelle).

Questa scoperta aprì un mondo del tutto nuovo nell’ambito della fisica. Fino a Plank si credeva che le radiazioni fossero un fenomeno costante e frazionabile a piacere, come una normale grandezza numerica, dopo Plank si dovette tener conto che l’energia (la radiazione) non viene emessa costantemente ma quantizzata in pacchetti.
In sostanza l’energia non è solamente un onda che si propaga in modo continuo e in tutte le direzioni (emanazione continua), l’energia viene emanata a proiettili, ovvero in quanti predefiniti dello stesso valore (emanazione discreta). Per usare un altro esempio, il quanto assomiglia al vagone di un treno, dove il treno rappresenta la quantità di energia complessiva e ciascun vagone il quanto costante in cui è suddivisa e sotto la cui grandezza non può essere ulteriormente considerabile.

La costante di Plank esprime il valore fisso e non frazionabile in cui l’energia di una radiazione è divisa. L’onda della radiazione si esprime in frequenza, maggiore è la frequenza (più corta è la lunghezza dell’onda) maggiore è l’energia racchiusa in un quanto.
L’energia, in sostanza, cambia in quantità, ma per essere emessa viene racchiusa sempre nel medesimo quanto, della stessa dimensione (relativamente all’esempio precedente, non importa quante persone vi siano in un vagone, il vagone resterà sempre della stessa lunghezza).

Molti furono gli ostacoli ad una effettiva comprensione della scoperta di Plank (ed Einstein dette una mano a Plank nel chiarirne alcune conseguenze), la teoria si impose molto lentamente nell’ambito scientifico e molto lentamente diede i suoi primi frutti nelle applicazioni successive.

Il dualismo onda-particella. Una prima conseguenza derivante dalla formulazione della teoria dei quanti fu la scoperta che la luce, oltre a comportarsi come onda, e quindi essere soggetta a fenomeni di rifrazione (le onde di luce si intrecciano e si sovrappongono come onde nel mare), si comporta anche come particella (la particella di luce viene chiamata fotone).

Questa scoperta non mancò di suscitare perplessità e resistenze. Malgrado la sua evidenza, provata da innumerevoli esperimenti, vi sono ancora oggi fisici che avanzano dubbi su questo dualismo, scetticismo forse dettato dal fatto che tale dualismo sembra contraddire in primo luogo un principio saldissimo nelle menti dei pensatori: il principio di non contraddizione.

Il punto è che onde e particelle, nel senso comune, sembrerebbero due entità contrapposte: le prime si irradiano a piacere e non sembrano avere problemi di frazionabilità, in quanto fenomeno costante e uniforme; le seconde sono per eccelenza entità quantizzate e discrete, nel senso che l’energia è costretta solamente in certi intervalli (non è possibile dividere un quanto in due, l’energia emessa in modo particellare ha come valore minimo sempre e comunque quella di un quanto).

Il problema del dualismo sembra in realtà non sussitere, il dualismo apparente è un problema di interpretazione: la luce, in sostanza, a seconda del tipo di esperimento, soddisfa sia la dimostrazione ondulatoria (dell’onda) sia quella particellare (della particella): quando i fisici domandano alla luce se essa sia un’onda, la luce risponde di si, quando le chiedono se essa sia una particella, anche questa volta la luce risponde di si. Una soluzione definitiva la potrebbe fornire un esperimento che interroghi la luce su untrambe le questioni contemporaneamente, il problema è che a tutt’oggi sembrano sussitere limiti fisici invalicabili che impediscono lo svolgimento di tale esperimento.

Heisenberg e il principio di indeterminazione. Un’altra spallata alle certezze di una fisica deterministica (ovvero sicura di poter predire sempre, a partire da stati presenti certi, qualsiasi stato futuro) la diede nel 1926 il fisico tedesco Werner Heisenberg.
Egli introdusse in fisica l’indeterminazione delle grandezze. Il principio di indeterminazione, infatti, sosteneva che non è possibile sapere contemporaneamente e con certezza la posizione e la velocità di una particella. In sostanza, più sapremo con precisione la posizione di una particella, meno sapremo informazioni sulla sua velocità, e viceversa.

Questo apparente paradosso è la conseguenza di comportamenti naturali ineliminabili. Per provare la posizione o la velocità di una particella, infatti, occorre spararle contro un fascio di luce. Ma la luce, come abbiamo visto, non è neutra, bensì è composta da fotoni, ciascuno con una carica di energia tanto più alta quanto è più alta la frequenza dell’onda di luce. A questo punto, il fotone che colpirà la particella non potrà che perturbare la traiettoria e lo stato della particella colpita: l’energia del fotone interferirà con lo stato della particella e la cambierà nella traiettoria e nella velocità.
Ecco perché, indipendentemente dal procedimento usato per l’esperimento, i limiti naturali propri delle onde luminose, non permetteranno mai di spiegare a fondo il reale stato della materia. Lo strumento più piccolo a disposizione dell’uomo è pur sempre una particella dotata di energia, a lovelli quantistici e subatomici questa piccola quantità di energia non può che costituire un elemento di perturbazione che impedisce di trattare le particelle oggetto di studio del tutto neutralmente.

Conseguentemente a questo discorso, la meccanica quantistica non potrà più avvalersi delle leggi della fisica classica: Heisenberg, Schrodinger e Dirac fonderanno quindi la nuova fisica, non più basata sulla certezza deterministica, per cui conoscendo esattamente lo stato di una particella si può prevedere meccanicamente e precisamente ogni sviluppo futuro, ma su nuove equazioni quantistiche, in cui lo stato della materia, lungi dal rappresentare una certezza determinata, non può che essere un’ipotesi probabilistica.

Ogni particella, in meccanica quantistica, non ha posizione e velocità determinate ma vive uno stato quantico, è come dire che ogni qualvolta si troveranno di fronte una particella, i fisici dovranno trascinare nei calcoli ogni possibile traiettoria della particella, e in questo, la particella verrà a trovarsi spesso nella posizione di vera e propria onda.
Bisogna infatti aggiungere che è possibile limitare lo stato quantico entro degli intervalli, primo fra i quali è il prodotto dell’incertezza della posizione della particella per quello dell’incertezza della sua velocità, il quale non potrà mai essere inferiore alla constate di Plank.

Dunque, alla luce della meccanica quantistica, i fisici potranno prevedere posizione e velocità di una particella solo statisticamente, e non più in modo deterministico.

–br–

____________

fonte:formamentis

Come ti aggiro Google

mercoledì 10 settembre 2008, 10.58.44 | newsmtesla

 

 

 

 

 

I 4 software per evitare la «profilazione» di Google. 1) Privoxy (un proxy installabile sul pc); 2) Track me Not (invia ricerche simulate nascondendo quelle reali); 3) Scookies (scambia a caso i cookies degli utenti); 4) Sgroogle (cripta le ricerche)

  

RICHIESTE FANSTASMA -

IL DONO DELL’ INVISIBILITA’. Scroogle è un sito internet che si colloca tra l’utente e Google rendendo anonime le ricerche. Dal sito si può scegliere la lingua di ricerca (compreso l’italiano) e se usare connessioni criptate HTTPS. Passando attraverso Scroogle si diventa praticamente invisibili a Google perché sarà il sito stesso a raggiungere il motore di ricerca per noi. In più sono eliminate pubblicità, cookie e ogni sistema di tracciamento lesivo. Navigando su Scroogle si avranno gli stessi risultati di Mountain View, senza pubblicità e profilazione. Scroogle è stato creato da Daniel Brandt, creatore di un altro sito anti-google: Google Watch questa sorta di osservatorio si occupa di raccogliere tutte le malefatte più o meno note di Google offrendo sempre ottima documentazione aggiornata e validi suggerimenti per difendere la propria privacy.

SCAMBIAMOCI I COOKIE! – Scookies è un’ estensione per il Browser Firefox e funziona per tutti i motori di ricerca e siti internet che cercano di tracciare gli utenti tramite i cookie. Scookies cambia i cookie degli utenti mescolandoli gli uni agli altri. In questo modo vengono alterati i profili di ciascun utilizzatore intorbidendo il tracciato originale. Inoltre ogni user può segnalare nuovi siti internet che fanno profilazione contribuendo a migliorare l’anonimato di tutti gli altri. Scookies aumenta la sua performance ogni volta che un nuovo utente si aggiunge alla comunità. Questo applicativo è una creazione di Andrea Marchesini coautore del volume Luci e Ombre di Google, edizione Feltrinelli un utile saggio sui pericoli che si incorrono nel fidarsi troppo di Google.

RISOLVERE IL PROBLEMA ALLA RADICE – Privoxy è un proxy anonimizzante. Ovvero un applicazione che si colloca tra il nostro browser e i siti internet che vogliamo raggiungere. Con questo proxy possiamo davvero controllare la privacy della navigazione. Consente di cambiare lo user agent (nome del browser e del sistema operativo) , bloccare banner pubblicitari, filtrare cookie e molto altro. Può essere installato anche sul proprio computer in semplici passaggi ed è altamente configurabile. Privoxy è uno strumento essenziale per qualunque progetto che miri a proteggere la navigazione dell’utente.

CHE COSA MANCA? – Gli applicativi descritti non garantiscono una certezza riguardo la protezione della privacy. Rappresentano un segnale d’attenzione circa il comportamento spesso non propriamente trasparente di chi ci offre servizi «gratuiti». Manca la protezione verso servizi utili (mappe) che non richiedono l’autenticazione, manca ancora un vasto fronte di opposizione al monopolio della ricerca da parte di pochi motori. Manca soprattutto una conoscenza critica riguardo i sistemi di profilazione e una visione d’insieme delle sottoreti costituite dai grandi player dell’IT che spesso vengono scambiate per l’interezza di Internet

fonte:corriere.it

Track Me Not è un’estensione per il browser Firefox pensata per proteggerci dal data-profiling attivato dai motori di ricerca, funziona per tutti i motori, non solo per Google. TMN lavora in background quando Firefox è aperto ed invia periodicamente delle ricerche casuali. Il motore di ricerca riceverà le nostre ricerche reali mescolate a molte altre, simulate dal programma. In questo modo Google non sarà in grado di recepire nitidamente quali siano gli argomenti che ci interessano, poiché questi compariranno in modo offuscato. In altre parole l’applicazione nasconde il percorso di ricerca in un insieme indistinto di domande fantasma rendendo difficile l’aggregazione di tali dati in un profilo preciso che identifichi l’utente.

giovedì 28 agosto 2008, 21.43.12 | newsmtesla

BUONE VACANZE !!!

Usa: scoperto sistema per immagazzinare energia solare in modo efficiente

venerdì 1 agosto 2008, 9.56.33 | newsmtesla

Studio Mit: disegnato un nuovo tipo di catalizzatore che permette di utilizzare il calore dei pannelli solari

BOSTON (USA)Promette una vera e propria «rivoluzione» nell’uso dell’energia solare la scoperta fatta dagli ingegneri del Massachussets institute of technology (Mit) di Boston. In uno studio pubblicato dalla rivista «Science» hanno infatti descritto per la prima volta un modo per immagazzinare l’energia prodotta dai pannelli solari. La scoperta è stata ispirata da uno dei passaggi della fotosintesi, in cui l’acqua viene scissa in idrogeno e ossigeno. Per riuscire a ripetere lo stesso procedimento i ricercatori hanno disegnato un nuovo catalizzatore, cioè una sostanza che favorisce una reazione ma che alla fine può essere recuperata intatta, poco costoso e che funziona a temperatura ambiente. Il sistema progettato prevede che l’elettricità prodotta ad esempio da un pannello fotovoltaico venga utilizzata, insieme al catalizzatore nuovo e a uno tradizionale, per scindere l’acqua in idrogeno e ossigeno gassosi. Questi possono essere immagazzinati e utilizzati per alimentare delle celle a combustibile. «Questo è quello che cercavamo di fare da anni – spiega Daniel Nocera, che ha coordinato lo studio – l’energia solare è sempre stata limitata dal fatto che si interrompeva in assenza di sole. Adesso possiamo considerarla praticamente illimitata». Secondo i ricercatori, l’applicazione su larga scala del processo è molto facile e richiederà non più di dieci anni.

________________

fonte:corriere.it

Le mani emettono luce.. ?

lunedì 28 luglio 2008, 13.55.27 | newsmtesla

Le nostre mani splendono di luce propria: pare che tutti i viventi rilascino luce.

Se i nostri occhi fossero abbastanza sensibili, potremmo vedere altre persone risplendere nel buio. Se potessimo vedere questa luce coi nostri occhi (cosa che non possiamo fare), potremmo vedere che tutti noi lasciamo una scia di luce vivente, come un’impronta personale, dovunque andiamo. Poter “leggere” la luminosità umana potrebbe essere anche un efficace e non invasivo metodo per diagnosticare le malattie.

Jennifer Viegas scrive in Discovery News che la maggioranza degli esseri viventi, piante incluse, è fonte di luce, e che le malattie incidono su quanta luce emettono. Non solo le nostre mani, ma la fronte e le piante dei piedi emettono fotoni,le microscopiche particelle di cui é fatta la luce.

 

Questa può essere la spiegazione scientifica della Pranoterapia, che si attua con l’imposizione delle mani sul corpo e questo é quanto il Dr. Cutolo sta dicendo in giro da anni. 

Se questa scoperta non vi bastasse, eccovene un’altra che ha del sensazionale: i ciechi possono vedere gli oggetti e persino i colori grazie ad un misterioso “Sesto Senso”. La notizia è stata pubblicata anche dal National Geographic che ci fa sapere che ricerche condotte presso la Washington University in St. Louis, Missouri, dimostrano che, per quanto inspiegabile, anche persone vedenti, ma rese temporaneamente cieche grazie all’uso di potenti magneti, avrebbero questa capacità incredibile. Nessuno azzarda per il momento spiegazioni cosìdette “razionali”.

_________________

Fonte: ecplanet.it

Campania, Pemonte e Puglia siglano accordo per polo aerospaziale nazionale

giovedì 17 luglio 2008, 11.15.56 | newsmtesla

 

Da Farnborough l’annuncio di un’intesa raggiunta tra le Regioni Campania, Piemonte e Puglia per la firma di un accordo per la costituzione di un polo aerospaziale italiano. Emerge dunque la ferma intenzione da parte delle tre Regioni di fare sistema e di operare in stretta sinergia, in coordinamento con l’ AIAD l’Associazione Italiana Industrie Aerospaziali e della Difesa, per potersi anche presentare in maniera unitaria e integrata sui mercati nazionali ed internazionali.
«Con l’intesa raggiunta oggi noi vogliamo creare nuove opportunità di crescita e di sviluppo, mettendo a sistema tutta la rete produttiva delle imprese campane dell’aerospazio, un patrimonio notevole di competenze, esperienze e professionalità, che da solo vale un quarto dell’intero fatturato nazionale del settore. – ha dichiarato dopo la sigla l’assessore alle Attività Produttive della Campania Andrea Cozzolino. Il consolidamento e la costruzione di nuove alleanze è la via maestra per far decollare l’industria italiana dell’aerospazio, Da questo punto di vista, l’Airshow di Farnbourough, oltre ad essere una vetrina importante per le nostre realtà produttive, rappresenta un’occasione unica per stringere alleanze e pianificare strategie». L’assessore all’Industria e alle Politiche per l’Innovazione della Regione Piemonte, Andrea Bairati, ha aggunto: «Il settore aerospaziale necessita di politiche di sviluppo che facciano leva più sulla prossimità tecnologica che sulla vicinanza geografica. E’ dunque nella direzione del sostegno alla crescita dei territori regionali e della competitività del sistema paese che stiamo lavorando a un accordo fra Campania, Piemonte e Puglia, che porti allo sviluppo di progetti di ricerca e di sviluppo coordinati tra le competenze tecnologiche e industriali delle tre regioni». «Per la Puglia l’accordo con Campania e Piemonte è un passo fondamentale per cementare una collaborazione che, insieme con il riconoscimento del Distretto Produttivo Aerospaziale Pugliese, contribuirà ad aumentare le potenzialità dell’offerta del comparto, e soprattutto a rafforzare la competitività sul mercato estero attraverso una progettualità che, coinvolgendo 3 regioni, porterà il Sistema Italia a cogliere maggiori opportunità in campo internazionale» ha concluso Sandro Frisullo, vice presidente ed assessore allo Sviluppo Economico ed Innovazione Tecnologica della Regione Puglia.

______

fonte:dedalonews

venerdì 11 luglio 2008, 12.40.07 | newsmtesla

Fisica: scoperta la tessera mancante nel puzzle dei quark

Scoperta la tessera mancante nel puzzle dei quark: e’ la particella eta_b, fondamentale per completare la spiegazione fisica di come funzioni il collante principale della materia, la cosiddetta forza forte. Questa forza e’ responsabile del legame tra protoni e neutroni nei nuclei degli atomi e, nell’infinitamente piccolo, di quello tra i quarks, rendendo possibile l’esistenza stessa della materia e dei costituenti elementari dell’Universo. La misura e’ stata realizzata allo Stanford Linear Accelerator Center (Slac), in California, dalla collaborazione internazionale BaBar (500 scienziati ed ingegneri di 74 Universita’ e Laboratori americani ed europei), con il contributo decisivo dei ricercatori italiani dell’Istituto Nazionale di Fisica Nucleare e rivela l’eta_b trent’anni dopo la previsione teorica della sua esistenza. (Agr)

______________

fonte:corriere.it

Il successo del Boeing 787 farà crescere Alenia a Grottaglie

martedì 8 luglio 2008, 10.23.40 | newsmtesla

 

Un’espansione del 30% dello stabilimento Alenia Composite di Grottaglie in termini di superficie coperta, con un impatto occupazionale in proporzione e l’installazione della seconda autoclave per garantire la stabilità del rateo di produzione. I lavori dovrebbero partire già entro l’anno. La crescita dello stabilimento, spinta dal successo commerciale del Boeing 787 Dreamliner, è confermata da fonti industriali pochi giorni dopo la seconda visita dell’a.d. Boeing Jim McNerney.
Anche se la prima autoclave può “curare”, cioè produrre, le due sezioni al giorno previste dall’attuale piano di produzione, la seconda – ha spiegato nei giorni scorsi al settimanale inglese “Flight” il direttore generale di Alenia Composite Maurizio Rosini - eviterà che un imprevisto possa fermare la linea di costruzione e ritardare ulteriormente le consegne.
Insieme all’autoclave – che con22 metri di lunghezza e nove di larghezza è la più grande in Europa e forse nel mondo – sarà installata una quarta macchina automatizzata per il posizionamento della fibra di carbonio sui “mandrini”, i grandi cilindri ruotanti che fanno da forma per le sezioni di fusoliera secondo un procedimento brevettato da Alenia Aeronautica e diverso da quello seguito dal partner americano Vought.

 

A un anno dalla presentazione ufficiale al pubblico il Dreamliner ha totalizzato 896 ordini, dei quali 645 per la versione 787-8, 208 per la -9 e 43 per la -3. L’aereo è in ritardo di circa 14 mesi sulla tabella di marcia iniziale (tanto che voci di stampa hanno attribuito alla compagnia giapponese ANA l’intenzione di cancellare i cinquanta 787 ordinati nel luglio 2004 per passare all’Airbus A380) ma ha di recente completato la prima accensione di tutti i sistemi di bordo.

___________________

fonte:dedalonews

Alenia: positivo test a rottura stabilizzatore orizzontale Boeing 787

mercoledì 2 luglio 2008, 16.21.06 | newsmtesla

 

 

Alenia Aeronautica ha reso noto che lo stabilizzatore orizzontale del Boeing 787 prodotto nello stabilimento di Foggia ha superato con successo il test “a rottura” condotto presso il Laboratorio Prove Strutturali di Pomigliano d’Arco, alla presenza di tecnici della Boeing, di rappresentanti della FAA (Federal Aviation Administration) e dell’EASA (European Aviation Safety Agency). Con questa prova si conclude il ciclo di test statici sul complesso da parte di Alenia e Boeing, durato sette mesi. Il successivo test “a fatica” verrà condotto su di un altro stabilizzatore sempre nella struttura di Pomigliano. La sperimentazione, tesa a determinare il comportamento del componente per la durata della vita operativa prevista, verrà ripetuto tre volte. Infine direttamente Boeing, negli Stati Uniti, provvederà ai test di impatto con gli uccelli.

________

fonte:dedalonews.com

Ecco il primo "grattacielo rotante"

giovedì 26 giugno 2008, 10.30.01 | newsmtesla

La “Rotating Tower ” dell’architetto
fiorentino David Fisher, cambierà forma ruotando su se stessa e sarà totalmente autosufficiente dal punto di vista energetico

NEW YORK
L’architettura del futuro parla italiano. È stato presentato a New York il “grattacielo rotante” disegnato dall’architetto italiano David Fisher, che avvia così l’era dell’architettura dinamica, realizzando un edificio di 80 piani , tutti in grado di ruotare su sé stessi in maniera indipendente. Di più, si tratta di un “eco-grattacielo”, in grado di produrre energia per tutti gli inquilini e per l’intero quartiere in cui sarà costruito con pannelli solari e pale eoliche.

 

Ma la meraviglia sta soprattutto nel panorama, che cambia, da un piano all’altro. Il sistema, realizzato grazie a speciali turbine progettate da Bosch, consente cioè di mutare il panorama delle proprie finestre in ogni momento, disegnando così un profilo continuamente diverso del grattacielo. Gli abitanti della torre potranno scegliere a piacimento il panorama e la luce del giorno che desiderano, grazie ad un meccanismo che consente ad ogni piano di ruotare in modo autonomo.

I primi esemplari sorgeranno a Mosca e Dubai nei prossimi mesi. La “Rotating Tower” di Dubai avrà 80 piani e sarà alta 420 metri e avrà appartamenti con una superficie minima di 124 metri quadrati sino a un massimo di 1.200 metri quadrati. L’architetto Fisher ha anche annunciato che la seconda torre dinamica, già in fase avanzata di progettazione, sarà costruita a Mosca, per diventare la nuova icona della capitale russa. Questo grattacielo, commissionato dalla Mirax, il gigante russo del Real Estate, guidato dall’investitore Sergei Polonski, avrà 70 piani e sarà alto 400 metri. La produzione del grattacielo di Mosca, sito presso il nuovo centro direzionale di Mosca City, avrà inizio nei prossimi mesi e sarà completata entro il 2010. Altre torri dinamiche saranno costruite in diverse città del mondo, tra cui New York, dove è prevista la terza.
Ci sono state numerose richieste da parte di investitori, autorità pubbliche e governi per costruire le Rotating Towers nei loro paesi, quali Italia, Francia, Germania, Svizzera, Corea e Canada.

I grattacieli saranno composti di moduli costruiti interamente in Italia ed inviati successivamente in loco, dove saranno assemblati alla velocità di un piano ogni sei giorni. Un sistema che dovrebbe abbattere i tempi di realizzazione, il numero della forza lavoro necessaria e di conseguenza i rischi in cantiere.

______________

fonte:lastampa.it

Boeing “accende” il 787

lunedì 23 giugno 2008, 10.47.42 | newsmtesla

 

E’ stata completata con successo da Boeing la sequenza di prove e collaudi dei sistemi elettrici del 787, un evento che, dopo i ritardi accumulati dal programma, rappresenta un importante passo verso il primo volo, soprattutto in un velivolo ove sono elettrici molti sistemi che in altri tipi di macchina sono invece pneumatici. La sequenza “Power On” è iniziata ai primi del mese con la verifica dei collegamenti dei cablaggi, seguita dalla connessione con una sorgente esterna con cui si è data energia elettrica alla cabina di pilotaggio ed ai suoi impianti di visualizzazione. Da questo punto in poi si sono utilizzati i comandi del pilota per accendere tutti gli altri impianti segmento dopo segmento, sempre misurando i livelli del flusso di corrente.

___________

fonte:dedalonews

LE FREQUENZE POSSONO INFLUENZARE E RIPROGRAMMARE IL DNA ??

lunedì 23 giugno 2008, 10.34.53 | newsmtesla

Il corpo umano è composto di sostanza genetica ed è dotato di un trasmettitore e un ricevitore estremamente evoluto di frequenze. Durante alcune sperimentazioni scientifiche, si è osservato che inserendo il DNA in un contenitore particolare di elettroni, questi ultimi si dispongono creando una struttura uguale al DNA. Se si rimuove il DNA, gli elettroni ritornano ad occupare le precedenti posizioni. Questa sarebbe la prova che il patrimonio genetico dell’essere umano interagisce di continuo con l’energia circostante; saremmo noi, le nostre condizioni emotive, dunque, a influenzare il mondo di continuo.
Dentro un essere umano ci sono delle microantenne, conosciute con il nome di amminoacidi, connesse e collegate con il DNA. Inoltre, esistono 64 codici genetici, fatti per inviare o ricevere frequenze più elevate collegando ogni persona ad una coscienza più elevata. Le ultime ricerche scientifiche dicono che solo 20 di queste antenne sono funzionanti, mentre le rimanenti 44 rimangono “spente”. 20 antenne sono insufficienti a collegare un essere umano con le frequenze più elevate. Ne deriva che ogni essere umano usa solo una piccola parte del proprio potere cerebrale.
Le nostre emozioni hanno una funzione determinante sull’attivazione di queste microantenne, come ‘dimostrato’ da Bruce Lipton nel libro La biologia delle credenze. Una situazione di paura che deriva da tutte le nostre emozioni a bassa frequenza, potrebbe attivare solo alcune di queste “antenne” .Invece l’amore, espressione di tutte le nostre emozioni di elevata qualità spirituale, riuscirebbe ad attivare un numero elevato di “antenne Effettori’.

Il DNA umano sarebbe un Internet biologico, superiore, sotto molti aspetti, a quello artificiale. La più recente ricerca scientifica russa cerca di spiegare fenomeni quali la chiaroveggenza, l’intuizione, gli atti spontanei ed a distanza di cura, l’auto-guarigione, le tecniche di affermazione, la luce o aure insolite intorno alle persone (concretamente, dei maestri spirituali), l’influenza della mente sui modelli climatici e molto ancora. Inoltre, ci sarebbero segni di un tipo di medicina completamente nuova nella quale il DNA può essere influenzato e riprogrammato dalle parole e dalle frequenze SENZA sezionare e rimpiazzare geni individuali.
Solo il 10% del nostro DNA viene utilizzato per costruire le proteine. Questo subcomplesso di DNA è quello che interessa i ricercatori occidentali che lo stanno esaminando e catalogando. L’altro 90% è considerato “DNA spazzatura” (..grazie della ri-traduz..). Tuttavia, i ricercatori russi hanno riunito linguisti e genetisti per intraprendere un’esplorazione di quel 90% di “DNA spazzatura”. I loro risultati, scoperte e conclusioni sarebbero, se confermate!, semplicemente rivoluzionarie ! Secondo loro, il nostro DNA non solo è il responsabile della costruzione del nostro corpo, ma serve anche da magazzino di informazioni e soprattutto per una forma particolare di comunicazione.

______________

http://www.fosar-bludorf.com/ e traduzione di disinformazione.it  – ecplanet.it

sabato 21 giugno 2008, 14.36.03 | newsmtesla

Pablo Neruda

Il Punto Zero – Tesla

venerdì 20 giugno 2008, 21.50.34 | newsmtesla

Nikola Tesla fu il primo scienziato ad esprimere l’idea che il ‘vuoto’ nello spazio nn esiste. Esso è riempito di un’energia “potenziale”; una energia praticamente infinita definita anche ‘energia del punto zero’. Ogni cm3 di “vuoto” siderale conterrebbe infatti una quantità d’energia superiore a quella contenuta nel nostro sole. Ma anziché manifestarsi, le ‘Energie’ presenti si annullano a vicenda come due onde di senso contrario, l’una contro l’altra.
Sembra tuttavia possibile eliminare queste interferenze creando “zone di coerenza” dentro le quali l’energia è estratta con la polarizzazione locale di questo spazio energetico al livello del suo punto zero, cioè al punto di bilanciamento di tutte le polarità presenti. Alcuni pensano che la tecnologia futura per i viaggi spaziali (ma nn solo) sarà fondata su quest’applicazione della fisica quantica: polarizzando leggermente il vuoto con un metodo ancora poco conosciuto ma basato sull’elettromagnetismo, si arriverebbe a recuperare un po’ di energia che, una volta iniettata in un sistema di propulsione, gli permetterebbe di restituire continuamente più energia di quella che consuma; il sistema non avrebbe così bisogno di alcun combustibile per funzionare, non farebbe che “pompare” l’energia disponibile ovunque in modo permanente.

 

_________________________________

Fonte:ec-planet

la rivoluzione delle nanotecnologie..

giovedì 19 giugno 2008, 12.58.59 | newsmtesla

Tessuti “anti-tintoria” e nuovi medicinali

Macchie di sugo, d’erba o di caffè che magicamente svaniscono al sole: la camicia e la cravatta tornano pulite senza tintoria né lavatrice, e il divano ridiventa candido senza smacchiatore. La tenda non ingrigisce più per lo smog oltre al fatto che chi ha problemi di sudorazione non lascia cattivi odori sulla t-shirt. Sono i tessuti «autopulenti» e «antibatterici»: miracoli delle nanotecnologie, che consentono invenzioni solo apparentemente da fantascienza: ormai, si tratta di oggetti pronti a finire sui mercati. Ieri a Torino sono stati presentati i rivoluzionari frutti del lavoro di 11 aziende e 5 centri di ricerca dei tre atenei piemontesi (Università degli Studi di Torino, Politecnico e ateneo Avogadro), Cnr e Inrim. Scienziati e imprese hanno lavorato gomito a gomito nel progetto «Nanomat», sostenuto dalla Regione e promosso dal Corep.
I risultati? Compreremo tessuti che si lavano da soli entro un paio d’anni, e sono in arrivo auto con invisibili pannelli solari sul parabrezza, super-pellicole che conservano i frutti di bosco per settimane, materiali che riparano i difetti delle pareti addominali, o sistemi che scoprono i danni dei beni culturali ben prima che siano visibili.

Gabriele Ricchiardi, ricercatore del Centro d’eccellenza sulle «Superfici e interfacce nanostrutturate» dell’Università di Torino, racconta le meraviglie del cotone che si smacchia al sole. Su quest’invenzione sono al lavoro diversi gruppi di ricerca nel mondo (specie in Giappone), e quello di Torino, diretto da Adriano Zecchina, è il più avanzato d’Italia: ha creato (conla Buzzi Unicem) un cemento che non fa ingrigire le facciate delle case, e con l’«Associazione tessile e salute» di Biella i prodigiosi filati.

Il segreto?

«Si deposita sul cotone, la lana o la seta uno strato di biossido di titanio di dimensioni nanometriche, cioè misurato in miliardesimi di metro». E’ atossico, costa poco «ed elimina le macchie con la luce solare: ne scinde le molecole facendole decomporre e svanire». Non è un’illusione ottica: «Lo sporco è distrutto davvero, trasformato in anidride carbonica e acqua». Il bucato senza lavatrice può fare un po’ senso, ma il risultato è migliore di quello del lavaggio: non servono acqua, sapone o energia elettrica (né olio di gomito), e l’invenzione funziona con ogni macchia, salvo la ruggine. Servono un paio d’anni per la vendita, «perché vogliamo tessuti morbidissimi e strati nanometrici attaccati alle fibre nonostante anni di strapazzi». Una magia? «Non è che un esempio – dice Savatore Coluccia, coordinatore del progetto Nanomat e docente all’Università – delle mille applicazioni delle nanotecnologie, la più promettente frontiera scientifico-tecnologica anche perché capace di applicazioni in tutti i campi, dall’energia alla medicina».
Gli Archimede del Centro nano-sistemi dell’Università del Piemonte Orientale hanno presentato, dice Leonardo Marchese, uno studio condotto con il Centro Ricerche Fiat «per film di materiali nanostrutturati che trasformano l’energia solare in elettricità, una volta stesi sui vetri e il tettuccio delle auto». Se la scoperta funziona anche sulle finestre delle case, Giovanni Camino, («Dismic» del Politecnico), è invece alle ultime battute (con il Parco Tecnogranda di Cuneo) per una pellicola da alimenti che raddoppia la durata di frutta e verdura: «Quelle oggi in vendita consentono il passaggio d’ossigeno. La nostra pellicola è altrettanto trasparente e flessibile ma crea una barriera all’aria più efficace». E ancora: l’industria «Ledal» produce filati di lamé, e con il «ChiLab» del Politecnico ne ha creato un tipo che non scolorisce mai: «Con quest’invenzione – dice Claudio Cagliero – speriamo di riportare un po’ di lavoro in Italia». Un’altra azienda, la «Nimbus», vende i primi esemplari di un velivolo senza pilota che è una via di mezzo fra un aereo e un dirigibile, la «Logicabiomat» produce nanosfere che trasportano i farmaci nel corpo, la «Adamantio» scopre i danni alle pergamene prima che siano visibili, e via inventando materiali a livello infinitamente piccolo. Non è fantascienza: il futuro è qui.

CHE COSA SONO..

Particelle invisibili e onnipotenti
L’idea originaria
Il termine «nanotecnologia» è stato inventato nel ‘76 dal ricercatore americano Eric Drexler, il quale definisce così la nuova scienza: «E’ una tecnologia a livello molecolare che ci permetterà di porre ogni atomo dove vogliamo che stia. Chiamiamo questa capacità nanotecnologia, perché funziona sulla scala del nanometro, vale a dire 1 milionesimo di metro».
Infinitamente piccolo
Si tratta di una tecnologia a livello atomico, una scala che fa intersecare le applicazioni della chimica con quelle della fisica e dell’ingegneria genetica.
Il futuro alle porte
Le prospettive sono esaltanti: dalla trasformazione della materia a livello atomico ai computer delle dimensioni di 1/100 di micron cubico, fino a nuove generazioni di materiali dalle proprietà multiple e alle micro-macchine in grado di fare un po’ di tutto. Si va dall’annichilimento dei rifiuti ai farmaci personalizzati e a nuove armi di distruzione di massa.

_____________

fonte:lastampa.it

giovedì 19 giugno 2008, 9.53.01 | newsmtesla

________________________________________

That’s Life

L. in the s. with d.

Ecco la luce in bottiglia senza elettricità..

venerdì 13 giugno 2008, 23.44.53 | newsmtesla

Una miscela di cloro e acqua esposta al Sole si accende come una lampadina

La crisi energetica mondiale acuisce l’ingegno degli sperimentatori domestici. Un brasiliano emulo di Edison sostiene di aver trovato il modo di sostituire l’illuminazione casalinga con bottiglie riempite di un liquido luminescente, ognuna delle quali, stando a quanto dichiarato dall’inventore, sarebbe paragonabile a una lampadina da 60 watt. Insomma, senza elettricità né batterie, luce fredda imbottigliata.

A sostegno della presunta invenzione, sul sito si può assistere a un breve video che mostra come viene confezionata e quanta luce diffonde l’incredibile fonte di energia luminosa. Si parte da una comune bottiglia di acqua minerale, riempita in parte di acqua del rubinetto e in parte di Clorox, un detergente-disinfettante che, come dice il nome, è a base di cloro. Subito dopo si espone la bottiglia al Sole e, a questo punto, avverrebbe una reazione fotochimica capace di eccitare la miscela e renderla molto luminescente, al punto da illuminare un locale buio, tanto quanto farebbe una lampadina elettrica di media potenza. Il video si conclude con lo sperimentatore soddisfatto dopo avere appeso al soffitto un certo numero di bottiglie e spento le lampadine elettriche.

Invenzione creativa o semplice gadget? Che esistano liquidi luminescenti è noto anche ai bambini, i quali possono giocare con collanine e braccialetti di plastica, riempiti di miscele variopinte in grado di brillare nell’oscurità. Quindi è probabile che, in maniera analoga, la miscela acqua-clorox, esposta al sole, si carichi di energia che poi viene restituita gradualmente sotto forma di radiazione luminosa. Tuttavia, ai fini di valutare la praticità dell’invenzione, bisogna valutare quanto tempo può durare l’emissione e soprattutto quanto costa la quantità di liquido clorato necessaria al confezionamento di una bottiglia luminescente; non ultimo i problemi di inquinamento ambientale connessi allo smaltimento della miscela esausta. Sono tutte valutazioni che solo un attrezzato laboratorio chimico può fare. Alla fine si potrebbe scoprire che il gioco non vale, alla lettera, la candela.

_________

fonte:corriere.it

Mondi possibili

mercoledì 11 giugno 2008, 13.05.21 | newsmtesla

Esistono altri mondi dove gli eventi si dipanano in modo differente da come si svolgono qui, in questa nostra dimensione ?

 

È la teoria elaborata da Hugh Everett III (1930-1982) [1], lo scienziato che ipotizza l’esistenza dei molti mondi. Per Everett, l’idea del collasso della funzione d’onda, ossia del congelamento della realtà in uno ed uno solo particolare stato, discende dall’incapacità degli esseri viventi di interagire con la totalità della realtà quantistica, essendo gli uomini confinati lungo una sola diramazione della nostra realtà che continuamente si scinde in modo schizofrenico. Questo scenario ha conseguenze quasi inimmaginabili, come i paradossi di molti racconti di Borges, in cui ogni cosa che può logicamente succedere succede o dove gli avvenimenti si biforcano in nuove diramazioni da cui si generano altri bivii… “Ciascuno di noi continuerà ad esistere, finché vi saranno lo spazio ed il tempo, perché, anche se moriamo in questo mondo, ne esiste un altro nel quale ciò non accade, ad infinitum.” (John D. Barrow, Il mondo dentro il mondo, Oxford, 1988).

Le idee di Everett rivelano in primo luogo il singolare sincronismo che spesso mette in comunicazione la letteratura e la scienza: più o meno negli stessi anni artisti e fisici disegnano prospettive cosmologiche ed ontologiche che tendono a convergere verso una nuova concezione del reale. Anzi, come sovente accade, Jose Luis Borges, letterato ingegnoso e profondo, sebbene talora cerebrale, creatore di geometrie narrative non euclidee, precorre i tempi, immaginando situazioni compossibili. Sono scenari del tutto controintuivi e lontani dal senso comune, ma che aprono una breccia nel muro solido eppure evanescente della nostra realtà. E’ singolare che l’idea di immortalità, espulsa dalla scienza materialista e considerata alla stregua di una mera superstizione dalla maggior parte degli accademici, si riaffacci nel nostro orizzonte culturale dominato dall’incredulità e dall’agnosticismo, attraverso le elucubrazioni, comunque non gratuite, di un fisico.

Tra l’altro, visto che alcuni paradigmi, meglio paradogmi si stanno sgretolando, la teoria dei molti mondi sembra adatta ad incarnare lo Zeitgeist dei decenni futuri, quando finalmente il pensiero, liberatosi di inutili involucri scientisti, potrà armonizzare alcune tra le congetture più avanzate della meccanica quantistica con le concezioni di correnti filosofiche non cartesiane. Si profilerà forse un modello interpretativo che, oltre grazie al suo intrinseco fascino, potrà dare linfa a quei sogni che accompagnano un’umanità prigioniera in una segreta spazio-temporale, un’umanità che viaggia in un treno deteministico diretto in modo ineluttabile verso la sua meta entropica, verso la morte termica, il nulla.

Chi può escludere che un giorno forse non lontano riusciremo a trovare un varco ed ad inoltrarci in uno dei tanti giardini dell’universo dove è il tempo è reversibile, dove gli eventi possono essere cambiati ed in cui le “leggi” di natura acquisiscono un’altra natura ?

La nostra condizione limitata e costretta da catene invisibili si può superare. Si può aprire una finestra che si affaccia sul sogno divenuto realtà.

[1] Hugh Everett III (Maryland, 11 novembre 1930 – McLean, 19 luglio 1982) è stato un fisico statunitense attivo principalmente all’Università di Princeton. E’ stato celebre tra i fisici per aver formulato per primo nel 1957 l’interpretazione a molti mondi della meccanica quantistica, definito anche multiverso. Secondo questa teoria, quando si esegue una misurazione quantistica e si osserva una funzione d’onda, questa non diventa l’unica reale (come si pensava precedentemente), ma assumono esistenza anche tutte le misure che non sono state trovate, generando ognuna un altro universo. Everett abbandonò gli studi in fisica subito dopo aver completato la tesi di dottorato, scoraggiato dallo scarso interesse degli altri fisici verso queste sue teorie.

____________
Fonte: ec planet

Dimissionati Segretario e Capo di Stato Maggiore dell’USAF

venerdì 6 giugno 2008, 10.10.03 | newsmtesla

 

“scandalo atomiche dimenticate”

La più grande forza aerea del mondo ha perso in un solo giorno il suo vertice militare e quello politico. Il segretario alla Difesa americano Robert Gates ha chiesto e ottenuto le dimissioni del capo di Stato Maggiore T. Michael Moseley. Poche ore dopo sono seguite quelle del segretario all’Aeronautica Hugh Wynne. Dietro al doppio siluramento sta innanzi tutto il rapporto – affidato al direttore della propulsione atomica della US Navy, ammiraglio Kirkland Donald – sulla gestione delle armi atomiche dell’USAF, a sua volta scaturito dagli errori che l’estate scorsa portarono sei testate atomiche ad essere imbarcate accidentalmente su un B-52 e lasciate incustodite per oltre 30 ore. Nonostante l’immediata rimozione dall’incarico dei diretti responsabili e l’introduzione di nuove dettagliate procedure, le indagini evidenziarono le carenze gestionali e operative poi analizzate organicamente nel rapporto Donald. Di qui la prima richiesta di dimissioni, quella di Moseley, in carica dal 2005 ma al quale restavano oltre 14 mesi di servizio. Quella di Wynne è seguita poche ore dopo.
Pur non avendovi avuto un ruolo diretto, i due hanno pagato per lo scandalo delle “atomiche dimenticate” a causa di una sorta di “responsabilità oggettiva”. Per quanto grave, l’episodio è però stato solo la goccia che ha fatto traboccare il vaso. Secondo la stampa americana, il rapporto tra Difesa e USAF sarebbe stato già logoro da tempo a causa di una asserita crisi di leadership e della cattiva gestione di gare ad alto profilo quali l’elicottero CSAR-X (vinta da Boeing e appellata da Lockheed Martin, che presenta l’US-101 di AgustaWestland) e il tanker KC-X (vinto da Northrop Grumman con un prodotto Airbus e appellata da Boeing, al cui KC-767 partecipa anche Alenia).
La decapitazione di ieri potrebbe, secondo la stampa, non esaurire la purga dei vertici USAF, che è stata peraltro approvata anche dal deputato democratico John Murtha, presidente della commissione Forze Armate della Camera.

Discovery.. ISS

martedì 3 giugno 2008, 13.56.27 | newsmtesla

 

Partito il Discovery con il segmento principale del laib giapponese Kibo

È partito ieri sera alle 10:02 lo shuttle Discovery con a bordo l’elemento principale del laboratorio giapponese Kibo, che sarà il più grande modulo della stazione spaziale internazionale. La missione ha una durata prevista di 14 giorni, durante i quali sono in programma tre passeggiate spaziali. L’attuale missione (STS-124) è la seconda di tre previste per portare in orbita tutti gli elementi che compongono il grande laboratorio scientifico nipponico. Il modulo partito ieri è lungo11 metri, largo 4,4 e pesa oltre 14,5 tonnellate. Lo shuttle porta anche una pompa di ricambio dell’unica toilet della stazione, andata fuori uso nei giorni scorsi costringendo gli astronauti a bordo a servirsi di quella della navetta russa Soyuz.L’attuale lancio è il terzo dei cinque ora in programma per il 2008, il 26mo diretto alla stazione spaziale, per il cui completamento saranno necessarie altre 11 missioni di qui al 2010.

cosa significa essere ottimisti..

lunedì 2 giugno 2008, 14.58.10 | newsmtesla

[...]
“R. è sempre di buon umore, ed ha sempre qualcosa di positivo da dire.
Quando qualcuno gli chiede come va, lui risponde “se andasse meglio di così, sarei due persone!”
È un ottimista.
Se un collega ha un giorno no, R. riesce sempre a fargli vedere il lato positivo della situazione.
Vederlo mi incuriosiva e così un giorno gli chiesi: “Io non capisco, non è possibile essere ottimisti ogni giorno, come fai?”
R. mi rispose “ogni giorno mi sveglio e mi dico, oggi avrò due possibilità: posso scegliere di essere di buon umore o posso scegliere di essere di cattivo umore. E scelgo di essere di buon umore. Quando qualcosa di brutto mi succede io posso scegliere di essere una vittima o di imparare da ciò. Ed io scelgo di imparare. Ogni volta che qualcuno viene da me a lamentarsi per qualcosa, io posso scegliere di accettare le lamentele, o posso scegliere di aiutarlo a vedere il lato positivo della vita. Ed io scelgo il lato positivo della vita.”
“Ma non è sempre così facile” gli dissi.
“Si, lo è” disse R., “la vita è tutta una questione di scelte. Quando tagli via tutto ciò che non conta, è tutta una questione di scelte. Sta a te scegliere come reagire alle situazioni, sta a te decidere come lasciare che gli altri influenzino il tuo umore. Tu scegli se essere di buon umore o di cattivo umore.
Alla fine sei tu a decidere come vivere la tua vita”.
Dopo quella conversazione ci perdemmo di vista perché io cambiai lavoro, ma spesso mi ritrovai a pensare alle sue parole quando dovevo fare una scelta nella mia vita, invece di reagire agli eventi.
Ho saputo che R. aveva avuto un brutto incidente sul lavoro, era caduto da 18 metri di altezza, e dopo 18 ore di sala operatoria fu rilasciato dall’ospedale con una piastra d’acciaio nella schiena. Sono andato a trovarlo e gli ho chiesto come si sentisse:
“se stessi meglio sarei due persone” mi rispose, “vuoi vedere le mie cicatrici?”
“Ma come fai?” gli chiesi, “ad essere cosi positivo dopo quello che ti è successo?”
“Mentre stavo cadendo, la prima cosa che mi è venuta in mente è stata la mia bimba. Poi mentre giacevo per terra, mi sono detto che potevo scegliere di vivere o di morire. Ed ho scelto di vivere.”
“Ma non hai mai avuto paura?”
“Si, quando mi hanno portato in ospedale ed ho visto l’espressione sul viso dei medici e dei dottori,
ho avuto paura, perché era come se guardassero ad un uomo morto. Poi un’infermiera mi ha chiesto se avessi allergie, ed io risposi… <<SI>> tutti mi guardarono, ed io urlai <<sono allergico alla… gravità!>>
Tutti scoppiarono a ridere, ed io dissi:
“ed ora operatemi da uomo vivo, non come se fossi già morto.”

R. mi ha insegnato che ogni giorno abbiamo la possibilità di scegliere di vivere la vita pienamente.
Quindi è inutile preoccuparsi sempre per il domani, perché ogni giorno ha i suoi problemi su cui scegliere di vivere, e domani penseremo ai problemi di domani. Dopo tutto, oggi è il domani di cui ti preoccupavi ieri. Vivi pienamente ogni giorno, ogni respiro, e, soprattutto, ogni amico.”

________________

fonte:dal blog di SitaRam

Chiude il reattore di Calder Hall

domenica 1 giugno 2008, 15.25.53 | newsmtesla

Il reattore nucleare Calder Hall, il primo al mondo a generare elettricità, ha chiuso il 31 Marzo. I movimenti anti nuclearisti di tutto il paese saranno presenti a testimoniare l’evento. Nel Regno Unito sono in funzione 12 centrali nucleari con 33 reattori. In ogni sito ci sono campagne locali per impedire la costruzione di nuovi reattori. Calder Hall è stato aperto nell’Ottobre 1956. La sua funzione principale era la produzione di armi nucleari, ma fu anche il primo reattore nucleare del mondo a generare elettricità.

Fin da allora l’energia nucleare ha avuto un percorso molto instabile in Gran Bretagna. Nel 1973, gli Amici della Terra erano la prima organizzazione nazionale che si opponeva alla costruzione di 10 nuovi reattori voluti dalla Thatcher a causa dei costi economici e ambientali dell’industria nucleare.La Thatcher poi non privatizzò le centrali nucleari perché l’elettricità generata dai reattori era 3 volte più costosa delle altre fonti. Quest’anno, il White Paper sull’energia del governo ha effettivamente liquidato l’energia nucleare a favore delle energie rinnovabili e dell’efficienza energetica ( quest’ultima permetterà di ridurre le emissioni di CO2 del 10% entro il 2010, secondo i piani del governo che nell’insieme prevedono una riduzione complessiva del 20% ).

 

Attualmente le energie rinnovabili coprono il 3% della produzione ( nel 2001 il 2.8% ), il governo punta di portare tale percentuale al 10% entro il 2010 [inoltre, nel 2002, le emissioni di CO2 sono diminuite del 3.5% grazie alle misure di risparmio ed efficienza energetica]. L’energia nucleare copre il 18% della produzione, ma è in serie difficoltà economiche. Nel 2002 il governo è stato costretto a concedere all’industria un miliardo di dollari in prestiti, e 16 miliardi di dollari in sussidi nei prossimi anni. Dal 1990 al1998 l’industria ha goduto di altri 16 miliardi di dollari in sussidi. Secondo uno studio dei Verdi Inglesi, i 3 miliardi di dollari di sussidi previsti per il 2003 sarebbero potuti servire a costruire centrali eoliche con una capacità produttiva di 1100 MW, che equivale alla capacitaà produttiva delle centrale di Sizewell.

–br–

Nel 1995 il governo privatizzò le centrali nucleari più moderne, mantenedo la proprietà di quelle più vecchie. Fino ad oggi l’industria nucleare Britannica ha prodotto 250,000 tonnellate di rifiuti nucleari. Dopo il boom degli anni ’70 e ’80, l’energia nucleare è cresciuta solo del 5% nell’ultimo decennio a causa dei rischi ambientali e dei costi economici: l’energia prodotta da un reattore costa 3,000-4,000 dollari per ogni KiloWatt di capacità, invece i nuovi impianti a metano con ciclo combinato costano 400-600 dollari per ogni KW, mentre le turbine eoliche meno di 1,000 dollari per KW. Come la Gran Bretagna, anche la Germania punta ad incrementare la produzione energetica da fonti rinnovabili: attualmente l’eolico copre il 3% della produzione nazionale, ma secondo i piani del governo tale percentuale dovrebbe salire fino al 12.5% entro il 2010. Secondo l’ex ministro dell’ambiente, entro il 2030 l’eolico potrebbe sostituire i 3/5 della produzione energetica nucleare che il governo ha deciso di abbandonare progressivamente entro il 2021, specialmente per le potenzialita’ delle turbine eoliche offshore.

Il 27 Marzo, i parlamentari della Moldavia hanno discusso in parlamento della ratifica di un trattato sul trasporto di rifiuti nucleari tra la Russia, l’Ucraina, la Moldavia e la Bulgaria. La Moldavia è l’unico dei 4 paesi che non ha ancora ratificato l’accordo, e qualora non lo facesse, potrebbe bloccarlo. Per questo i gruppi ambientalisti europei stanno facendo pressione sui parlamentari affinché boccino il trattato. Se venisse ratificato anche in Moldavia, si consentirebbe il passaggio dei rifiuti nucleari per i prossimi 10 anni. Oltre 100 rappresentanti di ONG ambientaliste e diversi membri del Parlamento Europeo hanno chiesto al parlamento Moldavo di respingere l’accordo. Secondo gli ambientalisti, il trasporto potrebbe causare gravi problemi ambientali e di sicurezza. I treni con i rifiuti nucleari sono vulnerabili ad attacchi terroristici, inoltre il trasporto espone il materiale nucleare al pericolo di furti che potrebbe portare alla proliferazione nucleare.

Nel 1998, gli ambientalisti erano riusciti a convincere il parlamento Moldavo a rifiutare un accordo simile, e per questo il trasporto di materiale radioattivo tra Bulgaria e la Russia è stato sospeso. Per i Russi l’importazione di rifiuti nucleari significa solo nuovi pericoli per l’ambiente e la salute pubblica, dicono i gruppi anti-nuclearisti. Le ferrovie dei 4 paesi, notano gli ambientalisti, sono in condizioni tecniche pessime. Mayak, l’unico impianto di trattamento per i rifiuti nucleari in Russia, ha bisogno di 600 milioni di dollari per la ricostruzione, se quei fondi non saranno trovati, Mayak chiuderà nel giro dei prossimi 4 anni, sostengono gli ambientalisti. Inoltre l’agenzia di regolamento nucleare della Russia ha revocato la licenza per il trattamento dei rifiuti all’impianto lo scorso Gennaio, e lo ha riconcesso solo a condizione di limitare la produzione di rifiuti.

Secondo l’ONU l’impianto di Mayak è il posto radioattivo più contaminato della terra. I rifiuti proverranno dalla centrale di Kozloduy che ha 4 reattori, due dei quali avrebbero dovuto chiudere secondo un accordo tra UE e governo Bulgaro ( come condizione per l’accesso della Bulgaria nell’UE ), ma la Corte Suprema ha annullato l’accordo ignorando il voto parlamentare, il che comporta la riapertura delle trattative con l’UE e probabilmente il ritardo dell’adesione all’Unione.

Una buona notizia arriva dagli USA, dove il Senato ha respinto la proposta dell’amministrazione Bush di trivellare il Rifugio Artico: 52 parlamentari hanno votato contro, mentre48 in favore.La Democratica Barbara Boxer ha guidato l’opposizione al progetto, anche se 5 democratici hanno votato a favore, mentre 8 repubblicani hanno deciso di non seguire la linea del loro partito, votando contro. Il governo del Canada, che si era opposto allo sfruttamento petrolifero del rifugio dal quale dipende anche una popolazione di nativi indiani Canadesi, ha accolto con favore il risultato della votazione.

fonte: Friends of the Earth UK; EIA;
Green Party of England and Wales;
ENS; WorldWatch Institute; Bellona; REUTERS;

_________

fonte:ec-planet

E’ arrivata la Fusione Fredda?

domenica 1 giugno 2008, 15.24.29 | newsmtesla

Era programmato per il 22 maggio2008, aOsaka, il primo esperimento pubblico di Yoshiki Arata di Condensed Matter Nuclear Science, meglio nota come fusione fredda. Pare che stavolta funzioni…

Yoshiaki Arata

Yoshiaki Arata, 85 anni, professore emerito giapponese (uno dei padri del nucleare avanzato nipponico e delle ricerche anche sulla fusione calda), forte nazionalista (in pubblico parla solo giapponese), decorato dall’Imperatore, pare sia  riuscito nell’impresa nella quale fallirono Fleishmann e Pons quasi venti anni fa. Nel 1989 i due scienziati annunciarono la sospetta fusione “in bottiglia” di molecole di deuterio (idrogeno più un neutrone di troppo) dentro un catodo di palladio. Molecole leggere, sospinte per via elettrochimica (un moderato flusso di elettroni nel fluido, dall’anodo al catodo) dentro le strutture esagonali del palladio, fino a intrappolarsi in massa, collidere, premere l’una sull’altra, fino a pressioni spontanee di milioni di atmosfere, quindi spaccare i propri nuclei, emettere calore, tramutarsi infine in Elio-4. Una fusione nucleare ottenuta senza mostruosi toroidi ad altissima energia (tipo Iter), come nelle stelle. Bensì dentro una modesta bottiglia, con un po’ di acqua pesante (deuterio) e con un particolare metallo raro. Senza radiazioni e con la produzione finale di un gas inerte, l’elio, utile per gonfiare i palloncini. In realtà Fleishmann e Pons non riuscirono mai a riprodurre in modo deterministico, se non per casi fortuiti, quel risultato straordinario, che avrebbe cambiato per sempre la storia della civiltà umana. Insieme ai loro seguaci, furono sostanzialmente accusati di essere due cialtroni truffaldini, venendo completamente emarginati dalla comunità scientifica. Partendo proprio da quel fallimento Arata aveva infatti deciso di accantonare la via elettrochimica per la fusione a bassa energia. La sua idea era quella di spingere, a forza di varie atmosfere, il deuterio dentro nanoparticelle di palladio, fino ad ottenere lo stesso iper-affollamento, la stessa vertiginosa crescita di pressione, la fusione e il calore.

Arata ha mostrato pubblicamente  il suo reattore in funzione, che, con soli pochi grammi di palladio ha mosso un motore a pistoni. Un reattore in parte realizzato anche con le idee di Francesco Celani e del suo gruppo di Frascati-Infn, il secondo laboratorio al mondo attivo basato sulle teorie di Arata.

La prova è stata compiuta facendo diffondere Deuterio gassoso su una matrice a struttura nanometrica di7 grammicomposta per 35% di palladio e per il 65% di ossido di zirconio alla pressione di 50 atmosfere. Il calore, prodotto fin dall’inizio, e cioè in concomitanza dell’immissione del Deuterio, ha azionato un motore termico che si è messo in moto cominciando a girare. Dopo circa un’ora e mezzo l’esperimento è stato interrotto  per effettuare le misure della presenza di Elio-4 atestimonianza dell’avvenuta fusione. Non sono state evidenziate emissioni di origine nucleare pericolose ( l’elio-4 è inerte). L’energia riscontrata è stata circa di 100.000 Joule, equivalente grosso modo a quella necessaria per riscaldare di 25 gradi un litro di acqua, proporzionata alla modesta quantità della matrice nanometrica,7 grammi.

Nei prossimi giorni Arata ci proverà non con 7 ma con60 grammidi palladio e conta di avere centinaia di watt termici di guadagno. Abbastanza da illuminare una casa, per mesi, forse con una bomboletta pressurizzata da un compressore da frigo. Ma il dato  più importante di oggi,  è aver inequivocabilmente mostrato,  di fronte a importanti giornalisti scientifici, la produzione, dentro gli esagoni di palladio, di consistenti quantità di elio 4,  a prova dell’avvenuta fusione nucleare e della trasmutazione del deuterio. Al punto che gli astanti hanno coniato il termine di “Arata Phenomenon”.

Coscienza collettiva ..

domenica 1 giugno 2008, 15.10.44 | newsmtesla

I tempi sarebbero maturi per creare una nuova forma di coscienza collettiva. In questa visione olistica, il DNA può essere visto come una rete, proprio come Internet, in grado di stabilire un collegamento con tutti gli utenti connessi. Arrivando a spiegare fenomeni ritenuti soprannaturali quali la telepatia, le sincronicità o le guarigioni a distanza. Questo non vuol dire dover rinunciare alla individualità, perché senza individualità distinte si tornerebbe ad uno stato primitivo dominato solo da istinti primordiali (un assaggio ce lo stà fornendo la globalizzazione).
L’ipercomunicazione a questo stadio dell’evoluzione significa una cosa ben diversa. Si tratta cioè di mettere coscienze individuali creative ed evolute al servizio di una coscienza collettiva che così avrebbe la possibilità di apportare un radicale cambiamento all’esistenza.

Il tempo d’altronde è fortemente influenzato dalla frequenza di risonanza della Terra (frequenza di Schumann). E le stesse frequenze vengono prodotte anche nel nostro cervello. Per cui può accadere che quando molte persone, particolarmente dotate e allenate, concentrano e sincronizzano i loro pensieri su di esse, possono anche influenzare il tempo. Usando il potere della coscienza collettiva si potrebbe arrivare, in teoria, a interagire in modo naturale e consapevole con gli eventi e con l’energia del pianeta.La Parola, il Linguaggio (creazione mentale coordinata e voluta), attraverso tutti i canali raggiungibili e disponibili, formerannola Nuova Coscienza.

__________

fonte:ec-planet

In pensione il reporter del Watergate..

lunedì 26 maggio 2008, 13.28.39 | newsmtesla

Bob Woodward lascia il “Washington Post”. Assieme a Bernstein fece lo scoop che provocò la caduta di Nixon

NEW YORK - Gola Profonda addio. Bob Woodward, il mitico reporter investigativo del Washington Post che nel 1973 rivelò con il collega Carl Bernstein i retroscena dello scandalo Watergate, costringendo il Presidente Richard Nixon a dimettersi, sta per andare in pensione. Insieme ad un centinaio di altri veterani del Post, Woodward ha accettato il piano di pre-pensionamento offertogli dal leggendario quotidiano della capitale.

Dopo aver vinto coi suoi articoli ogni premio giornalistico statunitense, a cominciare dal prestigioso Premio Pulitzer, Woodward ha deciso di gettare la spugna a 65 anni compiuti lo scorso 26 marzo. Una decisione certamente non facile per l’uomo che il decano della CBS Bob Schieffer ha definito “il miglior reporter investigativo di tutti i tempi”.

Woodward era entrato al Washington Post nel 1971 come cronista e due anni dopo, insieme a Bernstein, aveva fatto lo storico scoop, smascherando le attività illegali da parte dell’amministrazione Nixon durante la campagna elettorale presidenziale del 1972, e il conseguente tentativo di ostruzione della giustizia da parte dello stesso presidente.
Il suo libro sullo scandalo scritto a quattro mani con Bernstein, – “Tutti gli uomini del presidente” – fu per anni un bestseller e più tardi ispirò l’omonimo film con Robert Redford nei panni di Woodward e Dustin Hoffman in quelli di Bernstein. Era il 1976 e quella pellicola riuscì, da sola, a trasformare i due reporter in superstar, ispirando un’intera generazione di giovani ad intraprendere una carriera improvvisamente ammantata di mito ed eroismo.

Ma negli ultimi tempi il suo nome è stato infangato da non poche polemiche. Tre anni fa la redazione del Post gli ha fatto la guerra quando si è scoperto che per mesi e mesi aveva tenuto nel cassetto i segreti del Cia-gate, lo scandalo sullo smascheramento della spia della Cia Valerie Plame ad opera di gole profonde dell’amministrazione Bush, protetta da Woodward in virtù della sua amicizia “giornalisticamente scorretta” con la Casa Bianca. «Il Cia-gate ha messo a nudo la sua profonda metamorfosi», lo attaccò Jay Rosen, docente di giornalismo alla New York University, «Da Don Chisciotte dell’informazione a giornalista dell’accesso: un insider dei palazzi». Ancora più caustico il columnist anglo-americano Christopher Hitchens che l’accusa di essere «lo stenografo dei ricchi e potenti».
Oltre ad aver creduto ciecamente alla tesi delle armi di distruzione di massa promossa dal presidente Bush per “vendere” la guerra in Iraq, avrebbe più volte abdicato al suo leggendario spirito critico per assicurarsi l’accesso nei palazzi del potere, Casa Bianca in testa. Woodward ha intervistato Bush ben quattro volte per un totale di oltre sette ore: un record senza precedenti che gli è fruttato tre dei suoi 12 besteller: Bush at War (2002), Plan of Attack (2004), e State of Denial: Bush at War, Part III (2006). Due anni fa il critico dei media del suo stesso giornale, Howard Kurtz, lo accusò di aver tenuto nel cassetto per mesi numerosi scoop invece di darli al Post, per usarli più tardi nei suoi lucrosi libri.

___________

fonte:corriere.it

 

22 MAGGIO : SANTA RITA DA CASCIA (1381-1457)

lunedì 26 maggio 2008, 12.39.39 | newsmtesla

QUANDO L’IMPOSSIBILE DIVENTA POSSIBILE

 

lunedì 26 maggio 2008, 12.38.57 | newsmtesla

 

PASADENA (USA) – Ce l’ha fatta. La sonda spaziale Phoenix è atterrata su Marte. Lo annunciala Nasa sulla base di un segnale radio. L’operazione è avvenuta con successo, assicura l’ente spaziale americano.

Dopo gli ultimi minuti della discesa sul pianeta rosso seguiti in un clima di grande tensione, alla conferma dell’avvenuto touchdown è esplosa la gioia dei tecnici e scienziati della Nasa. Il braccio robotizzato della sonda trivellerà il ghiaccio solido come cemento – che si trova sotto uno strato di alcuni centimetri di soffice polvere – per prelevarne campioni. Piccoli forni e ampolle dotate di acqua permetteranno di esaminarli sia ad alte temperature, sia disciolti in un sorta di zuppa marziana. Scopo della missione non è tanto quello di trovare tracce di vita, bensì di rintracciare composti organici che possono essere indicatori che le condizioni per la vita ci sono o ci sono state sul pianeta. Phoenix deve il proprio nome al fatto di essere rinata, come la mitologica fenice, dalle ceneri di una missione cancellata dalla Nasa dopo il fallimento nel 1999 di Polar Lander, una sonda scesa al polo sud di Marte e subito andata perduta. Solo cinque dei 15 precedenti tentativi di scendere su Marte avevano avuto successo, in tutti i casi ad opera di sonde americane. Ad aprire la strada erano state, nel 1975-76, Viking 1 e 2, seguite da Pathfinder nel 1996 e dai sorprendenti Spirit e Opportunity, che dal 2004 continuano a setacciare il suolo marziano. Il piccolo «lander» europeo Beagle 2 andò invece perduto nel 2003, ma il satellite che lo trasportava, Mars Express – un progetto in buona parte italiano – continua a fotografare il pianeta rosso in orbita.

___________

fonte:corriere.it

Spazio: la sonda Phoenix arriva su Marte domenica

sabato 24 maggio 2008, 22.06.21 | newsmtesla

E’ atteso per l’1 e 53 della notte (ora ita) fra domenica e lunedi’ l’arrivo della sonda americana Phoenix su Marte. in quel momento lancera’ il primo segnale dalla zona del Polo Nord chiamata Green Valley sul pianeta rosso. Sara’ velocissimo l’arrivo: 20mila chilometri orari nell’atmosfera marziana prima dell’apertura del paracadute. La sonda, che sara’ in piena attivita’ da lunedi’ sera, ha il compito di trovare ghiaccio d’acqua sul suolo di Marte. Per farlo usera’ un braccio robotico in alluminio e titanio.

_________________

fonte:corriere.it-(Agr)

venerdì 23 maggio 2008, 10.41.15 | newsmtesla

“Leggo che un sito tedesco (styleislam.com) vende magliette che inneggiano all’orgoglio di essere musulmani. Niente di grave, per carità, ma una scritta mi ha colpito. Su una maglietta c’è scritto “Jesus was a Muslim”. A parte l’ignoranza dimostrata da questa scritta che non tiene conto del fatto che l’Islam è stato fondato 600 anni dopo Gesù, mi chiedo cosa succederebbe se qualcuno facesse magliette con scritto “Mohammed was a Christian” o “Mohammed was a Jew”? Forse anche in questo caso vedremmo migliaia di ”pacifici” musulmani scendere in piazza per bruciare ambasciate, lanciare condanne a morte, invocare vendette violente, ecc.? ..I musulmani si atteggiano sempre a vittime delle provocazioni occidentali…”

________________
di Anduril-corriere.it

giovedì 22 maggio 2008, 12.56.18 | newsmtesla

La tesi del Dna responsabile in modo preminente della salute e’ stata in questi decenni sponsorizzata dalle case farmaceutiche. L’idea della centralita’ del destino scritto nei geni ha avuto e ha, un’importanza ancora maggiore al di fuori del mondo accademico. Il modello che vede nell’ereditarieta’ le cause essenziali della durata e della qualita’ della vita va a braccetto con l’idea che le pasticche e gli interventi chirurgici possano e debbano risolvere tutti i ‘malanni’. La visione del mondo che ha dominato la scienza per due secoli concepisce il corpo alla stregua di un motore meccanico governato dalla genetica e dalla chimica. La scienza ufficiale ammette soltanto l’esistenza di un rapporto secondario, misterioso e impalpabile, tra l’umore e la malattia. Questo e’ un punto importante: nel modello accademico non si vede come una sensazione “psicologica” possa trasformarsi in un mal di gola. Il mal di gola viene considerato una realta’ materiale che non può essere determinata dall’immaterialita’ di un pensiero.

Perché alcuni invecchiano precocemente e altri si mantengono bene anche a 90 anni? Perché l’età della menopausa si è spostata in avanti? Perché la pecora clonata Dolly è morta precocemente? Perché si forma un tumore? Sono le domande cui risponde l’epigenetica, una nuova branca della biologia molecolare che che confina strettamente con la genetica ma da questa si distingue in modo sempre più netto. Se la genetica studia la sequenza del Dna di un organismo, l’epigenetica comprende tutte le modificazioni chimiche che il Dna subisce dall’inizio alla fine della vita ma che non cambiano la sequenza dei geni.

Si intende per epigenetica una qualunque attività di regolazione dei geni attraverso processi chimici che non comportino cambiamenti nel codice del DNA, ma possono  modificare il fenotipo dell’individuo o della progenie. Questi fenomeni epigenetici alterano l’accessibilità fisica al genoma da parte di complessi molecolari deputati all’espressione genica e quindi alterano il funzionamento dei geni. A oggi l’epigenetica viene definita come “lo studio delle  modifiche ereditabili nella funzione del genoma che si verificano senza cambiamenti della sequenza di DNA”.

E’ possibile trovare le origini concettuali dell’epigenetica già in  Aristotele, che credeva nell’epigenesi, cioè nello sviluppo di singole forme organiche a partire dall’inorganico.

L’epigenetica permette anche di capire come il materiale genetico si adatti ai cambiamenti stagionali. E’ stato visto infatti che le piante sono in grado di memorizzare i cambiamenti stagionali. In alcuni tipi di piante, alcuni esperimenti hanno dimostrati che l’esposizione al freddo durante la stagione invernale determina dei cambiamenti nella cromatina che portano al silenziamento dei geni della fioritura. All’arrivo della primavera (e quindi delle condizioni migliori per la riproduzione) i geni vengono riattivati. L’ambiente può anche provocare cambiamenti epigenetici i cui effetti sono visibili sulle generazioni future. Nei topi il colore del pelo (che dipende dal grado di metilazionde del gene agouti durante lo sviluppo embrionale) può variare ed esperimenti dimostrano che  viene influenzato dalla dieta: supplementi nel cibo a base di acido folico o vitamina B12 (ricchi in gruppi metilici) orienteranno il colore del pelo in un senso più che nell’altro.

Sicuramente un livello di analisi molto interessante è rappresentato dai gemelli omozigoti; è noto che i gemelli omozigoti abbiano un identico corredo genetico; tuttavia mentre due gemelli possono essere identici geneticamente non lo saranno epigeneticamente.
Questo è ben visibile se si considerano gli studi di gemelli omozigoti separati alla nascita ed allevati in condizioni differenti; la norma di reazione ci dice che ogni gene si esprime in funzione del suo ambiente; è ovvio quindi che i cambiamenti epigenetici in condizioni diverse non saranno gli stessi, benché il corredo genetico di partenza sia identico. Questo significa che sotto condizioni diverse, il ”comportamento genico” di due gemelli omozigoti potrebbe non essere lo stesso. Facciamo un esempio: due gemelli geneticamente predisposti ad una malattia come il diabete di tipo II (ad insorgenza tardiva), potranno o non sviluppare entrambi la malattia. In diversi studi sono stati però osservati casi in cui uno dei gemelli sviluppa la malattia e l’altro no; è ovvio che in tal caso saranno entrati in gioco dei fattori epigenetici  che hanno determinato l’insorgenza della malattia in uno e non nell’altro. In futuro, la comprensione in toto dei meccanismi alla base di tali cambiamenti, permetterà di fare dell’epigenetica uno strumento di prevenzione nonché di cura.

“…viene voglia di chiedersi se questo nastro attorcigliato di zuccheri e basi puriniche  e pirimidiniche non sia, effettivamente, Dio” – J. Watson

Carburante ecologico fatto in casa..

lunedì 19 maggio 2008, 11.37.34 | newsmtesla

Costa 10.ooo $, ma potrebbe valere la spesa..

In vendita la prima macchina per produrre l’etanolo in casa attraverso la fermentazione dello zucchero

 
Un distributore di etanolo
(http://people.moreheadstate.edu)

Dagli Stati Uniti un dispositivo che permette di produrre carburante ecologico fai da te in modo semplice ed economico. Si chiama MicroFueler e altro non è che un piccolo impianto portatile in grado di trasformare lieviti e zucchero in etanolo da utilizzare per l’alimentazione delle automobili.

L’apparecchio – nell’aspetto simile a una piccola pompa di benzina – è venduto da E-Fuel Corp al prezzo di 10 mila dollari. Certo non sarà alla portata di tutti, ma l’azienda produttrice assicura che l’investimento iniziale viene ripagato in breve tempo, poiché un litro di etanolo ottenuto tramite il MicroFueler dalla fermentazione dello zucchero costa meno di 15 centesimi di euro.

Così, per esempio, al prezzo attuale della benzina, una famiglia dotata di due automobili che percorrono un totale di circa 55 mila chilometri all’anno ammortizzerebbe il costo in meno di due anni. Da lì in avanti sarebbe tutto risparmio. Senza contare la comodità di avere in casa il proprio distributore: occorre solo collegarlo alla rete elettrica e all’impianto idraulico domestico, dopodiché il rifornimento avviene esattamente come dal benzinaio, tramite la pompa, direttamente nel serbatoio dell’auto. Il distillatore è in grado di produrre fino a132 litridi carburante a settimana, ma la particolarità che distingue il dispositivo di E-Fuel dagli impianti già sperimentati in passato è il fatto che in questo caso l’etanolo è puro al 100 per cento, poiché gli speciali filtri di cui è dotato l’apparecchio sono in grado di rimuovere completamente l’acqua. Mentre solitamente è necessaria una ulteriore fase di distillazione per l’eliminazione dell’acqua, ovviamente con costi aggiuntivi. Il MicroFueler sarà presto prodotto in Cina, Stati Uniti e Inghilterra, e il produttore ha già annunciato di avere in programma una versione per uso commerciale che sfrutti anche altre materie prime.

(vedi:  ragiornale.splinder.com)

___________

fonte:corriere.it

Spazio, ultima frontiera

lunedì 19 maggio 2008, 10.14.45 | newsmtesla

 

 

L’ultima frontiera del confronto stellare tra Microsoft e Google. Redmond ha lanciato oggi il servizio Worldwide Telescope, un programma gratuito per esplorare galassie, sistemi stellari e pianeti tra i più lontani. Insomma, una risposta a Google Sky. Una risposta mastodontica, peraltro: il nuovo servizio di Microsoft mette a disposizione 12 terabyte di foto, scattate, per esempio, dal telescopio spaziale Hubble, dal Centro di osservazione Chandra X-Ray e dal telescopio spaziale Spitzer. Una bella messe di materiale, che ci fanno sapere essere l’equivalente di 2,6 miliardi di pagine di testo.

Una versione di prova del programma si può scaricare all’indirizzo  www.worldwidetelescope.org.

___________

corriere.it

TouchWall, la lavagna intelligente

lunedì 19 maggio 2008, 9.51.07 | newsmtesla

Si chiama TouchWall, cugino “verticale” di Surface, cioè una nuova tecnologia hardware che crea una interfaccia “white board” touch-based che permette agli utenti di interagire in maniera più naturale con dati e applicazioni sul computer. Insomma una sorta di pannello in grado di animare le pareti, rendendoli schermi da gestire con le soli mani, anche in più persone contemporaneamente.  Microsoft lo ha presentato a Redmond, in occasione del meeting dei chief executive officer della maggiori società tecnologiche al mondo, precisando comunque di non avere al momento l’intenzione di commercializzarlo. TouchWall è una nuova soluzione di interazione multi-touch, che va ad affiancarsi a una serie di prototipi realizzati da Microsoft Research, fra cui il più famoso è Surface: un vero tavolino multimediale che, grazie a uno schermo a 30 pollici, permette di utilizzare le dita al posto di mouse e tastiera.
Surface si basa sulla tecnologia touch screen che non solo riconosce la gestualità dell’utente ma anche ciò che viene appoggiato sul tavolino, consentendo così di far interagire vari oggetti e di creare un ambiente di lavoro interattivo e innovativo. Surface è da poco entrato in commercio, a un prezzo di 10.000 dollari.

Il nome TouchWall prende le mosse dall’hardware touch screen del dispositivo. Il software che invece permette di eseguire TouchWall è chiamato Plex ed è basato sua una versione standard di Windows Vista.
La tecnologia TouchWall/Plex differisce completamente da quella utilizzata da Microsoft Surface, che è infatti un sistema multi-touch e vision che sfrutta sensori fotografici per rilevare gli oggetti sul tavolo, dove si trovano e cosa stanno facendo. TouchWall è invece un sistema meccanicamente più semplice e anche molto più economico da produrre.

_____

lastampa.it

nuovo velivolo spaziale euro-russo..

lunedì 19 maggio 2008, 9.49.22 | newsmtesla

Agenzia spaziale russa (Roskosmos) ed europea (ESA) starebbero valutando seriamente l’ipotesi di realizzare insieme una nuova navetta spaziale per il trasporto di astronauti in orbita e forse anche per missioni lunari, secondo quanto riportato da Space.com citando come fonte la stessa Roskosmos. Il veicolo sarebbe in grado di trasportare un equipaggio di sei astronauti e dovrebbe essere lanciato dalla nuova base spaziale chela Russia intende realizzare a Vostocny, nella regione dell’Amur, sul Pacifico al confine conla Cina. Riguardo le date, il 2015 dovrebbe vedere il primo test e il 2018 l’entrata in servizio del nuovo velivolo euro-russo.

 

La Russiasi farebbe carico della parte pressurizzata, mentre l’Europa fornirebbe il sistema propulsivo, basato su quello dell’ATV (Automated Transfer Vehicle). In effetti, quest’ultimo sarebbe perfettamente in grado di spingere un veicolo spaziale di massa notevole versola ISS, avendo una capacità di circa nove tonnellate per un’orbita bassa. Inoltre, i quattro motori che spingono l’ATV e i relativi serbatoi sono disposti lateralmente al modulo propulsivo, il cui cuore è quindi attualmente un cilindro vuoto; grazie a questa felice opzione ingegneristica, il modulo propulsivo può dunque ospitare o un sistema di rientro di piccoli payload, allo studio, o un sistema di propulsione aggiuntivo, in grado di spingere una navetta in orbita di trasferimento lunare.

Intervenendo oggi ad una tavola rotonda su “European Space Programs of the Near Future” organizzata a Roma dalla Facoltà di Ingegneria dell’Università La Sapienza, il direttore generale dell’ESA, Jean-Jacques Dordain non ha dato ulteriori informazioni, parlando però chiaramente della necessità e dell’intenzione di dare un nuovo impulso ai voli umani e rendere l’Europa autonoma in questo campo. «Cosa faremo nei prossimi 10 anni? Alcuni programmi sono in via di sviluppo, ma molto è da decidere. Non siamo al livello degli altri nel volo spaziale umano, che invece ha un impatto straordinario sia sulla gente comune che sulla storia dell’umanità. Per questo mi auguro di vederlo crescere nei programmi dell’ESA». Riguardo la cooperazione, che sarebbe tra l’altro alla base della navetta euro-russa, Dordain ha chiarito che «la cooperazione internazionale è una necessità, anche se è difficile».

«Dal 1972 – ha detto il presidente dell’Agenzia spaziale italiana Giovanni Bignami – nessun uomo si è più spinto al di là dell’orbita terrestre e solo 24 delle centinaia di astronauti che sono andati nello spazio ha raggiunto l’orbita lunare. È tempo di riflettere su tutto questo. Dobbiamo sviluppare in Europa le capacità di portare uomini in orbita. È il tempo giusto per il Vecchio Continente di impegnarsi nell’esplorazione umana, dopo i successi ottenuti in quella robotica. Del resto, è la capacità di portare uomini in orbita la prova finale se si è o no una grande potenza spaziale».

Se tutti sembrano d’accordo sul fatto che l’Europa debba raggiungere l’autonomia di lancio anche nel settore del volo pilotato, non tutti sono però sono convinti che una navetta congiunta euro-russa sia l’opzione migliore da un punto di vista tecnico e di opportunità. Da un punto di vista tecnico, si fa notare che un’astronave è un sistema complesso che deve garantire la massima affidabilità e la massima leggerezza possibile, un obiettivo che è più facile raggiungere se si lavora da soli invece che a più mani. Da un punto di vista di opportunità, la storia dell’astronautica ha insegnato che è un grave errore fare affidamento su un solo sistema di trasporto, due al massimo: basti pensare alla crisi dello shuttle che ha rischiato di mandare in fumo l’intero progetto della stazione spaziale, essendo i moduli realizzati per essere trasportati solo con il traghetto spaziale americano. E l’inadeguatezza di avere solo un tipo di capsula a disposizione si ripresenterà quando lo shuttle sarà messo a terra e da utilizzare rimarrà solo la Soyuz, che proprio in queste ultime missioni ha mostrato di avere problemi al rientro che ne potrebbero fermare l’utilizzo per un certo periodo di tempo. Se, quindi, da un lato per l’Europa e perla Russia è una grande opportunità lavorare mettendo assieme i soldi dell’una e le competenze e l’esperienza dell’altra, sarebbe più conveniente avere due veicoli diversi a disposizione, per garantirsi un accesso allo spazio senza interruzioni in caso di problemi ad uno dei due sistemi.

(nelle immagini, fonte ESA e Roskosmos, un modello del Clipper e il raffronto con una Soyuz)

________________

fonte:dedalonews

Metà aereo, metà ufo

giovedì 15 maggio 2008, 10.56.34 | newsmtesla

 

Ingegneri dell’università per la scienza e la tecnologia di Trondheim, in Norvegia, hanno messo a punto SiMiCon roto crrft (Src). Si tratta di un aereo senza pilota, che assomiglia a un disco volante, capace di decollare e atterrare come un elicottero e volare come un jet.

 

I primi test nella galleria del vento sono stati superati con successo. Il diametro del primo modello sarà di4 metrie mezzo, sufficiente per contenere tutto l’occorrente per effettuare ogni sorta di rilevazione.

Questo aereo decolla grazie alla rotazione di una pala, uguale a quella di un elicottero, che esce dalla parte situata tra le due valve della «conchiglia» che forma il corpo dell’aereo. Nella coda c’è una piccola elica che impedisce al velivolo di ruotare su se stesso, lo stesso meccanismo dell’elicottero. A raggiungimento della quota desiderata, si accende il motore a reazione e le pale si ritraggono. A questo punto il SiMiCon roto crrft inizia a volare. Le pale hanno anche la funzione di fermarlo e farlo atterrare.

Le sue ridotte dimensione e la sua agilità permettono di trasportarlo con un grosso camion che può fungere anche da pista di decollo. Ragnvald Otterlei, uno dei progettisti, asserisce che questo futuristico aereo può essere utilizzato in una miriade di applicazioni: per scopi bellici, scientifici, di controllo, ecc.

Ragnvald Otterlei
Aaslandsgt. 13, Kongsberg, Norway
Post: PO Box 787, 3606 Kongsberg, Norway
Tel: +47 32 72 83 70
Fax: +47 32 73 37 10
Mobil: +47 92030141
E-mail: ragnvald@simicon.no

 

C’era una volta una coppia…

lunedì 12 maggio 2008, 10.28.56 | newsmtesla

C’era una volta una coppia
con un figlio di 12 anni e un asino.
Decisero di viaggiare, di lavorare
e di conoscere il mondo.
Così partirono tutti e tre con il loro asino.

 
Arrivati nel primo paese, la gente commentava:
‘Guardate quel ragazzo quanto è maleducato
…lui sull’asino e i poveri genitori, già anziani,
che lo tirano’
Allora la moglie disse a suo marito:
‘Non permettiamo che la gente
parli male di nostro figlio’.
Il marito lo fece scendere e salì sull’asino.
 
  
Arrivati al secondo paese, la gente mormorava:
‘Guardate che svergognato quel tipo
…lascia che il ragazzo e la povera moglie tirino l’asino,
mentre lui vi sta comodamente in groppa’.
Allora, presero la decisione di far salire la moglie,
mentre padre e figlio tenevano le redini per tirare l’asino.
 
 
Arrivati al terzo paese, la gente commentava:
‘Pover’uomo !!!
Dopo aver lavorato tutto il giorno,
lascia che la moglie salga sull’asino,
…e povero figlio,  chissà cosa gli spetta,
con una madre del genere !!!’
Allora si misero d’accordo
e decisero di sedersi
tutti e tre sull’asino
per cominciare nuovamente il pellegrinaggio.
 
 
 Arrivati al paese successivo,
ascoltarono cosa diceva la gente del paese:
‘Sono delle bestie, più bestie dell’asino che li porta,
gli spaccheranno la schiena !!!’
Alla fine, decisero di scendere tutti
e camminare insieme all’asino.
Ma, passando per il paese seguente,
non potevano credere a ciò che le voci dicevano ridendo:
‘Guarda quei tre idioti; camminano,
anche se hanno un asino che potrebbe portarli !!!’
 
 
Conclusione: 

Vivi come credi.
Fai cosa ti dice il cuore …ciò che vuoi,
una vita è un’opera di teatro
che non ha prove iniziali.
Canta, ridi, balla, ama
e vivi intensamente ogni momento della tua vita,
prima che cali il sipario e l’opera finisca senza applausi.

 
 
Si dice che:
‘Ci vuole un minuto per notare una persona speciale,
un’ora per apprezzarla,
un giorno per volerle bene,
ma poi tutta una vita per dimenticarla’.

..x..

 C    &    L
 

UN AMICO E’ UN SOLE SENZA TRAMONTO !!!

voli turistici suborbitali

lunedì 12 maggio 2008, 10.28.25 | newsmtesla

Il gruppo Virgin, fondato da Richard Branson nel 1970, ha affidato in esclusiva a Your Private Italy, tour operator con sede a Salerno, la promozione e vendita in Italia di biglietti per i voli turistici suborbitali che Virgin Galactic comincerà ad effettuare dal 2010 con il sistema White Knight Two/SpaceShipTwo, messo a punto dal genio dell’aeronautica Burt Rutan. L’annuncio è stato dato giovedì e molte testate generaliste hanno riportato l’informazione, ma con alcune imprecisioni e una carenza di informazioni tecniche.

«Siamo molto selettivi e abbiamo soltanto cento agenzie di rappresentanza in 33 paesi nel mondo» ha detto Carolyn Wincer, annunciando l’accordo con Your Private Italy. Le prenotazioni sono dunque effettuabili fin d’ora anche dall’Italia. Il biglietto costa 129.000 euro (200.000 dollari) “all inclusive”, comprendendo – oltre al volo suborbitale – tre giorni di alloggio in albergo a cinque stelle nel deserto del Mojave, base dei voli, le visite mediche e un breve addestramento. «Sono stati già raccolti 50 milioni di dollari grazie alle 250 prenotazioni effettuate da persone di 35 paesi e in diverse condizioni fisiche», ha detto Seth Snider, space agent di Your Private Italy, ricordando che tra i futuri passeggeri di Virgin Galactic c’è il grande fisico Stephen Hawking, da anni completamente disabile a causa di una grave malattia, un anziano signore di 88 anni e una persona che ha subito vari by-pass cardiaci, a confermare che «il sistema messo a punto da Rutan può portare nello spazio praticamente tutti. Delle persone che finora si sono candidate per il volo, l’85-90 per cento è risultata idonea», ha detto Snider. Durante il volo, ha ricordato ancora, i passeggeri potranno godere per cinque minuti di una completa libertà di movimento in assenza di peso e «dagli oblò, potranno ammirarela Terra per1.600 chilometri in ogni direzione». Prossimo traguardo di Virgin Galactic, la presentazione a luglio del primo stadio, l’aereo White Knight Two (WK2), che ad agosto comincerà i voli di prova, per poi proseguire con 12-18 mesi di test, fino al primo lancio del sistema completo nel 2010, e il seguente avvio dei voli turistici.

 

Snider ha detto che la tecnologia messa a punto sarà utilizzata in futuro anche nell’aviazione civile da trasporto e, forse, come sistema per la messa in orbita di piccoli satelliti. Questo farebbe pensare che il vero obiettivo commerciale di Branson non sia il turismo spaziale, bensì il settore dei lanci e dei test commerciali e istituzionali e, in un’ottica di lungo termine, la messa a punto di aerei passeggeri suborbitali in grado di collegare in due ore qualsiasi città del mondo. Un’ipotesi, questa, che troverebbe una conferma indiretta nella dichiarazione di Snider, secondo il quale «i primi cinque anni di guadagno saranno reinvestiti nel progetto», in pratica in ricerca e sviluppo. Del resto già il White Knight 1 è stato “affittato” dal 2005 dalla DARPA (Defense Advanced Research Project Agency) statunitense per effettuare prove di sgancio del velivolo sperimentale della Boeing X-37 e, nel 2006, per testare le “adaptive compliant wing”, ali deformabili che renderebbero inutili i flap, messe a punto dalla FlexSys Corp. Ricordiamo che Sia il White Knight Two che lo SpaceShipTwo (SS2) sono realizzati in fibra di carbonio e che lo SpaceShipTwo trasporterà due piloti e sei (ma forse fino a nove) passeggeri.

I dettagli tecnici

I dettagli tecnici lasciano invece qualche perplessità e fanno pensare ad una non così rosea esperienza per i turisti spaziali. Il profilo tipico di missione prevede che il WK2 si porti in 45 minuti a15.000 metri, quota alla quale effettuare lo sganciamento dello SS2. Acceso il motore a razzo, lo SS2 comincia quindi un’ascesa pressoché verticale, toccando dopo soli 12 secondi Mach 1, e proseguendo in accelerazione fino a ad oltre Mach 3,5. Segue la fase inerziale, durante la quale i passeggeri si troveranno in Zero G e la navetta toccherà i120 chilometridi altezza. Infine, le fasi di rientro, caratterizzate da un picco di 6G e da una successiva lunga planata di 45 minuti fino alla pista dell’aeroporto Mojave, dove lo SS2 toccherà terra circa 2 ore e mezza dopo il decollo.

Il sistema di rientro dello SS2 usa la stessa metodologia sviluppata per lo SS1, con le ali che saranno messe in posizione “a bandiera” nelle fasi di decelerazione e riportate in posizione di volo nelle fasi di planata. Tre sono le maggiori perplessità, una legata alla godibilità del volo, le altre due alla sicurezza, che sicuramente sarà curata nei minimi dettagli, ma in mancanza di ulteriori informazioni lascia aperto qualche punto interrogativo. Prima di tutto, 6G (sei volte il peso del proprio corpo) non sono tanti per un pilota da caccia, ma lo sono certamente per un normale essere umano che probabilmente ha come unica esperienza dell’accelerazione un giro sulle montagne russe. L’esperienza potrebbe essere tutt’altro che piacevole, ma è pur vero che è una scelta personale. Del resto, per toccare i120 chilometri, non c’era probabilmente alternativa possibile ad un’ascesa e un rientro molto verticale, con un alto carico di G: una parabola più morbida, in altre parole, consentirebbe meno accelerazione al rientro, ma porterebbe ad una considerevole riduzione della quota massima, che è invece l’elemento chiave dell’offerta turistica.

 

Secondo, ed entriamo nel campo della sicurezza, cosa succederebbe se uno o entrambi i sistemi che comandano il posizionamento delle ali si dovessero bloccare? Essendo un sistema idraulico e meccanico, sottoposto a forti vibrazioni e stress, non ci sembra un’ipotesi tanto pensata. In questo caso ha dato una già una risposta, anche se molto vaga, lo stesso Rutan, che a gennaio dichiarò che lo SpaceShipTwo «è progettato per rientrare nell’atmosfera con qualsiasi angolo. Anche nel peggior caso, quello sottosopra, il veicolo correggerà l’assetto»; ed «è in grado di tornare a terra anche nel peggior scenario possibile». Sempre parlando di sicurezza, Rutan ha dato un parametro specifico: SS2 è progettato per essere sicuro almeno quanto gli aerei usati dalle prime compagnie aeree negli anni venti. Non credete a nessuno che vi dica che la sicurezza è la stessa di un moderno aereo, che ha alle spalle 70 anni di esperienza». Sarà interessante conoscere a luglio, in occasione del roll-out del WK2, maggiori dettagli.

_____________________

(disegni: fonte Virgin Galactic) dedalonews

La Libia all’Italia….

venerdì 9 maggio 2008, 11.43.22 | newsmtesla

“Sull’immigrazione non collaboriamo più”

Nel mirino anche il petrolio

 «Non proteggeremo più le vostre coste dall’arrivo di clandestini»

Dopo il caso Calderoli, con l’avvertimento all’Italia da parte del figlio di Gheddafi, affinché evitasse di nominarlo ministro, pena «ripercussioni catastrofiche nelle relazioni con l’Italia» ecco chela Libiafa sapere a Roma, tramite il suo ministero dell’Interno, che non intende più collaborare nella protezione delle coste italiane dall’ondata di sbarchi di clandestini dall’Africa, poiché Roma e altri Paesi dell’Unione Europea non hanno dato l’appoggio promesso. In più ci sarebbe un giro di vite per i visti e i contratti Eni, ma l’avvertimento non è ufficiale perché «un’imminente dura risposta» della Libia è attribuita a «fonti diplomatiche»: le voci sono state raccolte da «Staffetta quotidiana», la testata online specializzata in notizie sull’energia.

Il benvenuto di Muhammar el Gheddafi al governo di Silvio Berlusconi è arrivato ieri sera, poche ore dopo il giuramento al Quirinale. Ed è stato pienamente nello stile del Colonnello: drastico, ribelle e allo stesso tempo suscettibile di modifiche, se la controparte vorrà negoziare per ottenerne. «La Libianon è più responsabile della protezione delle coste italiane dagli immigrati illegali», ha annunciato in un comunicato il ministero dell’Interno libico. (…ma le ha mai protette??????)

Inviata all’agenzia di stampa Reuters e al Tripoli Post, lanota ha ricordato che si avvicina «l’inizio della stagione estiva, durante la quale questa immigrazione clandestina dalla Grande Gamahiria aumenta». Nessun riferimento diretto, invece, al passo precedente compiuto da Tripoli: venerdì scorso Seif el Islam, il figlio più politico del Colonnello, aveva promesso «ripercussioni catastrofiche nelle relazioni con l’Italia » se tra i membri del nuovo governo a Roma ci fosse stato Roberto Calderoli, accusato sull’agenzia Jana di essere «il vero assassino» dei libici morti a Bengasi nell’assalto al consolato italiano del 2006, nato dalle proteste contro l’esibizione in tv di una maglietta con vignette di Maometto portata dall’allora ministro leghista.

La minaccia di lasciar passare interamente il flusso di immigrazione illegale è arrivata quando un quotidiano sull’energia reperibile su Internet, Staffetta quotidiana, aveva dato per «imminente» una «dura risposta» alla nomina di Calderoli che «prevederebbe il blocco dei visti di ingresso per gli italiani in Libia e la cancellazione dell’accordo strategico tra l’Eni e la compagnia di Stato Noc siglato il 16 ottobre a Tripoli ». Esatta o meno che sia l’informazione, in questo caso il segnale è stato privo di ufficialità: l’insieme delle ripercussioni teoricamente possibili è parso delineare un percorso a tappe. «La parte italiana non si è comportata bene nel suo impegno nel dare appoggio alla Libia », è la tesi con la quale il ministero dell’Interno ha motivato la minaccia sulle coste. ____________

corriere.it

basta col petrolio!!! investiamo su fonti di energia alternative senza pregidizi e diktat ideologici !!!!!!!!!!

Svincoliamoci dai gheddafi !!! – nn possiamo continuare a stipulare accordi e per farci poi prendere in giro da una famiglia di dittatori ..  

VEDI  RAGIORNALE.SPLINDER.COM

Il colpo di fulmine? Semplice calcolo statistico

giovedì 8 maggio 2008, 11.47.25 | newsmtesla

Vi è mai capitato di incontrare una persona speciale e vivere quella rara ma entusiasmante esperienza denominata “colpo di fulmine”? Alcuni scienziati dell’Ohio State University, negli Usa, hanno cercato di comprendere quale sia il fattore scatenante e hanno scoperto qualcosa di sorprendente. In amore, ma anche in amicizia, contano i primi minuti di conoscenza. Il nostro cervello, inconsciamente, analizza la persona che si trova di fronte e, se particolarmente interessante, effettua una veloce previsione di quanto si ha in comune con la stessa. Per evitare di perdere “secondi preziosi”, insomma, scatta quella molla che ci permette di aprirci di più, facendoci rivelare quanto più possibile di noi stessi. Si compiono cioè tutti quei gesti che aiutano l’instaurarsi di un rapporto che può essere di natura amorosa o di forte amicizia.

Dunque il famoso colpo di fulmine non sarebbe altro che un complesso e veloce, ma romantico, calcolo delle probabilità. Si tratta di una scoperta importantissima, hanno detto gli stessi ricercatori, perché “sovverte quanto pensato finora sulla formazione delle relazioni d’amore o di amicizia”. La ricerca, condotta su un campione di 164 studenti, metteva i giovani in condizione di formulare un rapido giudizio sulle persone incontrate a distanza di tre, sei o, al massimo, dieci minuti. A distanza di mesi è stata poi verificata l’eventuale corrispondenza tra il giudizio “fast” e quello sottoposto alla prova del tempo. “Le conclusioni raggiunte nei primissimi minuti – hanno concluso gli scienziati – sono state confermate dalla lunga frequentazione”.

Nuovi problemi per A380

giovedì 8 maggio 2008, 11.46.48 | newsmtesla

Airbus potrebbe trovarsi di fronte ad ulteriori ritardi delle consegne A380. Questo secondo il magazine economico tedesco Wirtschafts-Woche che cita come fonte una lettera del direttore generale Thomas Enders a clienti e fornitori.

Secondo quanto riportato, Airbus potrebbe centrare l’ obbiettivo di 13 consegne nel 2008, ma potrebbero esserci problemi a centrare quello delle 25 consegne il prossimo anno. I motivi dei possibili ritardi sarebbero in alcuni problemi di qualità di alcune componenti ricevute da fornitori e nelle richieste di alcuni clienti che complicherebbero la realizzazione degli interni. Secondo Wirtschafts-Woche Enders potrebbe ordinare una rischedulazione del programma. Nel primo pomeriggio di ieri quanto dichiarato da un portavoce Emirates e ribattuto dall’ agenzia AFP suffraga la notizia di nuovi possibili problemi al programma A380. La compagnia di Dubai, principale cliente dell’ A380, ha ricevuto da Airbus una lettera che parlai ulteriori ritardi nella consegna del super Jumbo Airbus. L’ agenzia di stampa AFP ha inviato una richiesta di intervista aThomas Enders, chiedendogli dettagli sulle voci dei possibili ritardi. Il CEO di Airbus, rispondendo per iscritto alle domande dell’ agenzia stampa ha detto «di non poter al momento rispondere sull’argomento». Tuttavia Enders ha ammesso che al momento «l’obbiettivo di aumentare la produzione è definitivamente da considerarsi ambizioso».

Tesla car, l’auto del futuro

martedì 6 maggio 2008, 13.55.30 | newsmtesla

La vecchia Tesla car, con una tecnologia che ha ormai 100 anni di storia, sarà la macchina del futuro

La Tesla Motorha annunciato che il prossimo 12 luglio, a Santa Monica, lancerà sul mercato la Tesla Roadster, un’automobile completamente elettrica, un’auto sportiva a zero emissioni, che può raggiungere i 100 chilometri all’ora in soli 4 secondi, e percorrere circa 400 chilometri con un “pieno” di energia. Non si tratta di un’auto “ibrida”, in quanto il motore è alimentato esclusivamente dall’energia elettrica. Il progetto di 40 milioni di dollari ha degli sponsor d’eccellenza, Larry Page e Sergey Brin, padri di Google. Lei sarà l’automobile del futuro, una risposta a tutte le nostre domande: non usa benzina, nessun tipo di olio, appena alcuni montaggi di grasso, non ha radiatore da riempire o che si possa congelare, nessun problema al carburatore, e soprattutto non emana sostanze inquinanti.

L’automobile del mistero appartiene, ancora una volta, a Nikola Tesla, che nel 1931, sostenuto dalla Pierce Arrow Co. e dalla General Electric, sostituì il motore a benzina di una Pierce Arrow con un motore elettrico a corrente alternata di 80 cavalli, senza una fonte di energia esterna, senza batterie: installò sull’auto un piccolo circuito collegato a distanza ad un’antenna che trasmetteva energia nell’etere.

Essa possiede vantaggi che gli arcani modelli con il motore a scoppio non potranno mai offrire: assoluta assenza di rumore, azionandosi semplicemente con la chiave dell’accensione, e di inquinamento. Sino al 1912 tali veicoli circolavano seguendo la tecnologia di Edison, con batterie limitate nella carica e nella potenzialità, che dovevano essere ricaricate ogni notte per potersi spostare. Intantola Westinghouse Co.,a cui Tesla aveva ceduto gran parte dei suoi brevetti, stava vendendo e installando il generatore a corrente alternata di Tesla in tutto il paese, mentrela Edison PowerCo., sua diretta concorrente, perdeva quote di mercato, perché finché si utilizzavano le batterie come alimentazione non si andava avanti.

Tesla dunque sostituì il motore a benzina con uno cilindrico, interamente incluso nel motore, con un ventilatore di raffreddamento ma senza alcun distributore, e con una scatola che fungeva da “ricevitore di energia”, o meglio da convertitore di energia gravitazionale. I convertitori avevano inoltre 12 tubi di aspirazione ed erano collegati ad un’antenna che comunicava con un edificio che faceva da trasmittente. Tesla creò infatti una sorta di antenna, un accumulatore di energia che fungeva dunque da alimentazione per il veicolo, che viaggiava con un motore a corrente alternata e raggiungeva le90 migliaorarie, con prestazioni che eguagliavano o superavano quelle di un normale motore a combustione interna, ma senza alcuna ricarica.

L’antenna era installata al di fuori della vettura, collegata alla scatola posizionata nella parte anteriore della macchina, e ad un’officina accanto alle cascate del Niagara che trasmetteva energia. Con tale sistema ognuno avrebbe potuto creare la propria energia, cosa che non piacque molto a J.P. Morgan che decise di fermare il progetto della Torre di Wardencliffe di Tesla. Alla domanda di dove mai fosse la fonte d’energia, Tesla rispondeva che questa era “nell’etere tutto intorno noi”: lo credettero pazzo e così decise di portare via con sé la scatola d’alimentazione. In realtà Tesla riuscì a sfruttare in qualche modo il campo magnetico terrestre che avvolge il nostro pianeta, ad attingervi e convogliarlo verso il veicolo, o meglio riuscì ad amplificare l’energia che è presente nell’aria per spingerla verso una macchina. Nel convertitore vi era abbastanza energia per illuminare una casa intera, oltre al gestire il motore di macchina.

Tuttavia il progetto non fu divulgato e la macchina fu tenuta in stretto riserbo dagli industriali che si appropriarono della stessa. Attualmente le società che conseguono i più alti profitti sono proprio le industrie petrolifere, le sette sorelle, che occultarono subito quella tecnologia che avrebbe reso vani i loro investimenti e i futuri profitti. Così facendo si sono resi responsabili di tutti i crimini commessi nel corso di questo secolo: di guerre, di inquinamento, dell’olocausto e dei danni psichici e fisici della società attuale. Ora vogliono venderci a caro prezzo una tecnologia che ha già cento anni di storia, che è già stata ammortizzata nei costi e nelle sperimentazioni, pubblicizzando l’avvento del futuro con essa.

Un’intera industria automobilistica continua a produrre automobili obsolete, dalle tecnologie di base banali e altamente inquinanti, ma che nelle loro politiche di marketing rappresentano l’avanguardia per progresso e meccanica. Ci hanno rubato la scienza, circa cento anni di Storia, alterando l’equilibrio climatico e biologico della Terra, che sarà travolta da sconvolgimenti e catastrofi naturali che rappresentano dei veri e propri fenomeni di riadattamento alle nuove condizioni. Non smetteremo di combattere questa guerra, perché ognuno dovrà avere l’energia che gli spetta in quanto essere vivente del cosmo.

“Da quando le persone corrotte si uniscono fra loro per costituire una forza, poi le persone oneste devono fare lo stesso” (Tolstoi)

Slittano i voli shuttle

martedì 6 maggio 2008, 10.49.46 | newsmtesla

Potrebbero slittare di circa un mese a catena i voli degli shuttle in programma nella seconda metà del 2008, per alcuni ritardi nella produzione di nuovi serbatoi esterni, due dei quali destinati alla missione di manutenzione del telescopio spaziale Hubble nell’agosto prossimo. Rimane invece fissato al 31 maggio il volo del Discovery, che dovrà portare sulla stazione spaziale internazionale il laboratorio giapponese Kibo.

 

L’ultima manutenzione di Hubble sarà effettuata dallo shuttle Atlantis, il cui lancio era in programma il 28 agosto. La missione però richiede precauzioni speciali perché, trovandosi il telescopio su un’orbita diversa da quella della ISS, quest’ultima non potrà essere utilizzata come rifugio in caso di problemi allo scudo termico dell’Atlantis; per ovviare alla necessità di garantire un sistema di “backup” agli astronauti dopo la tragedia del Columbia del 2003, in quest’unica missione non diretta alla ISS sarà previsto il lancio di emergenza dello shuttle Endeavour per una missione di salvataggio in caso di difficoltà per l’Atlantis. Entrambi gli shuttle dovranno dunque essere pronti sulla rampa al momento della missione. Lo slittamento della realizzazione delle tank esterne di nuova produzione per questi due shuttle comporterà lo slittamento a catena delle altre missioni in programma nel 2008, con l’ultima destinata a scivolare ad inizio 2009. Il cambiamento non dovrebbe comunque invalidare il programma complessivo delle missioni, con l’ultimo volo di uno shuttle fissato nel 2010.

(nella foto, Hubble nel corso della terza missione di manutenzione nel 1999)

..presto una rivoluzione in campo musicale….

martedì 6 maggio 2008, 10.36.41 | newsmtesla

Si chiama Audio spotlight il raggio sonoro che avvolge solamente chi vuole ascoltare escludendo gli altri presenti. Niente più cuffie perché, d’ora in poi, si potrà ascoltare musica ad alto volume senza incutere alcun disturbo a chi si trova nella stessa stanza. Joseph (joe) Pompei, ricercatore del Media Lab al Mit di Cambridge, è lo scopritore di questa stupefacente tecnologia per mezzo della quale la musica diventa una sorta di raggio sonoro che può essere orientato solo verso una sola persona. Le altre presenti vengono escluse.

Ad esempio, il conducente di un’auto potrà ascoltare il notiziario mentre gli altri passeggeri ascoltano musica. In una sala piena di gente, messaggi sonori potranno essere inviati ad un solo destinatario.

Non finisce qui: un’insolita coreografia dei suoni potrà creare un’innovativa percezione. Ad esempio, l’audio di un film in proiezione potrà avvolgere il pubblico con effetti acustici senza precedenti visto che il fascio sonoro, riflesso contro la parete, si diffonde nell’ambiente circostante, trasformandosi in una sorgente sonora udibile a tutti.

Questa tecnologia si può considerare la più importante dopo l’invenzione dell’autoparlante nel 1925. Joseph (joe) Pompei spiega che Audio spotlight convoglia suoni attraverso l’aria lungo una traiettoria, al pari di una luce emessa da una torcia. Ha la forma di un sottile disco nero di mezzo metro di diametro che rivolto verso una persona permette di ottenere qualcosa di straordinario. L’aria attorno alla sua testa si riempie di musica e, se la persona si muove, il suono la segue. La musica smette quando si modifica la posizione del disco nero da cui partono gli ultrasuoni.

L’invenzione di Pompei ha già suscitato molto interesse. L’American technology corporation ha sottoscritto un contratto conla DaimlerChryslerche prevede l’installazione dell’Audio spotlight su un veicolo di prova: ogni passeggero potrà ascoltare un programma di musica diverso.La Bathiron works, compagnia di navigazione, vuole piazzare fasci sonori sul ponte delle navi della marina americana permettendo così ai radioperatori di seguire ciò che accade, tenendo la cuffia solo su un orecchio. Inoltre, sta lavorando a un progetto di un televisore che riflettendo il fascio sonoro contro la parete alle spalle di chi guarda, diffonde i suoni in tutto l’ambiente.

 

Lockheed: test positivi per GEO-1 del sistema SBIRS

martedì 6 maggio 2008, 10.33.20 | newsmtesla

 

La Lockheed Marinha superato un altro punto critico dello sviluppo del nuovo sistema di allerta satellitare con l’effettuazione dei test integrati di GEO-1, il primo satellite in orbita geosincrona del sistema SBIRS (Space-Based Infrared System), che sarà lanciato nel 2009.

Il satellite è progettato per garantire una precoce individuazione di missili in volo, aumentando le capacità di sorveglianza stategica degli Stati Uniti.

martedì 6 maggio 2008, 9.45.27 | newsmtesla

Tibet, accordo Cina-Dalai Lama per nuovi futuri colloqui

Conclusi con un arrivederci gli incontri ”informali” tra i due inviati della guida spirituale e i rappresentanti di Pechino nella città cinese di Shenzhen. Non è stato precisato quando e dove le due parti si incontreranno di nuovo.Lo riferisce l’agenzia ufficiale Xinhua.
(adnkronos)

Tesla: inaugurato a Los Angeles il primo concessionario

lunedì 5 maggio 2008, 9.52.58 | newsmtesla

Poteva andare diversamente? Il primo showroom ufficiale di Tesla Motors, la casa che producela Roadsterha inaugurato il primo maggio, il suo concessionario numero uno nel mondo, lungo il Santa Monica Boulevard di Los Angeles.

Nonostante le auto prodotte in serie siano solo quattro (dopo una serie di problemi incontrati con la trasmissione a due marce della Magna, sostituita da una Ricardo) il costruttore californiano ha deciso di precorrere i tempi con una mossa di marketing con la quale non potrà che aumentare l’attesa dei 1000 acquirenti in lista d’attesa. Per i prossimi mesi,la Roadsterverrà prodotta dalla Lotus, che installerà a Hethel il nuovo componente Ricardo: le auto prodotte prima, verranno aggiornate con un’operazione di due ore. Entro il mese di dicembre, Tesla prevede di avere a disposizione 300 esemplari, e di spostare finalmente la produzione nel proprio stabilimento nel nord della California, dove si viaggerà sui 150 esemplari al mese. La manovra permetterà di risparmiare molti soldi, dato che produrre in Gran Bretagna, con un dollaro così debole contro la sterlina (senza contare i costi di trasporto dei componenti che vengono dalla California) non è certo conveniente.

Il prossimo showroom nascerà entro l’estate a Menlo Park, vicino alla sede aziendale della Silicon Valley, mentre per i prossimi 12 mesi si prevedono aperture a New York, Miami, Chicago e Seattle, a loro volta seguite probabilmente da Washington e Boston, ed eventualmente da altre locations particolarmente recettive.

L F

sabato 3 maggio 2008, 22.55.34 | newsmtesla

————————————————————— 

NON MOLLARE

!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

:)   (:

————————————————————— 

Louis Armstrong – What A Wonderful World

 

Somewhere Over the Rainbow

Mad World- Gary Jules

 

wonderful life – Zucchero

&quot;Zar&quot; Putin rilancia l’attività spaziale russa

mercoledì 30 aprile 2008, 11.31.16 | newsmtesla

Il presidente russo Vladimir Putin ha impegnato il suo governo a realizzare una nuova base di lancio nell’estremo est del Paese, a completare lo sviluppo del nuovo vettore Angara e ad aggiornare in fretta la costellazione Glonass di navigazione satellitare. Lo rivela Space.com, precisando che le indicazioni sono state date venerdì nel corso di un “Security Council” durante il quale si è discusso di strategia spaziale nazionale.

 

«Dobbiamo garantire alla Russia l’accesso allo spazio – ha detto Putin – per ogni genere di lancio spaziale, di satelliti, di uomini e di sonde interplanetarie». In particolare, il presidente russo ha chiesto che i lavori per la realizzazione del nuovo cosmodromo a Vostocny, nella regione dell’Amur, sul Pacifico al confine conla Cina, siano avviati entro quest’anno, con l’obiettivo di inaugurare il sito nel 2015-2020 e garantire così l’autonomia di lancio che in questo momento manca alla Russia, costretta ad affittare la base storica di Baikonour dal Kazakistan, al quale paga 73 milioni di euro l’anno.

La flotta di satelliti Glonass doveva essere pienamente operativa dall’inizio del 2008, ma problemi tecnici ne hanno ritardato il completamento. Il vettore modulare Angara (vedi illustrazione), del Centro spaziale Khrunichev, dovrebbe poter trasportare – a seconda delle versioni – 1,7 tonnellate in orbita polare, 28 ton in LEO o7,6 inGTO, andando a sostituire anche i Soyuz nelle missioni manned. Il lancio inaugurale dovrebbe essere effettuato nel 2010-2011

Il casco telepatico

mercoledì 30 aprile 2008, 10.40.02 | newsmtesla

L`Adaptative Brain Interface, o più semplicemente l`Abi, lo strumento capace di “leggere il pensiero”, di tradurlo in impulsi elettrici e che è in corso di sperimentazione presso i laboratori della Fondazione Santa Lucia di Roma, ha ultimato la sua prima fase di sperimentazione.

I risultati fin qui raggiunti sono piuttosto incoraggianti. Ora si deve passare ad uno stadio più delicato della sperimentazione che coinvolga direttamente i pazienti malati, ai quali dovrebbe essere destinato.

Ma come funziona praticamente Abi? Il sistema è costituito da una cuffia comunemente utilizzata per l`elettroencefalogramma, collegata attraverso un cavo ad un decodificatore che a sua volta è collegato attraverso delle fibre ottiche ed una comunissima porta seriale ad un computer. La cuffia su cui sono installati otto diversi elettrodi capta il segnale che arriva al decodificatore che dopo averlo elaborato lo trasmette al computer sul quale viene rappresentato sotto forma di immagine. Ma non bisogna cadere in equivoco.

Le immagini tradotte sullo schermo del computer non sono le fedeli riproduzioni del pensiero, ma sono soltanto una sorta di rappresentazione piuttosto astratta di un processo cognitivo attivato dal cervello che Abi ha imparato a riconoscere. I segnali vengono preselezionati dal sistema. In pratica si chiede al software di riconoscere quale tipo di impulsi sono emessi da quel particolare cervello nel momento di pensare una particolare azione e di riconoscerli.

Questo range di possibilità attualmente può essere limitato solo ad numero piuttosto ristretto di azioni due, al massimo tre: con due azioni si è appurato un`attendibilità del 90 per cento, mentre con tre già si scende al 60-70 per cento. Ma già due o tre parametri sono sufficienti ad elaborare informazioni più complesse e tra le applicazioni possibili c`è anche una tastiera virtuale scomponibile, grazie alla quale è possibile digitare sullo schermo un carattere entro al massimo 40 secondi… Un po tanti… ma è un inizio..

X-RAY : addio privacy..

mercoledì 30 aprile 2008, 10.05.13 | newsmtesla

La polizia britannica da qualche giorno dispone di una nuova tecnologia in grado di potenziare le già numerose tecniche impiegate per il tecno-controllo e la tecno-sorveglianza. Si tratta della X-Ray Machine, che secondo il settimanale Herald Sun è stata già adottata massicciamente per “scannerizzare” le folle di nightclubbers inglesi. 

A quanto pare non c’è modo di sfuggire alle dettagliate analisi a raggi x del dispositivo, capace di “penetrare” negli angoli più intimi non solo dell’abbigliamento ma anche del corpo delle “vittime”. Esattamente, almeno a quanto dicono, fino a un quarto di centimetro sotto la pelle. Può dunque rilevare oltre alle droghe, coltelli, pistole e esplosivo.

In circa 6 secondi produce una immagine colorata a 360 gradi del corpo senza indumenti. Gli eventuali “corpi estranei” vengono subito segnalati. Sempre secondo le stime ufficiali, le radiazioni sono 1500 volte più deboli dei raggi-x usati per le lastre. La macchina, trasportata da un grosso camion, costa più di 300.000 sterline e pesa circa mezza tonnellata, non è proprio un giocattolino.
Gli agenti che l’hanno provata dicono che le immagini sono “molto grafiche” e in generale la macchina è stata acclamata come una manna dal cielo. Uno dei primi raid a Londra con la X-ray machine ha provocato 30 arresti per spaccio di cannabis, possesso di coltelli e merce rubata. Ai sospetti è stata data la possibilità di denudarsi o di essere sottoposti allo scanning. Tutti quelli che hanno scelto i raggi X, la maggior parte, sono stati beccati.
E presto sarà operativa presso aeroporti, edifici vari, prigioni e palazzi governativi. Nel frattempo verrà valutato il suo uso da parte degli agenti.

In orbita Giove B il secondo satellite della costellazione Galilleo

mercoledì 30 aprile 2008, 9.42.50 | newsmtesla

La settimana scorsa il Parlamento di Bruxelles ha stanziato per il progetto 3,4 miliardi di euro.
È in orbita dalle prime ore di domenica 27 aprile Giove B, il secondo satellite dimostrativo del sistema di posizionamento satellitare europeo Galileo, una costellazione di 30 satelliti che dal 2013 si affiancherà all’americano Gps.

Il lancio, avvenuto con un razzo Soyuz dalla base russa di Baikonur in Kazakhstan, segna di fatto l’inizio della fase di “collaudo” di uno dei più ambiziosi progetti europei: mentre Giove A, lanciato il 28 dicembre 2005 haavuto essenzialmente il compito di occupare la posizione orbitale e bloccare le frequenze, con Giove B si inizia a fare sul serio. Tranne che per la vita operativa, che sarà di soli due anni, Giove B è identico ad ognuno dei 30 satelliti della costellazione e dovrà dimostrare il buon funzionamento e la correttezza delle scelte tecnologiche fatte finora. Tra queste c’è l’orologio atomico più preciso mai lanciato nello spazio, con un margine di errore di un secondo ogni tre milioni di anni, in grado di fornire il riferimento temporale che alcuni nel settore chiamano già “ora Galileo”.
Made in Italy in primo piano
I dati dei satelliti Giove A e B (e in futuro dell’intera costellazione) vengono ricevuti dalle grandi antenne del centro spaziale italiano del Fucino, dov’è in costruzione una delle stazioni di controllo gestita da Telespazio (società controllata da Finmeccanica e dalla francese Thales). L’altro centro è a Oberpfaffenhofen vicino a Monaco in Germania. L’Italia è il secondo investitore a livello europeo in Galileo e gioca un ruolo di primo piano non solo nella gestione del sistema ma anche nella costruzione dei satelliti, affidata ad un consorzio di industrie europee guidato dalla tedesca Astrium e con Thales Alenia Space (società controllata da Thales e Finmeccanica) come primo subcontraente per l’assemblaggio, l’integrazione e i test. Un’altra azienda italiana, la Selex Galileo (Gruppo Finmeccanica), ha realizzato il sofisticato orologio atomico.
Via libera di Bruxelles
Nonostante il programma di lancio di Giove B e il calendario delle sedute al parlamento di Bruxelles non fossero sincronizzati, a pochi giorni dal lancio è arrivato l’atteso via libera del Parlamento europeo. A larghissima maggioranza (607 voti favorevoli, 36 contrari e 8 astensioni) mercoledì 23 aprile è stato approvato il regolamento che permetterà di completare il sistema di navigazione dopo il fallimento dei negoziati sul contratto di concessione che avrebbe dovuto affidare ai privati la gestione di Galileo. Il progetto sarà quindi finanziato con denaro pubblico: 3,4 miliardi di euro per il periodo 2007-2013, per costruire la prima infrastruttura mondiale di radionavigazione e posizionamento via satellite nata e gestita in ambito civile. Lo statunitense Gps e il meno conosciuto Glonass russo sono infatti stati realizzati e vengono tuttora gestiti dai militari, anche se i loro segnali sono stati “aperti” all’uso civile. La costellazione voluta dall’Agenzia Spaziale Europea e dalla Commissione Europea potrà essere utilizzata per:
- offrire un servizio aperto e gratuito per fornire informazioni di posizionamento e sincronizzazione e destinato ad applicazioni di navigazione satellitare di massa. Il segnale utilizzato dai futuri navigatori da auto che dovrebbero essere ancora più precisi.
- offrire un servizio per la sicurezza della vita umana destinato agli utilizzatori per i quali la sicurezza è essenziale;
- offrire un servizio commerciale ai fini dello sviluppo di applicazioni a scopi professionali o
commerciali attraverso prestazioni potenziate e dati con un valore aggiunto superiore rispetto a quelli forniti dal servizio aperto;
- offrire un servizio pubblico regolamentato riservato unicamente agli utilizzatori autorizzati
dai governi per applicazioni sensibili che richiedono una grande continuità di servizio. Il servizio pubblico regolamentato utilizza segnali criptati e resistenti;
- partecipare al servizio di ricerca e salvataggio (Search and Rescue Support Service o Sar) del sistema Cospas-Sarsat rilevando i segnali di emergenza prodotti da radiofari e rinviando dei
messaggi a questi ultimi.
I servizi a pagamento di Galileo serviranno per compensare, in tutto o in parte, gli investimenti approvati e dai flussi di cassa si potrà valutare il successo del programma. Ma di questo si comincerà a discutere dopo il 2013.

_________-

ilsole24ore.it 

Arezzo prima città a idrogeno

martedì 29 aprile 2008, 11.36.43 | newsmtesla

Domani il presidente della Regione Toscana Claudio Martini berrà un caffè all’idrogeno: moka tradizionale ma scaldata con combustibile pulito e made in Italy invece che con gas russo. Si festeggerà così, ad Arezzo, il battesimo del primo idrogenodotto al mondo che corre in mezzo alle case, tra il supermercato e la fermata dell’autobus, il giornalaio e il bar. Un tubo pieno di energia per tutti gli usi: servirà a produrre acqua calda ed elettricità, tepore invernale e fresco estivo. Usando una fonte nostrana e inesauribile come il sole.

A ideare il progetto è stata una piccola cooperativa di trentenni, la Fabbrica del Sole, che ha messo sul piatto 800 mila euro più i 400 mila stanziati dalla Regione Toscana. Per il momento l’idrogeno viene ricavato prevalentemente dal metano, ma entro l’anno sarà al cento per cento pulito grazie ai pannelli fotovoltaici che forniranno l’energia necessaria a scindere le molecole dell’acqua separando l’ossigeno (destinato a usi medici) dall’idrogeno.

I primi beneficiari dell’idrogenodotto saranno quattro aziende orafe (tra cui la Unoaerre, leader mondiale nel settore delle catene d’oro) che da sempre usano l’idrogeno come materia prima per le saldature e l’eliminazione degli ossidi. Ma si stanno ultimando gli accordi per portare l’idrogeno anche nelle case: sostituirà il metano in cucina e fornirà, attraverso una fuel cell, sia elettricità che calore e fresco.

“L’idrogeno viaggia a bassa pressione in un tubo di10 centimetri di diametro a poco più di un metro di profondità, non ci sono problemi di sicurezza”, spiega Emiliano Cecchini, presidente della ‘Fabbrica del Sole’. “Per ora abbiamo realizzato un chilometro di condotte ma le potenzialità sono enormi perché in questo modo è possibile distribuire in modo facile ed economico elettricità, calore, carburante per le auto. E infatti l’idea piace. All’inaugurazione offriremo un caffè all’idrogeno anche al consigliere scientifico dell’ambasciata cinese che ci ha chiesto di disegnare un progetto simile per Pujan, una città di 600 mila abitanti vicino a Shangai”.

Ma non è solo Pechino a guardare con interesse allo sviluppo dell’idrogeno. Il Giappone ha scommesso su questa tecnologia 20 miliardi di euro nel periodo 2006 – 2012. E il Parlamento europeo ha deciso di realizzare, entro il 2025, una capillare rete infrastrutturale dell’idrogeno.

In Italia, oltre alla Toscana che a Pisa sta mettendo a punto il distretto dell’idrogeno da eolico, si muove con decisione anchela Puglia. Entro un anno entreranno in funzione cinque distributori di idrometano, una miscela formata dal 30 per cento di idrogeno e dal 70 per cento di metano, che potrà essere utilizzato dalle macchine a metano (senza alcuna modifica per quelle vendute negli ultimi 2 o 3 anni). “Estenderemo questo progetto, finanziato con 5 milioni di euro dal ministero dell’Ambiente e dalla Regione Puglia, al rifornimento delle barche”, spiega Nicola Conenna, presidente dell’Università dell’idrogeno, con sede a Monopoli. “Le barche a vela potranno utilizzare idrogeno puro per i loro motori ausiliari e per le altre imbarcazioni sarà disponibile l’idrometano”.

________

repubblica.it

martedì 29 aprile 2008, 10.03.17 | newsmtesla

Ue: approvazione definitiva Galileo

Con 607 voti favorevoli, 36 contrari e 8 astensioni, il Parlamento europeo ha approvato definitivamente mercoledì scorso l’accordo per la realizzazione del sistema di navigazione satellitare europeo Galileo, che diverrà quindi operativo dal 2013, con cinque anni di ritardo sul previsto.

 La decisione segue quella della commissione Industria, che aveva approvato la proposta definitiva ai primi di aprile. Il commissario Ue ai trasporti, Jacques Barrot, ha detto che la procedura per l’assegnazione degli appalti sarà avviata entro l’estate.

Sarà lanciato il 27 aprile alle ore 00:16 italiane, dalla Base di Baikonur in Kazakhstan, GIOVE-B, il secondo satellite sperimentale della costellazione Galileo, il programma di navigazione e localizzazione satellitare dell’Agenzia Spaziale Europea e dell’Unione Europea.
Le operazioni per la messa in orbita (Launch and Early Operation Phase) e di controllo del satellite saranno gestite dal Centro Spaziale del Fucino di Telespazio, dove è in costruzione uno dei centri di controllo della costellazione e della missione Galileo.
A bordo di GiOVE-B, assemblato in Italia nel laboratori di Thales Alenia Space, saranno effettuati test importantissimi per la validazione delle tecnologie che saranno utilizzate sui trenta satelliti Galileo.
Inoltre, sarà testato il più preciso orologio atomico mai utilizzato nello spazio, realizzato da SELEX GALILEO, che darà un contributo determinante alle prestazioni dell’intero sistema.
Finmeccanica, con le joint venture Telespazio e Thales Alenia Space (che insieme fanno parte della Space Alliance costituita nel 2007 con Thales) e con SELEX GALILEO, svolge un ruolo di primo piano nello sviluppo del programma Galileo e garantisce al più importante programma spaziale europeo un contributo di eccellenza tecnologica e know-how.

martedì 29 aprile 2008, 10.02.56 | newsmtesla

Arriva «Uno», incrocio tra moto e Segway

 Il prototipo presentato recentemente alla fiera del ciclo
di Toronto ha destato grande curiosità tra i visitatori

TORONTO (CANADA) – Si chiama semplicemente Uno ed è una sorta di ibrido fra una moto e un Segway. Il prototipo è stato presentato recentemente alla fiera del ciclo di Toronto ed ha destato grande curiosità tra i visitatori. Come per il popolare Segway basta un po’ di equilibrio e d’allenamento per andarci in giro.

IL VEICOLO – Il veicolo da strada ha tecnicamente due ruote ma a differenza della comune motocicletta una è posizionata accanto all’atra, sulla parte anteriore. Pesa54 kged è eco-friendly in quanto funziona ad elettricità. Ha un motore elettrico collegato ad un sistema di giroscopio simile al Segway. In questo caso, tuttavia, i dispositivi fisici rotanti sono due: per andare in avanti e indietro e per girare. Per il resto, funziona come un Segway: «quando una persona si inclina in avanti col corpo Uno si muove in avanti», ha detto l’inventore, Ben J. Poss Gulak, un ragazzo americano appena diciottenne. Per progettarlo, ha spiegato, non è stata necessaria una squadra di ingegneri; è bastato scaricare da internet il programma “Google SketchUp”, il software gratuito di progettazione 3D. Poi, con l’aiuto di qualche amico meccanico e con un po’ di olio di gomito e tanta fantasia ecco nata l’originalissima moto. Nel corso del National Motorcycle Show di Toronto, diversi espositori hanno dimostrato interesse ed il giovane inventore spera ora di poterlo portare presto sul mercato.

_________

dal corriere.it

ri-postato

domenica 27 aprile 2008, 21.38.58 | newsmtesla

Il Tempo nn esiste..

L’altro giorno, leggendo un interessante articolo su un giornale, mi sono posto alcune domande su cosa sia realmente il Tempo. Il tempo…. esiste veramente? o è soltanto una nst struttura mentale… un’eredità di un ‘passato’ lontano.

 Tutte le nostre esperienze si collocano nello spazio e nel tempo. Kant arriva a dire che lo spazio ed il tempo sono categorie della mente definite a priori e non derivate dall’esperienza. La nostra percezione dei fenomeni sarebbe soggetta allo spazio ed al tempo in quanto modalità di funzionamento del cervello e non in relazione ad una evoluzione concettuale delle esperienze. Una prima difficoltà consiste nel concetto di tempo che scorre per sempre all’infinito, già S. Agostino notava il paradosso che esiste tra l’istante presente infinitesimo e un tempo che non ha fine. S. Agostino, seguendo il filo di una tale argomentazione, arrivava a sostenere che la realtà è fuori dal tempo, il tempo non esiste è solo una nostra percezione.

Il nostro modo di costruire concetti si basa su azioni che possiamo effettuare e sulle possibilità percettive tipiche della nostra struttura biologica; la nostra struttura biologica è determinante per la formazione di concetti + o - complessi. I fisici hanno introdotto il tempo nelle loro equazioni sulla base di alcune considerazioni pratiche. Possiamo misurare lo spazio tramite il confronto con un metro campione, altrettanto possiamo misurare il tempo utilizzando un orologio. Gli orologi sono costruiti sulla base di movimenti campione, per esempio la rotazione della terra su se stessa, oppure l’oscillazione periodica di un pendolo… Un tipo particolare di orologio è basato sull’emissione radioattiva di particelle instabili; nella maggioranza dei casi misuriamo il tempo sulla base di un evento che si ripete con regolarità. Esiste una ragione per cui non è possibile invertire il senso del tempo in fisica: la legge di crescita indefinita dell’entropia.

Questa legge proviene dalla termodinamica e afferma che un sistema fisico evolverà nel senso di maggior disordine; tenderà ad occupare indistintamente tutti gli stati possibili compatibilmente con la disponibilità di energia.

Questa legge fa supporre che il tempo abbia avuto un inizio. E se ha avuto un inizio… si può ragionevolmente osservare ke possa avere anke una fine…

Ma può esistere una realta senza il tempo?

L’aumento col tempo del disordine o dell’entropia è un esempio della freccia del tempo, qualcosa che distingue il passato dal futuro, dando al tempo una direzione ben precisa. Esistono almeno tre frecce del tempo diverse:

la direzione del tempo in cui aumenta il disordine o l’entropia;

la direzione in cui ricordiamo il passato e non il futuro;

la direzione del tempo in cui l’universo si sta espandendo anziché contraendo.

Le leggi fisiche determinano il movimento dei corpi con grande precisione. Noi interpretiamo gli eventi in termini di causa ed effetto. Causa ed effetto hanno luogo nel tempo: la causa precede l’effetto. Passato e futuro sembrano completamente determinati da leggi fisiche. È possibile prevedere con grande precisione il moto futuro di una palla di cannone.

Prima della meccanica quantistica le equazioni della fisica delineavano un universo completamente prevedibile nella sua evoluzione temporale.Era un problema di calcolo e non di principio poter prevedere il futuro. Prima del XX secolo era opinione diffusa che l’universo fosse statico. Oggi sappiamo che è impossibile avere un modello statico infinito dell’universo in presenza di gravitazione. Vi sono tre teorie che hanno modificato questa visione del mondo:

la teoria della relatività ristretta,
la teoria della relatività generale,
la teoria quantistica.

La teoria della relatività ristretta Il tempo non è più assoluto. Ogni osservatore avrebbe un proprio tempo relativo indipendente. Secondo tale teoria due gemelli uno sulla terra ed uno su un’astronave invecchierebbero in maniera diversa, in particolare quello in viaggio vedrebbe scorrere il proprio tempo più lentamente. Gli orologi di un sistema di riferimento in moto rallentano, in particolare il tempo per un viaggiatore alla velocità della luce sarebbe fermo. In particolare il tempo presente non è più infinitesimo ma finito e dipendente dalla velocità della luce.

 

La teoria della relatività generale: La teoria della relatività generale. In questa teoria la gravità viene interpretata come curvatura dello spazio e del tempo. Il tempo e lo spazio sarebbero soggetti alla presenza di masse gravitazionali, i corpi tenderebbero a muoversi in linea retta ma essendo la struttura dello spazio-tempo incurvata le traettorie stesse risulterebbero curve; L’universo sarebbe finito ma senza confini incurvato su se` stesso dal campo gravitazionale. Il tempo e lo spazio si fondono in un unico spazio-tempo che può essere incurvato dalla presenza di forze gravitazionali.

 

la teoria quantistica.La teoria quantistica introduce una imprevedibilità nelle leggi fisiche. Il moto di un elettrone non è più descrivibile con il concetto di traettoria. Le equazioni sono ancora determinate nel tempo ma un oggetto fisico non può più essere descritto con un’unica storia: occorrono infinite storie tutte compatibili per descrivere il moto di un oggetto. Un tipico paradosso che ne scaturisce e ben descritto dal famoso esperimento del gatto di Schrodinger. Si mette un gatto in una scatola in cui del cianuro può essere liberato da un evento subatomico come l’emissione radioattiva di una particella: soggetta ad una certa probabilità.

Fintanto che non si apre la scatola il gatto si trova in due storie descritte deterministicamente dalle equazioni della meccanica quantistica in una storia il gatto e` morto, in un’altra coesistente il gatto è vivo.

Per cui si può pensare che il gatto sia contemporaneamente vivo e morto.

L’osservatore con il suo intervento di misura, aprendo la scatola, fa collassare lo stato misto vivo-morto in uno stato definito: il gatto è vivo oppure è morto. Tutto ciò fa pensare che potrebbe esserci un’azione da parte della consapevolezza umana su stati fisici della materia. L’operazione di misura determina un processo irreversibile sullo stato fisico che fornisce una direzione al tempo. Per evitare il coinvolgimento dell’osservatore nei processi di misura alcuni hanno postulato la coesistenza di infiniti universi.

…. in conclusione il tempo è una nostra sovrastruttura mentale? Sono le decisioni quotidiane che determinano il nstr universo fatto di passato, presente e futuro…?? il tempo nn esiste, siamo noi ‘osservatori’ che scegliendo tra il molteplice delle possibilità, creiamo la realtà che vogliamo?

E se fossero le nstr scelte a determinare qst tipo di realtà? (di fatto una realtà limitata ……….)

Ma prima di effettuare una scelta nn entra in gioco il pensiero? un ragionamento…? E se fosse, allora, il Pensiero a determinare la nstra realtà circostante.??

Ma il pensiero nn presuppone gia’ una scelta inconscia ??? ed una scelta, per definizione, nn fa collassare le infinite possibilita “quantistiche” che oscillano intorno a noi ???

allora bisognerebbe agire sull’inconscio…? e agendo sull’incoscio potremmo svincolarci da qst tipo di realtà e quindi anke dal tempo???  

sabato 26 aprile 2008, 22.37.06 | newsmtesla

‘forse non tutti sanno che’:

Che la Coca-Cola era originariamente verde.

Che è possibile fare salire le scale ad una vacca ma non fargliele scendere.

Che il verso di un’anatra (quac-quac) non fa eco, e nessuno sa perchè.

Che un coccodrillo non può tirare fuori la lingua.

Che i porci non possono fisicamente guardare il cielo.

Che se tentate di trattenere uno starnuto, potrete causarvi la rottura di una vena nel cervello o nella nuca, e potreste morire.
Che l’accendino è stato inventato prima dei fiammiferi.

Che ogni re delle carte rappresenta un grande re della storia:
Picche: Re David.
Fiori: Alessandro Magno.
Cuori: Carlomagno.
Quadri: GiulioCesare.

Che moltiplicando 111.111.111 x 111.111.111 si ottiene 12.345.678.987.654.321.

Che in una statua equestre: se il cavallo ha due zampe per aria, la persona sul suo dorso è mortain combattimento, se il cavallo ha una delle zampe anteriori alzate,la persona è morta in seguito ad una ferita inferta in combattimento,se il cavallo ha le quattro zampe per terra, la persona è morta per cause naturali.

Che il nome Jeep viene dall’abbreviazione usata nell’esercito americano auto per le ‘General Purpose’ cioè G.P. pronunciato in inglese.

Che è impossibile starnutire con gli occhi aperti.

Che lo scarafaggio può vivere nove giorni senza la sua testa, prima di morire … di fame.

Che gli elefanti sono gli unici animali del creato che non possono saltare (per fortuna).

Che una persona normale ride circa 15 volte al giorno.

Che la parola cimitero proviene dal greco koimetirion che significa:dormitorio.

Che nell’antica Inghilterra la gente non poteva fare sesso senza il consenso del Re (a meno che non si trattasse di un membro della famiglia reale).Quando la gente voleva un figlio doveva chiedere il permesso al Re, il quale consegnava una targhetta che dovevano appendere fuori dalla porta mentre avevano rapporti.La targhetta diceva Fornication Under Consent of the King (F. U.C.K.).Questa è l’origine della parola.

Che durante la guerra di secessione,quando tornavano le truppe ai loro quartieri senza avere nessun caduto, scrivevano su una grande lavagna 0 Killed (zero morti).Da qui proviene l’espressione O.K. per dire tutto bene.

Che quando i conquistatori inglesi arrivarono in Australia, si spaventarono nel vedere degli strani animali che facevano salti incredibili. Chiamarono immediatamente uno del luogo (gli indigeni australiani erano estremamente pacifici) e cercarono di fare domande con i gesti. Sentendo che l’indigeno diceva sempre Kan Ghu Ru adottarono il vocabolo inglese kangaroo(canguro).I linguisti determinarono dopo ricerche che il significato di quello che gli indigeni volevano dire era ‘Non vi capisco.’

Pile ad acqua

venerdì 25 aprile 2008, 18.34.57 | newsmtesla

I ricercatori dell’università di Alberta a Edmonton, Canada, hanno scoperto un nuovo modo di generare l’elettricità utilizzando acqua in movimento. Questa squadra di ricercatori condotta dai professor Daniel Kwok e Larry Kostiuk, è riuscita a sfruttare le proprietà elettrocinetiche naturali di un liquido pompandolo con forza attraverso i microcanali.

Un solido non conduttore immerso in acqua possiede una piccola carica elettrica che attrae gli ioni di segno opposto dell’acqua, questo movimento di ioni genera energia. Una colonna d’acqua di 30cm. Genera una corrente di 2µA(microampere). Anche se la quantità di corrente generata da una singola scanalatura è estremamente piccola, possono essere utilizzate milioni di scanalature parallele; il team ha illuminato una lampadina per mezzo di appena alcune micro scanalature.

Questa scoperta ha un numero enorme di applicazioni possibili in elettronica, potrebbe essere una nuova fonte di energia per i telefoni cellulari e per tutti quei dispositivi che utilizzano le batterie ricaricabili, potrebbe diventare anche una nuova fonte di energia alternativa per rivaleggiare con il vento e l’energia solare, anche se per questo occorreranno molti studi in più. Altro vantaggio di questa scoperta è che si tratta di enegia pulita. Il lavoro è stato pubblicato nel giornale della fisica di “micromechanics” e di “microengineering”.

Innovativi pannello solari

venerdì 25 aprile 2008, 18.34.34 | newsmtesla

La società canadese Spheral Solar di Cambridge, nell’Ontario, ha messo a punto un materiale speciale per rivestire le pareti esterne degli edifici. Le proprietà di questo materiale sono molto interessanti: la sua flessibilità si avvicina a quella di un tessuto; è in grado di produrre energia dal Sole; può essere avvolto su qualsiasi edificio.

I progettisti ritengono che la flessibilità di questo materiale permette la sua posa in edifici dalle forme più bizzarre. In futuro, pure prodotti di largo consumo come telefonini cellulari, computer portatili e via dicendo, potrebbero essere rivestiti di questo materiale affinché le proprie batteria siano ricaricate in maniera del tutto autonoma. A differenza delle comuni celle solari, il nuovo materiale, messo a punto dalla Spheral Solar, è privo di una base rigida in silicio. Esso implementa migliaia di economiche perline in silicio. Ogni piccola perlina ha le stesse caratteristiche di una normale cella fotovoltaica: cattura la luce solare e la trasforma in energia.
Per confezionare questo dispositivo si usa il silicio riciclato, proveniente dall’industria dei microprocessori. Esso viene fuso e modellato a forma di sfera con un diametro approssimativo di un millimetro. Il silicio viene trasformato in un semiconduttore positivo dopo averlo drogato all’interno con atomi di boro. Mentre per ottenere un materiale di tipo negativo, gli stati esterni delle sfere vengono diffusi con atomi di fosforo. In questo modo si produce dalla giunzione p-n corrente elettrica, dopo l’avvenuta separazione della coppia elettrone-lacuna generata dai fotoni di luce assorbiti dal silicio.

Un trapano a microonde

venerdì 25 aprile 2008, 18.34.16 | newsmtesla

Ricercatori dell’università Tel Aviv hanno messo a punto un trapano a microonde capace di perforare senza provocare alcun minimo rumore e senza sporcare le superfici circostanti di polvere. Queste proprietà sono dovute al fatto che le microonde non forano mediante un’attrito, ma portano il materiale a una temperatura di 2000 gradi, rendendolo estremamente morbido da far passare la punta del trapano, che è una minuscola antenna somigliante a un ago che emette le microonde.

I  campi d’impiego – spiega Eli Jerby, ricercatore dell’Università di Tel Aviv – sono molto vasti visto che con questo trapano si possono fare, con estrema precisione, buchi larghi da un millimetro fino a un centimetro.

Il metodo del calore per praticare fori nei materiali non rappresenta certo una novità. Con i laser si fanno incisioni e fori con una precisione nanometrica, ma il loro costo è elevatissimo, praticamente improponibile, specialmente nei lavori comuni. Il trapano, inventato dai ricercatori israeliani, invece ha un costo poco superiore a quello dei trapani convenzionali.

Questo trapano però non è in grado di forare materiali con un punto di fusione troppo elevato come ad esempio lo zaffiro. Esso è efficace su superfici di roccia, ceramica e cemento. Chi lo utilizza deve essere munito di apposita schermatura dalle microonde.

Questa singolare invenzione è stata descritta dalla rivista “Nature”.

giovedì 24 aprile 2008, 14.22.22 | newsmtesla

23:04:08:01:48:29

grazie! ;)

il nn tempo

venerdì 18 aprile 2008, 11.38.07 | newsmtesla

Qst articolo, preso da uno scritto*, può esserci utile x continuare ad approfindire il concetto di Tempo. Il tempo è sempre stato oggetto di discussioni filosofiche. E’ un tema che tocca la scienza come la filosofia. Non può essere considerato da un solo punto di vista.

Anche le scienze hanno dovuto fare i conti con esso, cercando di procedere attraverso due linee: l’eternità e il tempo, la prima difesa dalla fisica dinamica, nata nel secolo XVII, e che vede identificarsi il divenire e l’eternità : “Come il pendolo perfetto oscilla intorno alla sua posizione d’equilibrio, così il mondo retto dalle leggi della dinamica si riduce ad immutabile affermazione della propria identità“. (I. Prigogine); la seconda difesa dalla termodinamica, che è: “l’universo è l’evoluzione progressiva verso uno stato di equilibrio caratterizzato dal livellamento di tutte le differenze. Il pendolo, qui, ha cessato di essere perfetto e l’attrito lo destina all’immobilità dell’equilibrio. (I. Prigogine).

Renè Guènon, matematico e filosofo, prevede la mutazione del tempo in spazio: “Il tempo per effetto della potenza di contrazione che rappresenta, la quale tende a ridurre sempre più l’espansione spaziale a cui si oppone, consuma in certo qual modo lo spazio, senonchè, in tale azione contro il principio antagonista, il tempo stesso si svolge secondo una velocità man mano crescente, giacchè lungi dall’essere omogeneo come suppongono coloro che lo osservano solamente dall’unico punto di vista quantitativo, esso è, viceversa, “qualificato” ad ogni istante in modo diverso dalle condizioni cicliche della manifestazione a cui appartiene. Al suo limite estremo, la contrazione del tempo dovrà avere come conseguenza finale la riduzione di esso ad un unico istante, e la durata avrà allora veramente cessato d’esistere, essendo evidente che nell’istante non può sussistere alcuna successione. Così è che “il tempo divoratore finisce col divorare se stesso”.

Ecco alcune definizioni sul Tempo che  incontriamo lungo la storia del pensiero:
Parmenide (550-450 a.C.) Il tempo non esiste, è pura illusione. L’essere è ingenerato, immobile ed eterno. Se infatti fosse nel divenire e perciò nel tempo, implicherebbe il non-essere, cosa del tutto assurda dal momento che il passato non è più, mentre il futuro non è ancora… “Intorno alla natura”.
Platone (428 347 a. C.) Il tempo nasce insieme al cielo ed è misurato dagli astri. I movimenti circolari dei pianeti sono l’ “immagine mobile dell’eternità” e, come una sorta di immenso orologio cosmico, scandiscono e danno ordine al divenire del mondo.. “Timeo”.
Aristotele (384-322 a. C.) Il tempo è indissolubilmente legato al movimento: in un universo immobile e senza una mente che la misuri, la dimensione della temporalità non potrebbe esistere.
Il mondo è eterno e perciò sia il tempo che il movimento sono
infiniti. “Fisica”.
Agostino (354-430) L’opinione della temporalità è l’anima. E’ dall’interiorità dell’uomo, infatti, che il tempo deriva la sua natura fuggevole e inafferrabile. Esso, infatti, non misura il divenire delle cose esterne, bensì il distendersi e il ripiegarsi della coscienza in quanto memoria e attesa. “Confessioni”.
Gottfried Wilhelm Leibniz (1646-1716) Il tempo, così come lo spazio, è una realtà ideale e non oggettiva. Esso è infatti un “ens rationis”, cioè un fenomeno che nasce in conseguenza della successione delle cose.
Se non esistessero le creature, la temporalità sarebbe rimasta soltanto un’idea di Dio
. “Discorso di metafisica”.
Immanuel Kant (1724-1804) Il tempo è affatto qualcosa di oggettivo e assoluto, bensì una proprietà umana. Esso è una categoria innata della mente che rende possibile la conoscenza: la temporalità organizza le percezioni sensibili e fa in modo che queste giungano all’intelletto “Critica della ragion pura”.
Friedrich Nietzsche (1844-1900) Il tempo non ha né inizio né fine.
Presenta una natura ciclica. Tutto ciò che accade è destinato a ripetersi, sempre uguale, all’infinito. L’eternità, dunque, è simile a un sentiero ricurvo. Guai, però, a disperarsene: bisogna amare la vita come se ogni suo attimo fosse irripetibile
.
“Così parlò Zarathustra”.
Martin Heidegger (1889-1976) L’uomo, il tempo e il mondo non sono pensabili come tre entità distinte l’uomo infatti, più che avere tempo, “è” il tempo, nel senso che la temporalità è ciò che rende possibile e sostiene il suo essere nel mondo. Non si dà esistenza alcuna se non nel tempo “Essere e tempo”.

___________________________________________________________________________________

*Allegretti:Laureata in Filosofia presso l’Università degli studi di Genova 

…telepatia…

venerdì 18 aprile 2008, 11.35.27 | newsmtesla

La lettura del pensiero è un fenomeno telepatico che si annovera fra i fenomeni ESP, cioè puramente mentali, e quindi la capacità di leggere la mente è un’abilità perfettamente naturale e normale. Qualcuno ha definito l’uomo la più completa ricetrasmittente che esista sulla terra: la mente infatti è in grado di ricevere e inviare messaggi superando la dimensione spazio-tempo, ha la capacità di comunicare mediante il pensiero e non con la parola, senza passare attraverso i sensi noti, senza la mediazione del ragionamento e, naturalmente, senza ricorrere ad altri mezzi di comunicazione.

Un pensiero può essere captato nell’istante stesso in cui viene emesso e il primo passo per sviluppare questa capacità è senza dubbio il potenziamento di quelle capacità di cui siamo consapevoli, come la volontà, l’attenzione, la memoria. Spesso non ci accorgiamo che abbiamo captato il pensiero del nostro interlocutore, perché non siamo esercitati a osservare ciò che accade dentro e fuori di noi, quindi dobbiamo allenarci a percepire. Così come si riesce a leggere la mente si può allo stesso modo fare trasmissione del pensiero, esso arriva per via ESP, non ha caratteristiche particolari che lo distingue da altri pensieri formulati dal cervello: a volte tuttavia si ha la sensazione che qualcuno ci stia pensando o chiamando, molto spesso si manifesta attraverso una sensazione auditiva, una voce interiore più o meno forte.

Questo nei casi di telepatia spontanea. Questa capacità è in rapporto con l’emisfero celebrale destro, che presiede all’intuizione quindi, pur essendo una facoltà che tutti possono sviluppare con esercitazioni, contestualmente è anche in stretto contatto con la nostra evoluzione.

Purtroppo c’e anche da dire che la conoscenza profonda della psiche ed i fenomeni ad essa connessi non fanno parte della cultura, non solo non sappiamo riconoscerli, ma addirittura spesso li neghiamo. Molte persone temono infatti tutto ciò che non fa parte del loro mondo abituale e quindi lo respingono anche se ne sono protagonisti.

Eppure questo fa parte del nostro bagaglio interiore, rappresenta non un passo indietro rispetto alla nostra conoscenza, ma un gradino superiore nella strada dell’evoluzione. La maggior parte delle volte questo fenomeno si produce in maniera spontanea e spesso il messaggio telepatico non viene neppure recepito a livello cosciente.

L’uomo è ancora un universo inesplorato di cui conosciamo a malapena alcune zone come il funzionamento parziale del corpo e della mente, è protagonista di un’infinità di avvenimenti apparentemente casuali, di episodi che accadono contemporaneamente quasi a segnalare qualcosa di segreto.

Purtroppo spesso anche quando viviamo tali fenomenologie, tendiamo a razionalizzare l’immagine che riceviamo, la filtriamo e modifichiamo secondo la nostra mentalità e il raziocinio, operando in questo modo una distorsione. Il fenomeno telepatico può avvenire in stato di veglia come in stato di sonno; può verificarsi spontaneamente oppure essere prodotto in forma sperimentale. Ovviamente il messaggio telepatico deve essere controllato per verificare se ciò che si crede di aver percepito corrisponda a verità. 

Un ramo dove la telepatia trova applicazione è quello della terapia possiamo dire che se un “medico” è veramente telepatico, e soprattutto se è abituato a utilizzare la propria facoltà senza timore, il suo pensiero attivo e positivo può entrare in contatto con il pensiero negativo del “malato”, o di chiunque altro possa essere in contatto con lui. Naturalmente per poter ricevere messaggi telepatici e fare lettura del pensiero, non occorre fare sforzi, anzi è necessario il vuoto mentale, proprio come si è imparato per la concentrazione, cacciando ogni pensiero estraneo, occorre essere nello stato di attenzione passiva: la mente è indirizzata a ricevere i pensieri senza fare però nessuno sforzo. In questo modo il cervello entra in uno stato alfa, cioè nelle condizioni ideali in cui si devono trovare il ricevente e il trasmittente. Quello che è stato detto fino a questo momento parlando di telepatia e lettura del pensiero già nel passato lo avete fatto, ad esempio ricordate le occasioni in cui voi e un’altra persona a fianco a voi avete detto contemporaneamente la stessa cosa. Per poter leggere la mente un punto importante dal quale partire ed esercitarsi è quello di influenzare la mente dell’altra persona.

A tal proposito provate a fare un esperimento che è anche un modo di esercitarsi: sedetevi confortevolmente in una stanza calma e pacifica e distendetevi completamente, fate in modo di eliminare qualsiasi intervento esterno disturbante, se è possibile staccate il telefono, cercate di arrivare ad una condizione di “assenza di pensieri”. Rispetto al vostro passato e quindi ai ricordi che possono affiorare proprio nel momento in cui vi state rilassando profondamente, mettetevi in una condizione esterna e vale a dire di spettatore perché questo vi riserverà da un coinvolgimento emozionale che potrebbe disturbarvi. Una volta fatto ciò, concentratevi su qualcuno che conoscete e volete profondamente ed intimamente bene e pensate intensamente che volete mettervi in contatto con lei mentalmente. Rimanete concentrati sulla persona fissatela nella vostra mente e speditele un messaggio costante che lo porti a mettersi in contatto con voi. Naturalmente la prima volta potrebbe non riuscirvi perché come si è detto prima per la riuscita di queste fenomenologia è di fondamentale importanza potenziare le capacità che solitamente utilizziamo, quali: concentrazione, capacità di isolarsi completamente e svuotare la mente affinché le onde trasmissive che emette la nostra mente siano ben definite e chiare. Tanto più la qualità del messaggio è alta tanto più le possibilità che il fenomeno telepatico si risolvi con successo aumenta.

Oltre alla telepatia come comunicazione fra due persone senza l’utilizzo della parola esiste anche la comunicazione telepatica dei sentimenti. Non appena una passione si accende, tutte le risorse interiori sembrano accrescersi, e un’impulsività inconsueta anima al contempo l’organismo, la volontà e l’immaginazione; si ha l’impressione di uscire da un lungo torpore e di iniziare a vivere veramente, nella pienezza del proprio essere. In effetti, il pensiero è notevolmente più attivo del solito.

[...]

WALTERLOOO !!

venerdì 18 aprile 2008, 11.24.49 | newsmtesla

 

L’ombra di Walter Veltroni su un muro della sede del Pd (Reuters)

mercoledì 16 aprile 2008, 13.42.18 | newsmtesla

nel 2030 voli di linea senza pilota a bordo

Due i vantaggi: un incremento della sicurezza – l’80% degli incidenti aerei è riconducibile a “errori umani”- e la riduzione dei costi per le compagnie aeree.
Aerei di linea senza piloti. E’ questo il futuro dell’aviazione commerciale.

“Gia’ nel 2030 voleranno aerei passeggeri comandati non da un pilota a bordo, ma da un sofisticato sistema di guida satellitare”. Franco Galasso, direttore operazioni di Superjet International, la joint venture italo-russa (51% Alenia Aeronautica e 49% Sukhoi), lo ha annunciato a Roma, al Sat Expo Europe 2008, il Salone internazionale dello Spazio e delle Telecomunicazioni Avanzate, appena conclusosi alla Nuova Fiera di Roma.
“La tecnologia e’ gia’ pronta -ha detto Galasso- quello che ancora manca e’ un quadro normativo internazionale che permetta queste applicazioni anche nell’aviazione civile e un accurato programma di test, sperimentazioni e certificazioni in grado di assicurare la massima sicurezza e affidabilita’”.
I vantaggi che stanno spingendo questa evoluzione sono essenzialmente due. Innanzitutto un incremento della sicurezza: l’80% degli incidenti aerei sono riconducibili a “errori umani” e, quindi, e’ proprio il pilota l’anello piu’ debole della catena tecnologica che governa i jet. Peraltro gia’ oggi, in condizioni normali, il ruolo del pilota e’ ridotto a un mero controllo del computer di bordo, in grado di governare tutto autonomamente, decolli e atterraggi compresi.
Il secondo motivo e’ economico e riguarda la riduzioni dei costi che tali sistemi permetterebbero alle compagnie aeree. Queste potrebbero cosi’ risparmiare gli alti investimenti necessari per la formazione dei piloti e avere una maggiore operativita’ dei veivoli della flotta.
E’ la prima volta che viene annunciata una data per l’applicazione di sistemi di navigazione satellitare per la guida di aerei di linea con passeggeri a bordo. Finora il campo di applicazione degli Uav (Unmanned Aerial Vehicle) e’ stato quello militare. In particolare, si e’ puntato sui “drone”, piccoli aerei senza pilota, per compiti di ricognizione e sorveglianza aerea anche in territorio nemico.
In questo salto tecnologico, l’industria aeronautica italiana e’ in prima fila grazie a Alenia Aeronautica e Galileo Avionica. “Con i progetti Falco di Galileo Avionica e SkyX e Molynx di Alenia Aeronautica siamo all’avanguardia a livello internazionale, pronti a cogliere tutte le opportunita’ che promette l’estensione al settore civile dei sistemi autonomi di guida satellitare per gli aerei”, ha dichiarato Marcello Spagnulo, della Direzione Coordinamento Attivita’ Spaziali di Finmeccanica.

voltare pagina?!

mercoledì 16 aprile 2008, 9.49.17 | newsmtesla

voltare pagina?! ..puo sembrare una frase scontata, puo essere sinonimo di rimedio immediato, di fuga, di facile soluzione oppure di ragionamento, di lunghe riflessioni, di incertezze.. io dovrei voltarne almeno una.. Un certo passato è troppo presente nella mia vita.. me ne accorgo ogni giorno che passa..

La scorsa settimana ho guardato negli occhi il mio passato, cercando di capire se avesse potuto in qlc modo espandersi anche nel mio presente e futuro..

nella mia vita ho sempre avuto la facoltà e anche la fortuna di poter scegliere, ma l’ho sempre fatto rimanendo aggrappato a qualcosa o a qualcuno…………… Mi fa riflettere e pensare a quanto tempo sia trascorso………………………..

x il resto…., prima di guardare oltre, voglio ringraziare una persona; leggendo queste righe capirà :)

Tutta colpa dei geni ?

martedì 15 aprile 2008, 12.08.26 | newsmtesla

Da qualche tempo la comunità scientifica si adopera a fornire teorie incentrate sulla ricerca genetica e sui legami che la genetica impone all’evoluzione della vita terrena di ciascun uomo. In questo modo, i ricercatori sono sempre più inclini a cercare problemi legati alla salute nel vasto patrimonio genetico, tuttora sconosciuto e senza regole ben definite. Con estremo piglio scientifico quindi, assistiamo a comunicati che spaziano tra svariate manifestazioni delle patologie e dei vizi umani. Esiste un gene per la predisposizione a diventare obesi, uno per diventare fumatori incalliti, uno per votare a destra e uno per votare a sinistra.

D’accordo sul fatto che i nostri genitori scambiano il proprio patrimonio genetico formando il nostro unico e inequivocabile essere all’atto del concepimento, ma il resto mi sembra alquanto esagerato. Devo dire che dietro le cospicue somme destinate alla ricerca scientifica, ci sono persone che spesso agiscono in buona fede, almeno all’inizio. Spesso questi ricercatori sono sottopagati e frustrati, poiché confinati a studi e ricerche fondamentalmente inutili. Una serie di giornali pseudo-scientifici sono colmi di notizie legate a queste nuove scoperte, appagando i lettori appassionati di scienza spazzatura. Detto questo credo queste ricerche siano inutili e sminuiscano il grande patrimonio che l’uomo ha preservato nel corso degli anni.

Dare la colpa alla genetica è come scaricare il barile, dare la colpa a qualcosa che non dipende dal nostro libero arbitrio, è come dire di non essere responsabili delle proprie scelte, in quanto dettate da una volontà a noi sconosciuta, ereditata dai nostri genitori, alla quale non possiamo far altro che sottostare. Di questo passo i ricercatori scopriranno i geni delle demenza e quelli legati alla propensione ad essere completamente soggetti al rincoglionimento di massa.

Non posso affermare che queste ricerche siano prive di fondamento, ne tanto meno dire che tutto ciò non abbia senso. Voglio solo dire che questo tipo di approccio passivo riguardo la vita e il nostro agire consapevole, viene totalmente ridimensionato. Se è tutto scritto nei nostri geni, allora ha poco senso affannarsi a migliorare la nostra condizione in qst vita, non vale la pena condurla quanto più possibile esemplare, in quanto tutto è già scritto nel nostro corredo genetico. Se permettete l’obiezione, non posso accogliere tale processo. Andrò contro ogni “scoperta” di questo genere, poiché sarebbe come rinnegare la mia libertà di essere, di cambiare e di pensare. Non voglio essere una banderuola al vento, voglio essere indipendente di scegliere cosa sia giusto e cosa sia sbagliato per me, come vivere e come agire.

Gli scienziati dovrebbero cominciare a studiare le reali potenzialità del corpo umano senza microscopi e senza provette. Mi sembra di assistere ad una gara di cavalli con paraocchi ben posizionati, tutti spinti dalla volontà di comprendere il microcosmo e i suoi infiniti segreti, senza rendersi conto che spesso i microscopi non riescono ad avere un quadro generale della situazione.

Per concludere credo che nei miei geni ci sia scritto di essere sempre contrario a tutto e vedere la vita con occhi diversi dalla moltitudine delle persone che mi circondano, ma cosa vi devo dire, è scritto nei geni ! 
____________________________
freenfo.blogspot.com

Blast from the Past – 1998

martedì 15 aprile 2008, 12.06.31 | newsmtesla

 

Comunicazione quantistica

domenica 13 aprile 2008, 14.49.41 | newsmtesla

L’Università di Yale (USA) e il National Institute of Standards and Technology (NIST) hanno pubblicato su Nature del 27 settembre scorso i rispettivi studi, complementari, sulla possibilità di scambi di informazione tra atomi “entangled”, non vicini tra loro.

Il team di ricercatori di Yale, guidato dal professore fisica applicata Robert Schoelkopf e dal professore di fisica Steven Girvin, che da tempo lavora alla creazione di microchip quantistici, per la prima volta è riuscito a inviare un segnale su richiesta da un qubit – o quantum bit, cioè una particella atomica – ad un singolo fotone – cioè una particella di luce – attraverso un cavo, e trasmetterlo a un secondo qubit, distante dal primo, non in comunicazione diretta all’interno del chip. In precedenza, l’informazione era stata trasmessa direttamente solo da qubit a qubit.

Non basta trasferire l’informazione da un qubit stazionario a un fotone, “per realizzare la comunicazione quantistica era necessario riuscire a trasferire di nuovo l’informazione dal fotone ad un qubit”, ha spiegato Schoelkopf. Il gruppo è riuscito a produrre singoli fotoni usando microonde, come quelle che usano i cellulari (che emettono in media miliardi di miliardi di fotoni al secondo), e a pilotarli, utilizzando dei cavi, verso un qubit bersaglio (un po’ come avviene per la luce visibile quando attraversa le fibre ottiche).

 

I ricercatori del NIST, invece, sono riusciti a trasferire l’informazione tra due qubits, o “atomi artificiali”, sfruttando le vibrazioni elettroniche di un cavo di alluminio microscopico. Anche in questo caso, l’informazione è stata trasferita sotto forma di radiazioni nel range delle microonde da un atomo a una sezione risonante del cavo, e da lì trasportata su un secondo atomo.

I gruppi di ricerca hanno quindi realizzato, indipendentemente l’uno dall’altro, un canale quantistico che permette a due atomi di “dialogare” fra loro. Il risultato è importante perché, in prospettiva, apre la possibilità concreta di far comunicare i molti elementi di un ipotetico computer quantistico. I qubits differiscono dai bit tradizionali perché, teoricamente, in grado di sfruttare lo stato di entanglement, o superposizione, essere cioè simultaneamente uno e zero. Grazie a questo straordinario effetto quantistico l’informazione quantistica offre, in teoria, il vantaggio di una maggiore velocità e potenza di calcolo, e di una precisione infinita durante il calcolo.

I vantaggi offerti dalle tecniche di computazione basate sugli stati “entangled” sono stati svelati da Peter Shor nel suo celeberrimo algoritmo di fattorizzazione in numeri primi. Ma per quanto gli esordi siano stati promettenti, ci si è tuttavia presto scontrati con la difficoltà pratica di implementazione di sistemi basati sull’estrazione di informazione dal mondo delle particelle elementari. Nei computer quantistici potrebbero essere utilizzati nanotubi al carbonio (utilizzabili come memorie o come elaboratori d’informazione), atomi artificiali, fotoni, materiali superconduttori e autoassemblanti.

In fondo, fa notare Schoelkopf, anche nella (prei)storia dei computer convenzionali c’è stato un momento, negli anni Cinquanta, in cui per la prima volta sono stati costruiti transistor individuali, e sono passati decenni prima che fisici e ingegneri sviluppassero circuiti integrati con miliardi di transistor (come quelli attuali).

Fonti: ScienceDaily, SpaceDaily- A.Mannucci

Cell Craft – elicottero del futuro

sabato 12 aprile 2008, 21.03.56 | newsmtesla

Si chiama Cell Craft il velivolo tutto italiano che, in un futuro non troppo lontano, manderà in pensione i normali elicotteri. Più simile ad un auto sportiva che ad un aereo, il mezzo si muove agilmente e può sfiorare velocità che soltanto gli aerei possono raggiungere.

Il Cell Craft potrà trasportare da1 a4 persone, dipende sostanzialmente dal modello, e potrà muoversi grazie ad una coppia di turbine ALLISON C25 posizionate nella parte posteriore. Velocità massima? Può raggiungere approssimativamente i455 chilometriorari su un raggio di 855km ad un altezza non superiore ai6500 metridal livello del mare.

 

Il Cell Craft è un mezzo nettamente più sicuro dei tradizionali elicotteri. Potrebbe essere usato per il soccorso aereo, l’aeroambulanza, oppure nelle forze dell’ordine di polizia o dalla guardia costiera. Capita spesso che a causa di problemi tecnici i piloti degli elicotteri non possano intervenire in un soccorso. Per il 90% dei casi vi sono degli ostacoli nella zona di atterraggio che poterebbero rappresentare una minaccia per il rotore.
L’elicottero è dunque un mezzo eccellente ma limitato per molti aspetti. La soluzione risiede nel Cell Craft e in tutti quei velivoli suoi simili attualmente in fase di sperimentazione, oltre che in Italia, in America e in Israele. C’è bisogno di un mezzo che racchiuda in se le stesse proprietà di un elicottero capace dunque di atterrare e decollare verticalmente, che sia inoltre in grado di raggiungere velocità di crociera come quelle di un aeroplano bimotore e che non abbia rotori.

Sfortunatamente al momento non è ancora stato realizzato un vero e proprio prototipo. Realizzare il “numero zero” avrebbe per un privato un costo insostenibile. Per realizzare un modello in scala 1:10 servirebbero poco più di 350mila euro ma non certo impossibile da racimolare. Se si volesse invece dare vita al primo vero e proprio esemplare di Cell Craft funzionante si dovrebbe investire qualcosa come 1milione di euro. [gizio]

… FREE TIBET …

giovedì 10 aprile 2008, 13.10.57 | newsmtesla

“Free Tibet. Stop to the China Olympic Games”

Se gli Stati Uniti avessero invaso il Messico. Se la Francia avesse occupato l’Algeria. Se l’Australia avesse dichiarato guerra alla Papua Nuova Guinea. Se il Giappone avesse annesso la Manciuria. Se l’Italia tornasse di nuovo in Libia con le cannoniere.Se tutto questo fosse successo nell’anno delle Olimpiadi negli Stati Uniti, in Francia, in Australia, in Giappone, in Italia. Le Olimpiadi si sarebbero tenute lo stesso in questi Paesi? In nome di cosa? Del WTO? Della globalizzazione? Del consumismo?
Il Governo italiano ha calato i pantaloni alla marinara di D’Alema (nessuno pensava che avrebbe fatto diversamente).
L’umanità ha un debito enorme nei confronti del Tibet, della sua cultura, dei suoi abitanti. Lo ha lasciato solo per quasi sessant’anni in nome della realpolitik. Un comportamento semplice da capire. Se sei grosso puoi invadere, distruggere, sterminare. Se sei piccolo e hai il petrolio, allora sono c…i tuoi. Cecenia docet. Iraq ridocet.
Il blog lancia oggi una petizione al segretario dell’Onu per un Tibet libero.

Inviate il messaggio:
“Free Tibet. Stop to the China Olympic Games”
al segretario delle Nazioni Unite e diffondete l’iniziativa.

dal sito di B.Grillo

domenica 6 aprile 2008, 21.23.02 | newsmtesla

 

Il simbolo della pace ha compiuto cinquanta anni. Lo disegnò il grafico inglese Gerald Holtom, che lo propose a una dimostrazione contro la bomba atomica a Londra il 4 aprile 1958. «Disegnai me stesso», raccontò Holtom, «ma stilizzato, quasi un essere a tre gambe, per indicare la mia disperazione per le guerre. Poi ci tracciai un cerchio attorno, a indicare il mondo. Non immaginavo che potesse avere tanto successo». 

Grazie anche al distintivo di Holtom, il pacifismo divenne la base ideologica della controcultura e della contestazione giovanile e femminista che stavano per esplodere negli Stati uniti e in Europa. Lo indossarono i neri alle marce dei diritti civili – il loro leader Martin Luther King fu assassinato esattamente dieci anni dopo, il 4 aprile 1968 – i figli dei fiori agli scontri con la polizia sulla guerra del Vietnam, i gay, i verdi, i critici dell’apartheid in Sudafrica e via di seguito. Holtom si sorprese soprattutto della diffusione che il suo simbolo ebbe oltre la cortina di ferro: da Praga a Berlino, lo indossarono i dissidenti e gli studenti per denunciare lo stalinismo. Più tardi, comparve anche in Asia, dal Vietnam alla Cina. Nel suo libro Pace: la biografia di un simbolo, Ken Kolsbun lo definisce «il geroglifico superstar». La sua semplicità e adattabilità, spiega, lo resero più popolare di qualsiasi altro distintivo, era ed è facile identificarsi in esso. Invano i conservatori cercarono di esorcizzarlo col sarcasmo paragonandolo a «una zampa di gallina», o lo denunciarono come prova di tradimento patrio. Di fatto, oltre che simbolo di pace, era ormai divenuto simbolo di resistenza alle dittature, ai regimi e ai governi democratici di destra. Se un disegno riassume l’incandescente secondo mezzo secolo scorso, è quello di Holtom.

dal corriere.it

JPII_2Aprile2005

venerdì 4 aprile 2008, 22.26.52 | newsmtesla

«Bastava osservarlo quando pregava: si immergeva letteralmente in Dio e sembrava che tutto il resto in quei momenti gli fosse estraneo»

 

XV GIORNATA MONDIALE DELLA GIOVENTÙ

VEGLIA DI PREGHIERA PRESIEDUTA DA
GIOVANNI PAOLO II

Tor Vergata, sabato 19 agosto 2000

  

“Voi chi dite che io sia?” (Mt 16, 15).

Carissimi giovani e ragazze, con grande gioia mi incontro nuovamente con voi in occasione di questa Veglia di preghiera, durante la quale vogliamo metterci insieme in ascolto di Cristo, che sentiamo presente tra noi. E’ Lui che ci parla.

“Voi chi dite che io sia?”. Gesù pone questa domanda ai suoi discepoli, nei pressi di Cesarea di Filippo. Risponde Simon Pietro: “Tu sei il Cristo, il Figlio del Dio vivente” (Mt 16, 16). A sua volta il Maestro gli rivolge le sorprendenti parole: “Beato te, Simone figlio di Giona, perché né la carne né il sangue te l’hanno rivelato, ma il Padre mio che sta nei cieli” (Mt 16, 17).

Qual è il significato di questo dialogo? Perché Gesù vuole sentire ciò che gli uomini pensano di Lui? Perché vuol sapere che cosa pensano di Lui i suoi discepoli?

Gesù vuole che i discepoli si rendano conto di ciò che è nascosto nelle loro menti e nei loro cuori e che esprimano la loro convinzione.

 

[...]vedo in voi le “sentinelle del mattino” (cfr Is 21,11-12) in quest’alba del terzo millennio. Nel corso del secolo che muore, giovani come voi venivano convocati in adunate oceaniche per imparare ad odiare, venivano mandati a combattere gli uni contro gli altri. I diversi messianismi secolarizzati, che hanno tentato di sostituire la speranza cristiana, si sono poi rivelati veri e propri inferni. Oggi siete qui convenuti per affermare che nel nuovo secolo voi non vi presterete ad essere strumenti di violenza e distruzione; difenderete la pace, pagando anche di persona se necessario. Voi non vi rassegnerete ad un mondo in cui altri esseri umani muoiono di fame, restano analfabeti, mancano di lavoro. Voi difenderete la vita in ogni momento del suo sviluppo terreno, vi sforzerete con ogni vostra energia di rendere questa terra sempre più abitabile per tutti. [...]

venerdì 4 aprile 2008, 21.32.33 | newsmtesla

kissà cos’è che eternamente ci fa desiderare quel che non possiamo avere..

Si desidera l’impossibile perchè questo è, x assurdo che appaia, molto più rassicurante che desiderare il possibile..

Si desidera ciò che appare impossibile per poter così avere qualcosa di sempre nuovo a cui tendere, per cui combattere, a cui aspirare con tutte le forze.. senza la preoccupazione delle possibile conseguenze di un eventuale successo.

giovedì 3 aprile 2008, 21.10.48 | newsmtesla

 

Data

Artista

Dove

Gio 3
Aprile

GIANNA NANNINI Mazda Palace
Biglietti:
da € 36,16
a € 48,21

epigenetica-libero arbitrio

martedì 1 aprile 2008, 13.47.01 | newsmtesla

L’ambiente in cui viviamo, gli stimoli che riceviamo dall’esterno, le  nst esperienze e addirittura i nostri pensieri sono i responsabili della determinazione di ciò che siamo? Non sono i “geni” a determinare il destino, ma il nostro pensiero. Sono le emozioni che viviamo che “regolano” l’attività di miliardi di cellule che cooperano perché l’organismo funzioni correttamente.

Ciò è la base della sbalorditiva verità proposta da un facoltoso biologo molecolare, autorità mondiale nello studio dei legami tra biologia e comportamento (epigenetica). La prima fondamentale conseguenza di questa nuova teoria è che ognuno di noi ha il potere di condizionare il proprio destino: abbiamo tutte le potenzialità per avere una vita felice, sana e gratificante.

Basta volerlo. Si spinge oltre: prende posizione anche sull’attuale diatriba su Darwin e dimostra l’infondatezza delle sue teorie. “[...]L’evoluzione non si basa sulla competizione ma, al contrario, sulla cooperazione per la creazione di comunità[...]“

Fino alla scoperta dell’epigenetica, si credeva che il nucleo di una cellula, contenente il DNA, fosse il “cervello” della cellula stessa, del tutto necessario per il suo funzionamento. Recentemente è stato dimostrato che le cellule possono vivere e funzionare molto bene anche dopo che i loro nuclei sono stati asportati. Il vero “cervello” della cellula nn è il nucleo ma è la sua membrana che reagisce e risponde alle influenze esterne, adattandosi dinamicamente ad un ambiente in perpetuo cambiamento. Che cosa significa questo per noi? Man mano che incrociamo le diverse influenze ambientali, siamo noi a suggerire ai nostri geni cosa fare, di solito inconsciamente. I carboidrati ci fanno ingrassare? Sì, se lo crediamo. Saremo amati, avremo successo nel lavoro, saremo ricchi? Se ci crediamo, lo saremo.

..dunque, noi saremmo il frutto dei nst pensieri?

e la genetica?? i geni sarebbero soltanto informazioni racchiuse nel nucleo… un immenso database, ma niente di più.

Di tutta qst teoria, sono convinto di una cosa: i geni non possono determinare la nst esistenza (come illustri medici e similari docent), altrimenti se tutto fosse già scritto, dove e come si manifesterebbe il nst libero arbitrio??

Questo punto assume un’importanza filosofica colossale, perché solo in questa ipotesi l’uomo viene ad assumere una vera libertà nelle sue azioni. Altrimenti egli sarebbe solo un burattino in balia di geni ereditati.

 

 

martedì 1 aprile 2008, 11.03.35 | newsmtesla

 

esse est percipi

lunedì 31 marzo 2008, 10.40.55 | newsmtesla

XVII – Conclusioni.

I paradossi quantistici che abbiamo brevemente descritto sembrano evidenziare che la “consapevolezza” dell’osservatore gioca un ruolo decisivo ai livelli fondamentali della realtà.

Come abbiamo già visto, Horgan sostiene che questi esperimenti si accordano con la concezione di George Berkeley, filosofo del secolo XVIII, secondo il quale “Esse est percipi” (esistere significa essere percepito): si tratterebbe di una concezione immateriale dell’universo, che in filosofia viene detta “empirismo idealistico”.

In effetti sembra che la meccanica quantistica dia un messaggio nuovo sulla struttura della realtà, e che sancisca la fine del “realismo” oggettivo e materialistico a favore di una concezione “idealistica”, in cui gli oggetti esistono in uno stato “astratto” e “ideale” che rimane teorico finché la percezione di un soggetto conoscente non lo rende reale. Oppure, senza farla tanto grossa, possiamo limitarci a notare che il classico modello materialistico è inadeguato a descrivere la realtà quantistica ed occorre rivolgersi a modelli che concepiscono l’universo in termini di “informazione” piuttosto che di “materia”.

Sono state proposte anche altre vie d’uscita da questa strana situazione. Per esempio, per aggirare la difficoltà filosofica dovuta all’apparente “casualità” insita nell’indeterminazione quantistica, il fisico Everett propose l’esistenza di infiniti universi. Secondo Everett, ogni qual volta viene effettuata una “scelta” quantistica, l’universo si divide in due, uno che prosegue la sua storia con una delle due scelte, e l’altro che prosegue la sua storia con l’altra scelta!

–br–

In realtà la teoria di Everett è un po’ più completa di come è stata brevemente descritta sopra, e si basa su stati di sovrapposizione quantistici tra universi diversi. Essa è molto apprezzata da alcuni fisici, ma a me personalmente sembra perfino più folle dell’accettare un principio mentale alla base della realtà fisica. Inoltre essa risulta difficilmente verificabile, poiché non è chiaro come sarebbe possibile effettuare un esperimento che confermi o confuti la tesi proposta (nota: il filosofo Popper preferisce parlare di falsificabilità invece di verificabilità, perché ogni teoria scientifica deve permettere almeno un esperimento che sia in grado di evidenziare l’eventuale erroneità della teoria).

Comunque sia, non possiamo accettare così di punto in bianco una nuova visione della realtà: siamo consapevoli che si tratterebbe di una rivoluzione concettuale di portata colossale. La questione è molto delicata e non vogliamo trarre conclusioni affrettate: perciò terremo conto dell’esistenza di questi sconcertanti paradossi quantistici ma nei prossimi capitoli proseguiremo la nostra ricerca con prudenza attraverso i territori della scienza e della filosofia.

Quindi è venuto il momento di rivisitare l’intera storia della filosofia per vedere se vi è qualche idea o qualche concezione che riesca a inquadrare adeguatamente i risultati che emergono della meccanica quantistica.

__________________________________________________

IL SEGRETO DELL’UNIVERSO

MENTE E MATERIA NELLA SCIENZA DEL TERZO MILLENNIO_F.Coppola

Aereo quantistico

lunedì 31 marzo 2008, 10.40.40 | newsmtesla

Sono stati dei ricercatori dell’Università del Texas a stimolare l’interesse militare per un velivolo a energia nucleare.

La ricerca, che risale al luglio 1999, descrive come si può produrre energia dall’elemento radioattivo afnio-178 usando raggi-X sotto forma di raggi gamma per generare, ad esempio, un getto di propulsione ad aria. L’aviazione statunitense sta svolgendo sperimentazioni per verificare l’efficacia di un particolare aereo senza pilota che potrebbe essere alimentato da un reattore nucleonico quantistico, anziché da un reattore a fissione convenzionale. Questo tipo di alimentazione potrebbe fornire al velivolo un’autonomia di volo di molti mesi senza alcun bisogno di atterrare per fare rifornimento. C’è però un inconveniente: l’aereo trasporta materiale radioattivo, per cui se venisse colpito o precipitasse, a causa di un guasto, l’esplosione avrebbe le medesime connotazioni distruttive di una “bomba sporca”.

Il Tempo nn esiste..

lunedì 31 marzo 2008, 10.40.26 | newsmtesla

L’altro giorno, leggendo un interessante articolo su un giornale, mi sono posto alcune domande su cosa sia realmente il Tempo. Il tempo…. esiste veramente? o è soltanto una nst struttura mentale… un’eredità di un ‘passato’ lontano.

 Tutte le nostre esperienze si collocano nello spazio e nel tempo. Kant arriva a dire che lo spazio ed il tempo sono categorie della mente definite a priori e non derivate dall’esperienza. La nostra percezione dei fenomeni sarebbe soggetta allo spazio ed al tempo in quanto modalità di funzionamento del cervello e non in relazione ad una evoluzione concettuale delle esperienze. Una prima difficoltà consiste nel concetto di tempo che scorre per sempre all’infinito, già S. Agostino notava il paradosso che esiste tra l’istante presente infinitesimo e un tempo che non ha fine. S. Agostino, seguendo il filo di una tale argomentazione, arrivava a sostenere che la realtà è fuori dal tempo, il tempo non esiste è solo una nostra percezione.

Il nostro modo di costruire concetti si basa su azioni che possiamo effettuare e sulle possibilità percettive tipiche della nostra struttura biologica; la nostra struttura biologica è determinante per la formazione di concetti + o - complessi. I fisici hanno introdotto il tempo nelle loro equazioni sulla base di alcune considerazioni pratiche. Possiamo misurare lo spazio tramite il confronto con un metro campione, altrettanto possiamo misurare il tempo utilizzando un orologio. Gli orologi sono costruiti sulla base di movimenti campione, per esempio la rotazione della terra su se stessa, oppure l’oscillazione periodica di un pendolo… Un tipo particolare di orologio è basato sull’emissione radioattiva di particelle instabili; nella maggioranza dei casi misuriamo il tempo sulla base di un evento che si ripete con regolarità. Esiste una ragione per cui non è possibile invertire il senso del tempo in fisica: la legge di crescita indefinita dell’entropia.

Questa legge proviene dalla termodinamica e afferma che un sistema fisico evolverà nel senso di maggior disordine; tenderà ad occupare indistintamente tutti gli stati possibili compatibilmente con la disponibilità di energia.

Questa legge fa supporre che il tempo abbia avuto un inizio. E se ha avuto un inizio… si può ragionevolmente osservare ke possa avere anke una fine…

Ma può esistere una realta senza il tempo?

L’aumento col tempo del disordine o dell’entropia è un esempio della freccia del tempo, qualcosa che distingue il passato dal futuro, dando al tempo una direzione ben precisa. Esistono almeno tre frecce del tempo diverse:

la direzione del tempo in cui aumenta il disordine o l’entropia;

la direzione in cui ricordiamo il passato e non il futuro;

la direzione del tempo in cui l’universo si sta espandendo anziché contraendo.

Le leggi fisiche determinano il movimento dei corpi con grande precisione. Noi interpretiamo gli eventi in termini di causa ed effetto. Causa ed effetto hanno luogo nel tempo: la causa precede l’effetto. Passato e futuro sembrano completamente determinati da leggi fisiche. È possibile prevedere con grande precisione il moto futuro di una palla di cannone.

Prima della meccanica quantistica le equazioni della fisica delineavano un universo completamente prevedibile nella sua evoluzione temporale.Era un problema di calcolo e non di principio poter prevedere il futuro. Prima del XX secolo era opinione diffusa che l’universo fosse statico. Oggi sappiamo che è impossibile avere un modello statico infinito dell’universo in presenza di gravitazione. Vi sono tre teorie che hanno modificato questa visione del mondo:

la teoria della relatività ristretta,
la teoria della relatività generale,
la teoria quantistica.

La teoria della relatività ristretta Il tempo non è più assoluto. Ogni osservatore avrebbe un proprio tempo relativo indipendente. Secondo tale teoria due gemelli uno sulla terra ed uno su un’astronave invecchierebbero in maniera diversa, in particolare quello in viaggio vedrebbe scorrere il proprio tempo più lentamente. Gli orologi di un sistema di riferimento in moto rallentano, in particolare il tempo per un viaggiatore alla velocità della luce sarebbe fermo. In particolare il tempo presente non è più infinitesimo ma finito e dipendente dalla velocità della luce.

 

La teoria della relatività generale: La teoria della relatività generale. In questa teoria la gravità viene interpretata come curvatura dello spazio e del tempo. Il tempo e lo spazio sarebbero soggetti alla presenza di masse gravitazionali, i corpi tenderebbero a muoversi in linea retta ma essendo la struttura dello spazio-tempo incurvata le traettorie stesse risulterebbero curve; L’universo sarebbe finito ma senza confini incurvato su se` stesso dal campo gravitazionale. Il tempo e lo spazio si fondono in un unico spazio-tempo che può essere incurvato dalla presenza di forze gravitazionali.

 

la teoria quantistica.La teoria quantistica introduce una imprevedibilità nelle leggi fisiche. Il moto di un elettrone non è più descrivibile con il concetto di traettoria. Le equazioni sono ancora determinate nel tempo ma un oggetto fisico non può più essere descritto con un’unica storia: occorrono infinite storie tutte compatibili per descrivere il moto di un oggetto. Un tipico paradosso che ne scaturisce e ben descritto dal famoso esperimento del gatto di Schrodinger. Si mette un gatto in una scatola in cui del cianuro può essere liberato da un evento subatomico come l’emissione radioattiva di una particella: soggetta ad una certa probabilità.

Fintanto che non si apre la scatola il gatto si trova in due storie descritte deterministicamente dalle equazioni della meccanica quantistica in una storia il gatto e` morto, in un’altra coesistente il gatto è vivo.

Per cui si può pensare che il gatto sia contemporaneamente vivo e morto.

L’osservatore con il suo intervento di misura, aprendo la scatola, fa collassare lo stato misto vivo-morto in uno stato definito: il gatto è vivo oppure è morto. Tutto ciò fa pensare che potrebbe esserci un’azione da parte della consapevolezza umana su stati fisici della materia. L’operazione di misura determina un processo irreversibile sullo stato fisico che fornisce una direzione al tempo. Per evitare il coinvolgimento dell’osservatore nei processi di misura alcuni hanno postulato la coesistenza di infiniti universi.

…. in conclusione il tempo è una nostra sovrastruttura mentale? Sono le decisioni quotidiane che determinano il nstr universo fatto di passato, presente e futuro…?? il tempo nn esiste, siamo noi ‘osservatori’ che scegliendo tra il molteplice delle possibilità, creiamo la realtà che vogliamo?

E se fossero le nstr scelte a determinare qst tipo di realtà? (di fatto una realtà limitata ……….)

Ma prima di effettuare una scelta nn entra in gioco il pensiero? un ragionamento…? E se fosse, allora, il Pensiero a determinare la nstra realtà circostante.??

Ma il pensiero nn presuppone gia’ una scelta inconscia ??? ed una scelta, per definizione, nn fa collassare le infinite possibilita “quantistiche” che oscillano intorno a noi ???

allora bisognerebbe agire sull’inconscio…? e agendo sull’incoscio potremmo svincolarci da qst tipo di realtà e quindi anke dal tempo???  

 

l’antigravità

lunedì 31 marzo 2008, 10.40.10 | newsmtesla

Il segreto dell’antigravità venne scoperto da un fisico olandese, Hendrik Casimir, nel 1948.

Casimir, nato a L’Aja nel 1909, è noto in particolare per i suoi studi sulla superconduttività, uno strano fenomeno per cui alcuni materiali, quando vengono raffreddati a temperature bassissime, perdono del tutto la resistenza elettrica (recentemente i fisici hanno accolto entusiasticamente la scoperta di alcuni superconduttori che non devono essere superraffreddati, ma possono operare a temperatura ambiente). Dal1942 inpoi Casimir lavorò presso i laboratori di ricerca della Philips – il gigante dell’elettricità – e fu in quel periodo che ipotizzò l’esistenza di un fenomeno, implicito nelle leggi della fisica dei quanti, ancora più strano della superconduttività, che venne chiamato effetto Casimir. La maniera più semplice per capire l’effetto Casimir è quello di pensare a due piastre metalliche parallele posizionate l’una molto vicina all’altra, tra le quali non c’è nulla. Ma, come abbiamo già visto, il vuoto quantistico non è lo stesso “nulla” che i fisici si immaginavano prima dell’era dei quanti.

Il vuoto ribolle di attività: ci sono coppie particella-antiparticella che costantemente vengono prodotte e che poi si ‘distruggono’ (si trasformano in altro..) tra loro.

Tra le particelle che si creano e si ‘distruggono’ continuamente nel vuoto ci sono molte particelle che trasportano la forza elettromagnetica (alcuni dei quali sono particelle di luce).  Fotoni con gradi diversi di energia sono associati a onde elettromagnetiche di diverse lunghezze d’onda: a lunghezze d’onda minori corrisponde energia maggiore;

Consideriamo l’aspetto elettromagnetico nel vuoto quantistico: pensiamo allo spazio vuoto come un mare di onde elettromagnetiche che contiene in sé tutte le lunghezze d’onda. Questa attività conferisce al vuoto un energia uguale in ogni punto, che quindi non può venire misurata e tanto meno utilizzata.

Da quello che mi hanno insegnato, l’energia può manifestarsi e venire sfruttata per produrre lavoro solo se c’è una differenza di energia tra un luogo e un altro.

Un buon esempio è rappresentato dell’elettricità di casa. L’ impianto elettrico ha un cavo che viene mantenuto a un potenziale abbastanza alto (pari a 220volt), mentre un altro (la cosiddetta “terra”) ha un potenziale uguale a zero. L’energia del cavo a voltaggio più alto non può venire sfruttata fino a quando il cavo non viene collegato con un altro cavo a basso voltaggio; è per questo motivo che l’energia è detta “potenziale”. una volta effettuato il collegamento, l’elettricità scorre nel cavo, trasformando l’energia potenziale in energia effettiva (luce e calore). E’ la differenza di potenziale che è cruciale: se entrambi i cavi sono allo stesso voltaggio, che questo sia zero o 220 volt o un valore ancora più elevato, non fa alcuna differenza.

Supponiamo di aggiungere a tutto il mondo duecento volt; non per questo prenderemmo la scossa, poiché non ci sarebbe un luogo a potenziale inferiore dove scaricare la carica aggiunta. Si potrebbe fare un paragone grossolano tra questo pianeta così caricato e il vuoto uniformemente riempito di energia. Casimir dimostrò come rendere visibile l’energia del vuoto.

Esperimento:

Egli mise in evidenza che tra due piastre conduttrici di elettricità le onde elettromagnetiche possono assumere solamente certe forme determinate. Le onde che rimbalzano tra le due piastre si comportano come le onde di una corda di chitarra che, per produrre determinate note, può vibrare solamente in determinati modi.

Solo le radiazioni che hanno certe lunghezze d’onda possono essere contenute nello spazio compreso tra le due piastre dell’esperimento di Casimir. In questo caso specifico non possono essere contenute le particelle (i fotoni) che hanno una lunghezza maggiore della distanza tra le piastre. Ciò significa che nello spazio compreso tra le piastre ci sono meno ‘fotoni virtuali’ di quanti non ce ne siano all’esterno; di conseguenza esiste una forza che avvicina le piastre.
Sfortunatamente, poiché i fotoni esclusi sono quelli di lunghezza d’onda maggiore e quindi di energia inferiore, l’effetto è molto più piccolo. Ma l’importante è che quella forza esista e che si manifesti come attrazione tra le piastre; esse vengono “risucchiate” tra loro e generano dunque pressione negativa.

Potrebbe sembrare strano, ma il fenomeno è reale.

Sono stati condotti esperimenti per misurare l’intensità della forza di Casimir, usando piastre di diversi materiali di forma piatta o curva. Si è misurata la forza variando la distanza tra le piastre tra 1,4 e 1,5 nanometri ( 1 nanometro = 1 miliardesimo di metro ) e la previsione di Casimir è stata pienamente verificata.

Xkè non sfruttiamo l’effetto Casimir per fini pratici, estraendo energia dal vuoto…?

Il progetto di Forward, la “batteria a fluttuazione del vuoto”, consta di una spirale di alluminio ultrasottile elettricamente carica. Mentre la carica positiva mantiene distanti le estremità della spirale, la forza di Casimir cerca di avvicinarle. Se in questa situazione si lascia che la spirale si comprima lentamente, come una fisarmonica, la forza di Casimir si trasformerà in energia elettrica utilizzabile. Una volta che la fisarmonica si sarà compressa, si potrà ricaricare la “batteria” ricorrendo all’elettricità di una sorgente esterna, proprio come si fa con le normali batterie ricaricabili.

Naturalmente la batteria a fluttuazione del vuoto è di fatto praticamente inutilizzabile; ma , come al solito, non è questo che ci preoccupa: l’invenzione si basa sulle leggi della fisica e sulla realtà del fenomeno della pressione negativa, sebbene questo operi su scale molto piccole.

La maggior parte dei fisici ha una carenza di immaginazione quando affrontano nuovi problemi.

l’elettrone immortale

lunedì 31 marzo 2008, 10.39.36 | newsmtesla

…una particella essendo priva di ragionamento, di pensiero e soprattutto di un “orologio” come fa a distinguere il passato dal futuro? Una particella elementare, quale è l’elettrone (scoperto da Thomson nel ….), è un’entità fatta di nient’altro che di sè stessa.

Come fa, allora, a concepire l’esistenza o la nn esistenza di un passato, di un presente e di un futuro??? Wigner ci suggerisce che per tutte le particelle elementari, qlc sia il modo in cui interagiscono, il passato e il futuro devono essere totalmente equivalmenti.

dunque???? ritorniamo al punto di partenza.. Se consideriamo x veritiero il teorema di Wigner, il tempo, inesistente a livello subatomico nn dovrebbe esistere neppure a livello macroscopico..

teletrasporto quantistico

lunedì 31 marzo 2008, 10.39.15 | newsmtesla

Il teletrasporto quantistico, previsto teoricamente per la prima volta nel 1993, non descrive un trasporto di materia, ma piuttosto di un’informazione di natura speciale, l’informazione quantistica.

 In un esperimento di teletrasporto un oggetto, inizialmente presente in un certo luogo e in un certo stato fisico, viene “ricomposto” esattamente nello stesso stato fisico ma in un altro luogo e ad una certa distanza dal primo, dove però i “componenti” dell’oggetto erano già inizialmente presenti. Sono le “istruzioni” e nn l’oggetto in se, che vengono così ‘teletrasportate’ per ricostruire lo stato fisico. Personalmente nn credo a qst affermazione; non ci sono ‘istruzioni’ che viaggiono da un punto A ad un punto B.. L’oggetto si trova sia in A che in B. E’ la teoria quantistica che da il ‘potere’ all’osservatore di decidere cosa essere, cosa fare, dove essere, grazie alle infinite possibilità che gli oscillano intorno.

Continuiamo a descrivere cosa ci dicono gli ultimi studi. Il teletrasporto è reso possibile da una particolare proprietà della fisica quantistica chiamata “entanglement“, traducibile ad esempio come “intrecciamento”. Essa descrive la possibilità di due sistemi di avere e mantenere strane relazioni a distanza, lo stesso Einstein la definì come “azione fantasma a distanza”.

Il teletrasporto è stato dimostrato sperimentalmente soltanto per sistemi microscopici, in particolare solo su fotoni (le particelle elementari che compongono la luce), in alcuni esperimenti realizzati a Innsbruck, Roma, Los Angeles, Canberra e Ginevra, dove è stato teletrasportato lo stato di un fotone ad una distanza di2 km. 

Alcuni fisici dell’Università di Camerino, hanno, per la prima volta, stabilito che è possibile realizzare il teletrasporto, non solo su singole particelle microscopiche, ma anche su alcuni oggetti macroscopici della nostra esperienza quotidiana..

Pc a fotoni..

lunedì 31 marzo 2008, 10.38.57 | newsmtesla

l’elettronica ormai è il passato !!

I processori a fotoni sono il futuro

Una rivoluzione tecnologica ci sbarazzerà almeno in parte dell’elettronica: all’orizzonte ci sono computer il cui funzionamento è basato sulla trasmissione di piccoli fasci di luce..

È da decenni che si cerca di trovare un modo alternativo e basato sull’ottica atto a svolgere le stesse funzioni per le quali oggi viene utilizzata l’elettronica. Insomma, si vorrebbero costruire dispositivi che funzionino grazie a fasci di fotoni, cioè di luce, invece che con fasci di elettroni. Dispositivi del genere potrebbero essere usati ad esempio nei computer. In teoria i vantaggi sarebbero molti. In primo luogo i fotoni di cui si compone la luce non interagiscono fra loro, come invece tendono a fare gli elettroni. Ciò significa che in un sistema ottico non si verificano le interferenze prodotte in un sistema elettronico. Inoltre un singolo fascio di luce bianca può contenere contemporaneamente messaggi diversi, ognuno codificato nei fotoni della lunghezza d’onda corrispondente a un singolo colore (la luce bianca infatti può essere scomposta in luce di tutti i colori dell’arcobaleno). Nonostante le promesse però i computer basati sull’ottica stentano a decollare, e le ragioni sono di ordine tecnico. Ad esempio ci sono problemi legati alla quantità di energia richiesta per svolgere l’operazione, che è maggiore di quella necessaria in un apparato elettronico. Insomma, oggi computer basati su processori ottici e elettronici si fronteggiano un po’ come un secolo fa fecero navi e aerei per il trasporto dall’Europa all’America.

All’epoca i viaggi per mare erano collaudati, più sicuri, e i tempi di percorrenza continuavano ad abbreviarsi, mentre gli aerei appena nati faticavano ad affermarsi, dato che i voli erano pericolosi e tecnicamente complessi. Eppure, a un certo punto, tutto cambiò: il futuro era proprio nelle precarie scatole (qlc parlò addirittura di bare) volanti. Non sappiamo se la storia si ripeterà per i computer ottici. Ho sentito parlare di fenomeni che potrebbero portare allo sviluppo di processori ottici: ad esempio i cosiddetti solitoni di cavità. Immaginiamo di avere un fascio di luce laser spesso almeno due decimi di millimetro: se lo facciamo interagire con un materiale opportuno, sulla sezione di questo fascio compaiono delle specie di puntini più luminosi. La disposizione di questi puntini può essere controllata in modo da utilizzare la sezione del fascio di luce laser un po’ come una lavagna sulla quale scrivere le informazioni che ci interessano, in un tempo pari a circa un decimiliardesimo di secondo. Poi, se non si interviene ulteriormente sul fascio laser, una volta codificate le informazioni viaggiano indisturbate e velocissime fino a raggiungere un opportuno strumento dove venir tradotte in maniera comprensibile.

Per quanto possano sembrare avveniristici, i processori ottici si basano su fenomeni che rientrano nell’ottica classica. Ancora più alle frontiere della ricerca si trova l’ottica quantistica, anch’essa al centro delle ultime ricerche. Nell’ultimo decennio si sono intensificati gli sforzi per sfruttare tecnologicamente le proprietà quantistiche della luce, prima fra tutte il cosiddetto entanglement, che potremmo tradurre come aggrovigliamento ed è il fenomeno collegato con il teletrasporto. Facendo urtare un fotone dotato di opportuna energia contro un bersaglio, possiamo ottenere una coppia di fotoni nuovi, ma legati fra loro da un obbligo di complementarietà che ricorda quello a cui devono sottostare lo yin e lo yang della filosofia cinese: la somma delle loro energie deve essere uguale a quella posseduta dal fotone da cui sono nati, e così pure la somma di tutte le altre loro caratteristiche fisiche. Questo vuol dire che anche se i due fotoni si separano, conoscendo le caratteristiche di uno sappiamo automaticamente anche quelle dell’altro. E modificando le caratteristiche del primo modifichiamo anche quelle del secondo, nonostante sia molto lontano da noi.

La proprietà dell’aggrovigliamento è utile anche in crittografia. Immaginiamo di creare coppie di fotoni perfettamente complementari. Poi mandiamo al nostro interlocutore un fotone per ogni coppia e manipoliamo quelli rimasti in nostro possesso in modo da far loro codificare il messaggio che vogliamo trasferire. Automaticamente il pacchetto di fotoni in mano del nostro interlocutore subirà una trasformazione complementare, che potrà essere interpretata così da risalire al nostro messaggio.

Lo stesso principio può essere utilizzato per “vedere” un oggetto raggiungibile solo dalla luce e fuori della portata di qualsiasi strumento. Anche in questo caso si creano due fasci di luce gemelli e se ne invia uno verso l’oggetto misterioso. Interagendo con quest’ultimo il primo fascio di luce subirà della alterazioni diverse a seconda delle caratteristiche dell’oggetto stesso, che si rifletteranno sul secondo raggio, rimasto sotto il nostro controllo. Interpretando i dati ottenuti sarà possibile ricostruire un immagine di ciò che è irraggiungibile. Se c’è qualcuno che ancora pensava all’ottica come a un disciplina antica, condotta armeggiando tra lenti e prismi, è definitivamente ora che cambi idea.

Berkeley, filosofo del XVIII secolo, padre della

lunedì 31 marzo 2008, 10.38.44 | newsmtesla

L’empirismo (=dal greco εμπειρια – esperienza, è la corrente filosofica, nata nel Seicento in Inghilterra, secondo cui la conoscenza umana deriva esclusivamente dai sensi o dall’esperienza) di Berkeley (filosofo del secolo XVIII) assume una forma cosí radicale da portarlo a negare l’esistenza autonoma degli oggetti del mondo esterno. Nonostante ciò, il soggetto che percepisce e la presenza delle idee nella sua mente sono garanzia della possibilità di conoscere la realtà, ma solo nella forma in cui essa è percepita dalla mente del soggetto: Esse est percipi (“Esistere è essere percepito”).

300 anni dopo, la meccanica quantistica tende a rivalutare questa corrente di pensiero; da un messaggio nuovo sulla struttura della realtà, e che sancisce la fine del “realismo” oggettivo e materialistico a favore di una concezione “idealistica”, in cui gli oggetti esistono in uno stato “astratto” e “ideale” che rimane teorico finché la percezione di un soggetto conoscente non lo rende reale. Oppure, senza farla tanto grossa, possiamo limitarci a notare che il classico modello materialistico è inadeguato a descrivere la realtà quantistica ed occorre rivolgersi a modelli che concepiscono l’universo in termini di “informazione” piuttosto che di “materia”.

Berkeley intende dire che l’esistenza di una qualsiasi entità in natura può essere solo testimoniata da una percezione cosciente, per cui tutta la realtà può essere ridotta ad atti di consapevolezza, ovvero a idee, senza che sia necessario che la materia esista oggettivamente! 

 
L’essere ha perso ogni dimensione materiale: è ridotto a idea. Questo è l’immaterialismo di Berkeley.

 G. Berkeley, Trattato sui princípi della conoscenza umana, Parte prima 

“Che né i nostri pensieri, né le passioni, né le idee formate dall’immaginazione, esistano fuori della mente, è quanto ognuno ammetterà. E sembra non meno evidente che le varie sensazioni o idee impresse sui sensi, comunque unite o combinate insieme (cioè, qualsiasi oggetto esse compongano) non possono esistere altrimenti che in una mente che le percepisce. Penso che una intuitiva conoscenza di ciò possa esser ottenuta da chiunque badi a quel che s’intende col termine esistere quando è applicato alle cose sensibili. La tavola sulla quale scrivo, io dico, esiste, cioè io la vedo e la tocco; e se io fossi fuori del mio studio, direi che essa esisteva, intendendo cosí che se io fossi nel mio studio potrei percepirla, o che qualche altro spirito presentemente la percepisce. C’era un odore, cioè, era sentito; c’era un suono, vale a dire, era udito; e un colore o una figura, ed erano percepiti con la vista e con il tatto. Ecco tutto quanto io posso intendere con queste e simili espressioni. Perché, quanto a ciò che si dice dell’esistenza assoluta di cose non pensanti, senz’alcuna relazione al loro essere percepite, codesto sembra perfettamente inintelligibile. Il loro esse [“essere”] è percipi [“essere percepite”], né è possibile che abbiano un’esistenza fuori delle menti o cose pensanti che le percepiscono.

È infatti un’opinione stranamente prevalente in mezzo agli uomini, che le case, le montagne, i fiumi, e in una parola tutti gli oggetti sensibili abbiano un’esistenza naturale o reale, distinta dal loro essere percepiti dall’intelletto. Ma, per grande che sia la sicurezza e l’acquiescenza con cui questo principio possa essere ricevuto nel mondo, tuttavia chiunque troverà nel suo cuore la forza di revocarlo in dubbio può, se non m’inganno, percepire che esso involge una contraddizione manifesta. Giacché, che cosa sono gli oggetti ora menzionati se non le cose che noi percepiamo con i sensi, e che cosa percepiamo noi oltre le nostre proprie idee o sensazioni? E non è chiaramente contraddittorio che una di queste o una combinazione di esse esista non percepita?”

 

:) coincidenze, intuizioni o destino?

lunedì 31 marzo 2008, 10.38.26 | newsmtesla

..’casualmente’ entra in contatto con alcune persone che gli danno una nuova visione sulla realtà. Senza rendersi troppo conto di cosa si tratta si trova coinvolto. Verrà accompagnato in questo viaggio da una guida, anzi sarà la guida a trovare lui. Comprenderà il significato della realtà, significato che non può essere spiegato perché va vissuto per poter essere compreso [..]
Conoscere la nostra ‘missione’ personale aumenta il numero di coincidenze che ci guidano verso il nostro destino. All’inizio dobbiamo rispondere ad una domanda poi delle intuizioni e/o coincidenze ci porteranno le Risposte..

destino o entanglement ?

lunedì 31 marzo 2008, 10.38.13 | newsmtesla

                                …destino? o altro??

                                                           -

Le coincidenze sono casuali?; sono il frutto di volontà espresse o di movimenti in atto, di desideri che si manifestano con grande forza. Esse si manifestano, però, in modo meno chiaro e immediatamente visibile e percepibile, perché non appartengono alla sfera dei nostri comportamenti quotidiani e delle nostre esperienze più frequenti e familiari. Anche quando ci rendiamo conto che una coincidenza sopraggiunta è troppo strana e inspiegabile per essere soltanto una coincidenza ci limitiamo ad un sorriso abbozzato non si sa verso chi e per che cosa..

In termini quantistici, la coincidenza penso possa essere definita con il termine “entanglement“, traducibile ad esempio come “intrecciamento”. Esso descrive la possibilità di due sistemi di avere e mantenere strane relazioni a distanza, lo stesso Einstein la definì come “azione fantasma a distanza”.

Noi dovremmo cercare di capire che cosa possano significare questi fenomeni inspiegabili all’apparenza, perché è sicuramente vero che ciò a cui non riusciamo a fornire una spiegazione, la possiede al suo interno.

Una delle più frequenti coincidenze è quella degli incontri “casuali”; si verifica quando tra due individui che vivono in una stessa città inizia un percorso di intensa sintonia, il più comune dei quali è quello dell’innamoramento ma non solo, anche qualunque altro tipo di  legame profondo (come l’Amicizia). La nascita di qst nuovo sentimento condiziona inesorabilmente tutta la vita delle persone coinvolte; non c’è un modo di sottrarsi a questa legge generale; e così si verifica che le due persone interessate vengano attratte da una forza “misteriosa” verso gli stessi luoghi, negli stessi momenti; quando, ad esempio, si fa una certa cosa in un determinato momento e in un luogo definito e, all’improvviso, ci viene in mente di dirigerci in un’altra zona, spesso incontriamo l’altra persona.

Nei casi di maggiore intensità emotiva, “sappiamo” che incontreremo l’altra persona e, quasi sempre, questo puntualmente avviene; non ci meravigliamo neppure di quell’incontro, ci sembra naturale; quando, poi, l’incontro avviene ci sentiamo felici perché tutte le nostre innumerevoli “particelle costitutive”, che precedentemente stavano lavorando con tenacia per quell’evento, hanno raggiunto il loro scopo.

E’ evidente quindi, come questa situazione, che sembra una coincidenza, in realtà non lo sia; si tratta del risultato di un lavoro..?, di una attività..? come la raccolta che viene dopo la semina e il giorno che viene dopo la notte?! del lavoro del nostro cervello e di quello della persona amata..?; un lavoro straordinariamente intenso che si esprime alla massima potenza in quella che possiamo immaginare a una vera e propria nuova “creazione”.

 

 di p.

lunedì 31 marzo 2008, 10.37.57 | newsmtesla

..forse oggi l’obiettivo principale non è di scoprire ke cosa siamo.. dobbiamo immaginare e costruire ciò che potremmo diventare

..perhaps today the main objective is not to discover what we are.. we have to imagine and build what could become

_ _- _ _

lunedì 31 marzo 2008, 10.37.45 | newsmtesla

                   … no comment …

E’ il d-day…

un inizio presuppone sempre la fine di qlc

…adesso è tutto molto più chiaro…

… no comment …

 

tecnologia scramjet

lunedì 31 marzo 2008, 10.37.28 | newsmtesla

…tecnologia scramjet…

CNR

La tecnologia ‘scramjet’, Supersonic Combustion Ramjet, viene sperimentata con successo anche in Italia, all’Istituto per l’energetica e le interfasi del Consiglio Nazionale delle ricerche (Ieni-Cnr) di Milano, dove è operativo un tunnel che permette la simulazione di volo a velocità ipersonica.

Il propulsore scramjet si basa sulla combustione supersonica e, al contrario di quanto avviene nei motori a razzo, l’ossigeno necessario alla combustione viene preso dall’atmosfera invece che da un serbatoio alloggiato sul velivolo. Il propulsore è formato, infatti, da una camera di combustione nella quale entra l’aria a velocità supersonica e viene iniettato il combustibile per cui avviene la combustione. Con questo tipo di propulsione si possono raggiungere velocità molto elevate, dal limite più basso di Mach 5 o 6, cioè cinque volte la velocità del suono, fino a Mach 15 e oltre.

–br–

Il meccanismo dello ‘scramjet’ sembra piuttosto semplice. È invece meno semplice ricreare e studiare proprio le condizioni di supersonicità.

Questi motori sono utilizzabili, infatti, solo ad elevate velocità di volo e, dal punto di vista dell’efficienza propulsiva, si collocano in una fascia intermedia tra i motori a razzo (poco efficienti) e i turbogetti che non sono però utilizzabili per il volo ipersonico”. Gli ‘scramjets’ potrebbero essere usati, in un prossimo futuro, come motori intermedi per la messa in orbita di satelliti o equipaggi, o come propulsori di crociera per velivoli ipersonici.

Gli studi teorici e sperimentali su questo tipo di sistemi propulsivi vengono in realtà effettuati da decenni negli Stati Uniti, ma si sono ora intensificati in quanto gli ultimi progressi tecnologici in fatto di materiali rendono plausibile la possibilità di realizzare un prototipo funzionante.

Il ‘tunnel ipersonico pulsato’ dello Ieni – Cnr è in grado di riprodurre con buona approssimazione e per tempi relativamente brevi (alcune decine di millisecondi) condizioni di volo ipersonico (fino a Mach 7.5). Nel laboratorio del Cnr i ricercatori stanno studiando lo sviluppo una nuova generazione di lanciatori per la messa in orbita di satelliti e/o velivoli con equipaggio a costi notevolmente ridotti rispetto a quelli attuali, in grado di generare spinta a tutte le velocità, con o senza l’atmosfera.

oltre la velocità della luce..

lunedì 31 marzo 2008, 10.37.15 | newsmtesla

Entro la fine del secolo, secondo il fisico Franklin Felber, l’uomo sarà in grado di far viaggiare nello spazio una massa ad una velocità prossima a quella della luce.

Il noto scienziato statunitense sarebbe riuscito a risolvere una delle più celebri equazioni di Einstein sulla gravitazione. Un primo passo che preluderebbe allo spostamento di una massa ad una velocità finora resa possibile solo dalla fantascienza.

Felber sarebbe riuscito a risolvere due dei più grandi problemi che frenano la ricerca spaziale: individuare la risorsa energetica capace di produrre una tale accelerazione e trovare una soluzione per i limiti fisici dell’uomo e delle sue attrezzature per queste velocità.

“La ricerca di Felber rivoluzionerà il volo spaziale. I suoi rigorosi test e il suo ingegno ci permetteranno di fare un balzo in avanti per la realizzazione di navicelle sicure capaci di una velocità di poco inferiore a quella della luce”, ha dichiarato Eric Davis, revisore del lavoro di Felber e ricercatore presso l’Institute for Advanced Studies di Austin.

L’equazione gravitazionale di Einstein è alla base della Teoria della Relatività, e finora nessuno era mai riuscito a risolverla. Felber è riuscito a dimostrare che una massa capace di una velocità del 57,7% di quella della luce – quindi poco più della metà – è in grado di respingere altre masse grazie alla presenza di un fascio anti-gravitazionale che si crea in posizione frontale. Più aumenta la velocità e più il fascio diventa potente. Allo stesso tempo questa “repulsione” permetterebbe di spostare grandi carichi con stress strutturali minimi. Il fascio anti-gravitazionale, in pratica, renderebbe la massa viaggiante quasi senza peso.

..riflessioni sul tempo

lunedì 31 marzo 2008, 10.37.02 | newsmtesla

 
“La maggior parte delle persone crede che il tempo trascorra, in realtà esso sta sempre là dov’è.” Questa affermazione sintetizza la concezione ‘orientale’ nei confronti del tempo.

La concezione del mondo convenzionale, quella avallata dalla fisica classica, prende in considerazione tre coordinate di misurazione della realtà: lunghezza, larghezza e profondità. Sono i parametri con cui viene definito lo spazio, inteso come il teatro delle vicende umane.
Il tempo, sempre secondo la fisica classica, è una dimensione a se stante, che procede in maniera uniforme e indipendente dal mondo materiale, un valore assoluto, che scandisce l’avvicendarsi delle rappresentazioni sul palcoscenico della vita.

Tempo e spazio sono quindi valori assoluti nella nostra esistenza, che molta importanza dà al “dove” e al “quando”, che traccia confini e percorre, anche con fatica, lunghe distanze, che scandisce gli anni, i mesi, i giorni, i minuti e i secondi con una precisione sempre più maniacale. Tempo e spazio sono anche la nostra ossessione, con la costante impressione di non riuscire mai a fare tutto quello che dovremmo o di non riuscire ad andare dove vorremmo, e con una spada di Damocle sempre pronta ad abbattersi su di noi. Inesorabile, prima o poi, infatti, la rappresentazione finisce e cala il sipario. Il tempo a nostra disposizione finisce.

Benché questa sia la concezione a noi più familiare della nostra vita, in gara col trascorrere del tempo, non è l’unico modo di affrontare l’argomento. Non è solo la filosofia orientale a farsi portavoce di una visione alternativa, che considera lo “spazio-tempo” come costruzioni della mente, ma esiste anche una voce laica e scientifica che inizia a mettere in dubbio le basi stesse del nostro rapporto con la realtà, e viene dalla fisica moderna.

A partire dalla teoria della relatività di Einstein, tempo e spazio non sono più considerati fattori assoluti, ma relativi, relativi al rapporto tra osservatore e osservato, e alla loro velocità reciproca. Nella vita quotidiana abbiamo l’impressione di osservare gli avvenimenti nello stesso istante in cui avvengono, questo perché la velocità della luce, sulle piccole distanze, dà un’impressione di immediatezza; ma quando ci confrontiamo con altri corpi nello spazio dobbiamo prendere in considerazione il fatto che la luce delle stelle più vicine ci arriva con un ritardo di centinaia o migliaia di anni.

Un esempio classico che permette di comprendere questo diverso rapporto con il tempo è il paradosso dei gemelli. Se una persona viaggiasse alla velocità della luce nello spazio per vent’anni mentre suo fratello gemello è rimasto sulla terra, al suo ritorno il primo sarebbe più giovane del secondo, perché il tempo, alla velocità della luce, sarebbe passato più lentamente per l’astronauta che per il terrestre.

Che importanza possono avere queste considerazioni per il nostro rapporto con i molteplici impegni e il nostro atteggiamento nei confronti della vita quotidiana? Carl Gustav Jung, uno dei padri della psicologia moderna, ha scritto: “Prima o poi la fisica nucleare e la psicologia dell’inconscio si avvicineranno fra loro poiché entrambe, indipendentemente l’una dall’altra e partendo da direzioni opposte, si spingono avanti in un territorio trascendentale.”

C’è una grande somiglianza tra le conclusioni dei fisici moderni e dei mistici, entrambi affermano, in modo diverso, che spazio e tempo non sono assoluti, ma relativi, anche relativi allo stato di coscienza in cui ci si trova.

La meditazione, per esempio, permette di accedere a una dimensione in cui spazio e tempo non esistono, quasi fosse quel mitico iperspazio, ipotizzato attraverso rocamboleschi calcoli matematici, in cui si viaggia alla velocità della luce, stavolgendo tutte le leggi della fisica che vigono, invece, nello stato di coscienza ordinario, sul piano materiale.

Questo vorrebbe dire che noi viviamo contemporaneamente in almeno due dimensioni, una governata dalle leggi della fisica classica e una in cui spazio e tempo non esistono più, esiste solo l’immenso presente. Quindi se da un certo punto di vista è importante correre affannarsi per prendere il treno, per comprare il pane prima che chiudano i negozi, per prepararsi all’esame e presentarsi alla data prefissata, da un altro punto di vista il tempo non è determinante per il raggiungimento di propositi di tipo immateriale, per realizzazioni di tipo noetico – riguardante la sfera dei valori e dei principi universali -è c’è un unico tempo adatto a questo tipo di conquista: l’istante presente.

Saggi, uomini e donne realizzati di tutti i tempi, esprimono tutti la stessa verità: è solo nel presente che troviamo veramente risposta a tutte le nostre domande più profonde e al nostro bisogno di dare un senso a tutto ciò che ci circonda. E’ solo nel presente che possiamo diventare pienamente consapevoli di chi siamo veramente, materia e spirito, effimero e assoluto, corpo e anima.

Forse, tornando alla metafora dello spettacolo possiamo ipotizzare che ogni nostra esistenza sia una rappresentazione di realtà virtuale di cui siamo registi, spettatori e protagonisti allo stesso tempo

___________________________________________________

M. D. 

tecnologia nucleare

lunedì 31 marzo 2008, 10.36.47 | newsmtesla

il futuro dell’energia??.. il nucleare!

a tutti i neo ecologisti figli di una ideologia che ci ha costretto col referendum ad essere non solo totalmente dipendenti da paesi terzi, ma in maniera paradossalmente ipocrita e ridicola a comprare al doppio del prezzo l’energia nucleare dalle decine di centrali dislocate a pochi km dal nostro confine..

 (parliamo di quasi il 20% del nst fabbisogno energetico nazionale!)

dobbiamo ringraziarvi?

..fortunatamente qlc incomincia a porre il problema..

I reattori nucleari possono essere sommariamente classificati appartenenti a quattro generazioni in base ad alcune caratteristiche comuni e in base all’epoca in cui sono stati progettati e costruiti.

Attualmente sono in funzione 439 reattori che appartengono principalmente alla prima e seconda generazione con alcune unità di terza operative in Asia.
Oggi si può parlare di Nuclear Renaissance sintetizzando un certo ottimismo alimentato dalle attuali costruzione in Asia e dai numerosi progetti e proposte in Russia, America ed Europa. In particolare, nell’Europa dell’Est c’è molto fermento che si aggiunge alla decisione della Finlandia e della Francia nel costruire il reattore EPR (European Pressurized Reactor) di terza generazione. Questo rinascimento nucleare appare dunque alquanto visibile nel mondo grazie a una serie di fattori politici, economici, ambientali e di evoluzione scientifica e tecnologica.
Inoltre si parla molto delle prospettive offerte dalla ricerca sui reattori innovativi di quarta generazione.

–br–
Analizziamo in maniera sintetica le caratteristiche principali delle quattro generazioni di reattori nucleari:

La prima generazione include prototipi e reattori destinati alla produzione di energia elettrica o plutonio per armi nucleari, progettati e costruiti prima degli anni ’70. In genere sono caratterizzati da una bassa potenza termica che per i reattori commerciali di potenza si traduce in taglie generalmente inferiori ai 300 MWe. In Italia sono presenti tre centrali nucleari che possono considerarsi di prima generazione. Gli impianti sono spenti dal 1986 e attualmente in fase di decommissioning: Latina (GCR – 210 MWe), Garigliano (BWR – 160 MWe) e Trino (PWR – 270 MWe).

La seconda generazione comprende principalmente reattori ad acqua leggera, costruiti e utilizzati a partire dagli anni ’70 e ’80 e ancora operativi. In genere sono caratterizzati da una potenza elettrica compresa tra i 300 MWe e i 1000 MWe. In Italia la centrale nucleare di Caorso (BWR – 860 MWe) può considerarsi di seconda generazione, anche se è attualmente spenta e in fase di decommissioning.

La terza generazione si riferisce a quei reattori avanzati, come l’EPR (European Pressurized water Reactor), l’AP1000 (Advanced Passive) e l’ABWR (Advanced Boiling Water Reactor), derivanti dall’ottimizzazione, in termini di economia e sicurezza, degli attuali reattori ad acqua leggera e che saranno operativi prima del 2010. Alcuni reattori, tra cui gli ABWR costruiti in Giappone, sono già in funzione e possono già considerarsi di terza generazione. In generale, questi reattori sono caratterizzati da una potenza elettrica oltre i 1000 MWe, taglia che sembra affermarsi con maggiore solidità nel mercato.
In Italia non si prevede di costruire reattori nucleari nel breve-medio periodo ma, se si considerasse l’opzione nucleare in un contesto di politica energetica europea, sarebbe necessario fare riferimento a reattori commerciali appartenenti a questa nuova generazione. Inoltre, è importante segnalare la partecipazione dell’ ENEL (Ente Nazionale per l’Energia Elettrica SpA) con la francese EdF (Electricité de France) per la realizzazione del primo reattore nucleare di terza generazione EPR (European Pressurized Reactor) in Francia con una potenza di 1600 MWe.
Viene anche spesso citata una generazione 3+ che include sistemi che potrebbero essere introdotti entro i prossimi 10-15 anni, quindi assai prima dei reattori di quarta generazione e allo stesso tempo risultare vantaggiosi per lo sviluppo di questi ultimi.
Per la generazione 3 e 3+ sono stati considerati numerosi sistemi che potrebbero essere impiegati prima del 2015 e con performance superiori a quelle dei reattori attuali.

La quarta generazione comprende sistemi nucleari innovativi che probabilmente raggiungeranno maturità tecnica dopo il 2030. Tali sistemi nucleari sono concepiti in modo da provvedere alla fornitura di energia in maniera molto competitiva da un punto di vista economico, estendendo e migliorando la sicurezza in caso di incidenti e tenendo in considerazione anche la sicurezza in caso di attacchi terroristici, la minimizzazione delle scorie (in particolare di quelle a lunga vita), l’uso razionale delle risorse naturali (con un maggior sfruttamento dei materiali fissili e fertili), la capacità di produrre direttamente idrogeno (senza passare attraverso la produzione di energia elettrica), l’affidabilità, la resistenza alla proliferazione.

Gli attuali problemi riguardanti la disponibilità di fonti di energia e la qualità dell’aria richiedono una maggiore attenzione verso il ruolo fondamentale dei reattori nucleari nella fornitura di energia elettrica per il futuro. Saranno necessarie per la fase dimostrativa ulteriori attività di ricerca e sviluppo sui reattori di Quarta Generazione per consentire all’industria di rendere uno o più sistemi disponibili per il mercato. Tali sistemi dovrebbero coprire le grandi richieste di energia durante tutto il periodo richiesto per il completo sviluppo e messa in esercizio degli auspicabili reattori a fusione. I reattori a fusione sono ancora in una fase di ricerca e sviluppo di cui non è facile prevedere la tempistica di realizzazione, stimata comunque essere ben superiore al mezzo secolo.

___________________________________________________________________________________

da agienergia

 

 

teletrasporto quantico

lunedì 31 marzo 2008, 10.36.35 | newsmtesla

Il teletrasporto di una persona è teoricamente impossibile e si scontra con il principio d’indeterminazione di Heisenberg secondo cui è impossibile conoscere nello stesso momento, e con precisione, la velocità e posizione della particella: conoscenze fondamentali per effettuare un teletrasporto di un oggetto.

Nel 1993, un’ equipe di fisici canadesi e inglesi ha trovato l’“accoppiamento”: una nuova caratteristica della meccanica quantistica, che ha stravolto molte delle teorie esistenti. L’”accoppiamento” permette, tramite coppie di atomi e stati di polarizzazione, di aggirare il principio di Heisenberg.
Ma per quello che veramente ci interessa, il teletrasporto di grandi oggetti, ci sono due ostacoli fondamentali: per prima cosa occorrono due oggetti dello stesso tipo accoppiati; in secondo luogo la coppia e l’oggetto da teletrasportare, devono essere perfettamente isolati dall’ambiente. Se una qualsiasi informazione viene scambiata con l’ambiente, lo stato quantico dell’oggetto si altererebbe, e per fare un teletrasporto esso deve rimanere intatto. Ma far “bloccare” lo stato quantico di una persona è praticamente impossibile: pensiamo a un semplice respiro!

 

La tecnologia di teletrasporto, di cui disponiamo oggi, permette di “trasferire” solo stati elementari, come il quanto di luce appunto. Nel prossimo decennio gli scienziati sperano, con la stessa tecnica, di arrivare a telatrasportare molecole.
Un’applicazione importante potrebbe riguardare il calcolo quantistico, nel quale l’usuale nozione di bit (con valori 0 e1) è generalizzata a bit quantistici.
Si potrebbero usare teletrasportatori per trasferire informazioni quantistiche tra elaboratori quantistici e ottenere componenti base per la costruzione di calcolatori del futuro…

Luce congelata in uno spazio fatto di specchi atomici

lunedì 31 marzo 2008, 10.36.24 | newsmtesla

Light Frozen in a Hall of Atomic Mirrors

 In a new experiment a pulse of light has been stopped without losing its optical energy. A few years ago, two different Harvard groups succeeded in slowing and then storing a pulse of light in atomic vapor. In that work the propagation of light pulses was halted by vesting the properties of incoming photons into the spin orientations of the atoms in the vapor.

Thus light pulses had been stopped by ceasing to exist in the form of electromagnetic energy while ceding all of its signal qualities to the atomic vapor. Later they could be reconstituted into propagating light beams.

Now, a new experiment, also conducted at Harvard, brings light to a halt but leaves the pulse intact as an optical entity. Mikhail Lukin and his colleagues begin as before by converting the incoming light pulse into a corresponding ensemble of spins in a vapor. But then something else is added: a pair of counter-propagating laser beams ease the pulse back into existence. But the control beams also serve to herd the atoms in just such a way as to cause them to act like a stack of mirrors.

In this hall of atomic mirrors, the original pulse still exists as electromagnetic radiation, but it cannot move—it persists within a fixed stationary envelope. Thus the light pulse containing optical photons is literally frozen in space. It can be held and released into motion again on command.

The present experimental work follows a theoretical proposal published in Physical Review Letters. Researchers believe that the new phenomenon that they demonstrated may be used to controllably localize, shape and guide stationary photonic pulses in three spatial dimensions. This can create ideal conditions for different light beams to interact or “talk” to each other since localized light electromagnetic energy can be held in one place for a relatively long time. Such techniques may enable nonlinear interactions between faint laser pulses that could be useful for processing light signals.

For example, this process might serve in optical computing, where calculations are carried out not with electrons but with photons. Another ambitious goal would be to perform logic operations between individual photons in future quantum computers. But the researchers say that much further work is still needed to determine if the present work can aid of any of these applications. For now, it’s just another step toward ultimate control of light.

Luce congelata in uno spazio fatto di specchi atomici

In un nuovo esperimento un impulso di luce è stato arrestato senza perdere la sua energia ottica.
In precedenza due gruppi di ricercatori di Harward erano riusciti a bloccare la luce in un vapore atomico. L’energia dei fotoni veniva dispersa nelle proprietà di spin degli atomi del vapore e dunque la luce risultava bloccata. In seguito veniva poi ricostituita sotto forma di raggio luminoso.
Adesso il nuovo esperimento, sempre condotto ad Harvard, blocca la luce ma senza farle perdere la sua natura di entità ottica. Come in precedenza l’impulso luminoso viene convertito in proprietà di spin del vapore atomico. A questo punto però vengono aggiunti un paio di fasci laser che si propagano in senso contrario e fanno tornare ad esistere l’impulso luminoso. Ma non è tutto, il controllo degli stessi fasci laser costringe gli atomi ad aggregarsi e a costituire come un insieme di specchi. In questo spazio di specchi atomici l’impulso luminoso conserva la sua natura ma non può muoversi, esso viene intrappolato all’interno.
Di conseguenza l’impulso luminoso è letteralmente congelato nello spazio. Esso può essere mantenuto o rilasciato in movimento a comando.
Questo processo potrebbe essere utile in computer ottici, dove non si muovono elettroni ma fotoni.
Un altro obiettivo ambizioso è quello di effettuare operazioni logiche tra singoli fotoni nei futuri computer quantici.

lunedì 31 marzo 2008, 10.36.14 | newsmtesla

..è un giorno particolare per una amica speciale..
..tanti auguri di buon compleanno..

VIII – Il libero arbitrio.

martedì 26 febbraio 2008, 13.55.54 | newsmtesla

capitolo 8

VIII – Il libero arbitrio.

Riallacciandoci alla frase di Einstein sulla presunta casualità insista nella meccanica quantistica, occorre precisare quanto segue.

Riprendo un’ipotesi già formulata da vari fisici fin dagli anni ’20 (per esempio Jordan ed Eddington): il libero arbitrio dell’uomo e degli animali è riconducibile all’indeterminazione quantistica. In particolare, si propone che la scelta dei differenti autovalori non sia casuale ma sia una “scelta cosciente” dovuta ad una piccola “volontà della natura”, che ha un piccolo margine per deviare il corso degli eventi dal determinismo assoluto (in cui la fisica credeva fino al 1927, cioè prima del principio di indeterminazione).

In altre parole, l’indeterminazione quantistica permette un piccolo margine per un “libero arbitrio” della natura, che poi viene “amplificato” e “valorizzato” negli organismi biologici e quindi nell’uomo. Questo punto assume un’importanza filosofica colossale, perché solo in questa ipotesi l’uomo viene ad assumere una vera libertà nelle sue azioni. Altrimenti egli è solo un burattino in balia delle leggi meccaniche della fisica.

______________________________________________________________

 IL SEGRETO DELL’UNIVERSO

MENTE E MATERIA NELLA SCIENZA DEL TERZO MILLENNIO_F.Coppola

II _ stati quantici e misurazione fisica

lunedì 25 febbraio 2008, 23.00.45 | newsmtesla

 

capitolo 2 

Stati quantistici e misurazione fisica.

In fisica classica non vi sono limitazioni di principio alla misurazione delle caratteristiche di un sistema fisico: per esempio ad ogni istante possiamo misurare la posizione di un certo oggetto in movimento, la sua velocità, la sua energia, eccetera. È vero che esistono delle limitazioni “tecniche” o “operative”, dovute alla limitata precisione degli strumenti di misura che impieghiamo, ma nulla ci impedisce di costruire strumenti più precisi e sofisticati.

Per esempio, per misurare la velocità di un’automobile su una strada e rivelare eventuali eccessi di velocità,la Polizia Stradaleadopera dei dispositivi elettronici. Un dispositivo di questo tipo è capace di misurare con buona precisione la velocità dell’auto nell’istante in cui la macchina transita davanti all’apparecchiatura. Non vi è nulla che ci impedisce di rendere ancora più precisa tale misurazione, impiegando dispositivi migliori.

Occorre sottolineare che tale dispositivo effettua anche una misura di posizione (perché ovviamente rivela che in quell’istante l’automobile si trovava in quel punto). Con semplici calcoli, è possibile stimare la posizione dell’automobile pochi istanti prima e pochi istanti dopo il transito davanti al dispositivo (poiché in quei pochissimi secondi, per inerzia, la velocità dell’automobile rimarrà approssimativamente la stessa). Vi sarà una certa “approssimazione” o “errore” in questa stima, poiché la velocità in quei pochi secondi potrà variare leggermente, però si tratterà di un errore piuttosto piccolo.

Non è così nella meccanica quantistica: gli oggetti “quantistici” (atomi, elettroni, quanti di luce, ecc.) si trovano in certi “stati” indefiniti, descritti da certe entità matematiche (come la “funzione d’onda” di Schrödinger).

Soltanto all’atto della misurazione fisica si può ottenere un valore reale; ma finché la misura non viene effettuata, l’oggetto quantistico rimane in uno stato che è “oggettivamente indefinito”, sebbene sia matematicamente definito: esso descrive solo una “potenzialità” dell’oggetto o del sistema fisico in esame, ovvero contiene l’informazione relativa ad una “rosa” di valori possibili, ciascuno con la sua probabilità di divenire reale ed oggettivo all’atto della misura.

Per fare un paragone con l’automobile di prima, quando essa viene rivelata dal nostro dispositivo possiamo dire che l’auto si trova veramente in quel punto (misura di posizione). Ma in meccanica quantistica vi sarebbero delle forti limitazioni alle misure che possiamo effettuare: per esempio non potremmo conoscere precisamente la velocità dell’oggetto in quell’istante (per il principio di indeterminazione di Heisenberg). Inoltre, non potremmo prevedere la posizione dell’auto dopo due secondi: potremmo solo dare una stima molto approssimativa, ovvero potremmo solo prevedere l’evoluzione della sua “funzione d’onda”. La funzione d’onda però ci darà solo una vasta “rosa” di posizioni possibili per l’automobile, e per sapere con certezza dove l’automobile si troverà realmente, dovremo effettuare una nuova misura.

La “rosa” di possibilità talvolta può dare risultati sorprendenti o incredibili. È il caso del cosiddetto effetto tunnel, che è uno dei tanti fenomeni quantistici “stravaganti”. Esso è impiegato anche nelle tecnologie dei semiconduttori ed è responsabile anche della emissione di particelle da parte dei materiali radioattivi. L’effetto tunnel permette alle particelle quantistiche di avere una probabilità di trovarsi fuori dai confini imposti dalla fisica classica.

Per fare un esempio facilmente comprensibile, consideriamo una piscina vuota, con una palla in movimento al suo interno. La palla si sposta da una parte all’altra della piscina rimbalzando contro le pareti e sul fondo, senza però avere l’energia necessaria per uscire. Ad esempio, la piscina è profonda due metri ed i rimbalzi disordinati della palla arrivano al massimo ad un metro di altezza. Ammettiamo pure che non vi sia perdita di energia per attrito, cioè la palla sia perfettamente elastica e la resistenza dell’aria sia del tutto trascurabile (in realtà la dissipazione di energia per attrito tende a ridurre la velocità della palla, che dopo pochissimi minuti si fermerà del tutto). Anche in tale caso ideale la palla non potrà uscire dalla piscina, poiché non potrà comunque superare il metro di altezza: si dice che le pareti della piscina rappresentano una “barriera di energia potenziale”.

Ebbene, in ambito quantistico, una particella in una situazione analoga avrebbe comunque una certa probabilità (seppure minima) di trovarsi al di fuori delle barriere di energia potenziale, cioè di uscire dalla piscina!

__________________________________________________________

 IL SEGRETO DELL’UNIVERSO

MENTE E MATERIA NELLA SCIENZA DEL TERZO MILLENNIO_F.Coppola

III_Stati ed autostati.

lunedì 25 febbraio 2008, 23.00.02 | newsmtesla

capitolo 3

III – Stati ed autostati.

(….qst sarà un paragrafo presumibilmente difficile….)

Ogni particella o sistema fisico in ogni istante si trova in uno stato ben definito. Matematicamente gli stati quantistici sono elementi di uno spazio di Hilbert, uno spazio astratto che alcuni fisici definiscono come uno “spazio delle potenzialità” o delle “possibilità”. Le grandezze fisiche che possono essere misurate (posizione, velocità, energia, momento magnetico, eccetera) sono chiamate osservabili.

Per fissare le idee, immaginiamo che l’osservabile che vogliamo misurare sia l’energia di un elettrone. Nel linguaggio della meccanica quantistica, si dice che all’atto della misura dell’osservabile energia lo stato collassa in uno dei tanti potenziali autostati ammessi da quell’osservabile (l’energia). Che cosa significa? Che cosa sono gli autostati?

Gli autostati sono quei particolari stati che forniscono una misura oggettiva della nostra osservabile. Invece gli altri stati non possono dare un valore definito della nostra osservabile, poiché prevedono una rosa di risultati diversi (ciascuno con la propria probabilità), e vengono detti stati di sovrapposizione. In termini estremi, possiamo dire che rispetto alla nostra osservabile solo gli autostati danno un valore “oggettivo” nella realtà fisica, mentre gli altri stati non possono dare valori “oggettivi”, prevedibili e certi, pur descrivendo perfettamente il sistema quantistico in esame.

Proviamo a vedere un semplice esempio. Consideriamo un elettrone che si trova in un certo sistema fisico e cerchiamo di misurare la sua energia in un dato istante. Prima della misura, esso non avrà un’energia definita, ma si troverà in uno stato potenziale che contiene (ad esempio):

- l’autostato di energia 850 eV, con probabilità del 20%;

- l’autostato di energia 860 eV, con probabilità del 35%;

- l’autostato di energia 870 eV, con probabilità del 45%.

Nota: eV significa elettron-Volt ed è un’unità di energia utilizzata in fisica atomica, nucleare e sub-nucleare. Per inciso, sono possibili stati molto più complessi di questo.

All’atto della misura del valore dell’energia, la natura dovrà “scegliere” uno dei tre possibili “autostati” dell’energia, ciascuno dei quali ha il suo valore (chiamato “autovalore”): 850 o 860 o 870 eV. Essi sono valori “quantizzati”, ovvero discreti o discontinui (in parole povere non sono possibili valori intermedi, come 865 eV). Pertanto lo stato iniziale è oggettivamente “indefinito” rispetto all’osservabile energia, poiché è una combinazione (o sovrapposizione) di tre autostati diversi, ed all’atto della misurazione dovrà “collassare” in uno dei tre possibili “autostati”, che danno valori validi dell’energia nella realtà fisica oggettiva. Ogni volta il risultato potrà essere diverso, e ciascun “autovalore” ha la sua probabilità di uscire. La cosa strana è che lo stato in questione, che non ha un valore oggettivamente definito rispetto all’osservabile energia, potrebbe essere un autostato rispetto ad un’altra osservabile, cioè potrebbe dare un valore oggettivo, definito e certo.

Un esempio molto importante è quello dei noti orbitali atomici che si studiano in chimica. Gli orbitali atomici sono degli autostati o delle autofunzioni d’onda dell’energia (e del momento angolare, ma non approfondiamo).

Consideriamo la distribuzione degli elettroni in un atomo di idrogeno. Chi ha studiato un po’ di chimica sa che l’elettrone non percorre traiettorie definite, cioè non segue un’orbita determinata intorno al nucleo dell’atomo, ma si trova “sparpagliato” intorno al nucleo, ovvero occupa un certo orbitale (per esempio l’orbitale chiamato 1s, oppure 2s, oppure 2p ecc.).

Alcuni testi divulgativi di chimica dicono (impropriamente) che “l’elettrone è così veloce che non può essere localizzato in un punto ma appare distribuito in una nuvola elettronica“. Gli orbitali infatti assumono l’aspetto di una sorta di “nuvola”, detta appunto nuvola elettronica, con forme determinate: ad esempio una sfera sfumata (orbitale 1s) oppure degli ovali appuntiti e sfumati (orbitali 2p), eccetera.

In realtà tale descrizione pittoresca, data per necessità di esposizione, non è scientificamente valida: non è fisicamente corretto dire che “l’elettrone è così veloce che non può essere localizzato in un punto ma appare distribuito in una nuvola elettronica”. Sarebbe più corretto dire che l’elettrone è la nuvola elettronica stessa, ma anche questa descrizione sarebbe impropria.

L’unica descrizione veramente valida è quella puramente matematica: l’orbitale 1s (o l’orbitale 2s o 2p, eccetera) è un autostato rispetto all’osservabile energia, ma non è un autostato per l’osservabile posizione, rispetto alla quale risulta invece uno “stato di sovrapposizione”: perciò l’elettrone in questo stato non può avere una posizione definita ed appare sparpagliato nello spazio, ovvero appare come una “nuvola elettronica”.

La distribuzione spaziale di tale nuvola viene detta funzione d’onda. In realtà descrivere in termini appropriati ciò che la funzione d’onda rappresenta richiederebbe una lunga trattazione matematica, ma per semplicità possiamo dare la seguente immagine, sempre pittoresca ma meno imprecisa di quella data da molti testi divulgativi: la funzione d’onda in generale è una specie di un’onda distribuita nello spazio e variabile nel tempo, che in alcuni casi rappresenta una “densità di probabilità” di rivelare l’elettrone in un certo punto, ed in altri casi si comporta come un’onda vera e propria (i fisici perdoneranno il fatto che per semplificare la descrizione non si è fatto riferimento al modulo quadro, così come perdoneranno anche altre piccole approssimazioni).

Nel caso specifico dell’orbitale atomico, l’onda “si ripiega” su se stessa a causa dell’attrazione del nucleo, ed invece di sfuggire e propagarsi nello spazio, si manifesta come nuvola elettronica (ma si tenga sempre presente che anche questa è una descrizione piuttosto pittoresca).

In fisica classica le onde hanno bisogno di un “supporto materiale” per esistere e propagarsi: per esempio le onde del mare si propagano nell’acqua, le onde sonore (i suoni) si propagano nell’aria (o anche in altri materiali) e le onde che danno origine al suono di una chitarra nascono nelle onde che percorrono le corde della chitarra stessa.

La funzione d’onda invece non ha un supporto materiale, poiché essa stessa rappresenta e costituisce la cosiddetta materia, ed è una sorta di vibrazione nella struttura dello spazio-tempo, da cui noi possiamo ottenere delle previsioni in termini probabilistici.

__________________________________________________________

 

 IL SEGRETO DELL’UNIVERSO

MENTE E MATERIA NELLA SCIENZA DEL TERZO MILLENNIO_F.Coppola

IV_Il principio di indeterminazione

lunedì 25 febbraio 2008, 22.59.19 | newsmtesla

 

capitolo 4

IV – Il principio di indeterminazione.

Vediamo adesso un esempio simile a quello dell’automobile visto in precedenza. Si consideri la posizione di un elettrone nello spazio (cosa che in fisica classica è ovvia e perfettamente definita). In meccanica quantistica l’elettrone non avrà una posizione definita, come l’automobile, ma avrà una “rosa” di posizioni possibili, descritta collettivamente da una “funzione d’onda”.

All’atto della misura, l’elettrone verrà rivelato solo in un punto tra quelli possibili, ovvero la “funzione d’onda” collasserà in quel singolo punto. La fisica non è in grado di prevedere quale punto verrà scelto, cioè è incapace di spiegare perché un punto venga preferito ad un altro, e quindi sembra essere presente un elemento casuale, la famosa indeterminazione.

Per ragioni di principio, non è possibile prevedere quale valore effettivo si avrà all’atto della misura: a priori si ha soltanto una rosa di probabilità su certi valori definiti, chiamati autovalori (i quali però sono definiti con grande precisione). Vi è quindi una “indeterminazione” sui valori della misura. In realtà ciò non altera l’utilità delle applicazioni della meccanica quantistica, che in certi campi, come in spettroscopia, ottiene delle precisioni sbalorditive. In altre parole, la statistica permette risultati estremamente precisi sul comportamento collettivo del sistema, ma indeterminati sulle singole particelle.

Questa strana proprietà dei sistemi quantistici fu espressa da Heisenberg nel 1927 col celebre principio di indeterminazione. Per esempio se misuriamo con grande precisione la posizione di una particella, avremo una certa indeterminazione sulla sua velocità, e viceversa.

___________________________________________________________________________________________

 IL SEGRETO DELL’UNIVERSO

MENTE E MATERIA NELLA SCIENZA DEL TERZO MILLENNIO_F.Coppola

VI_L’interpretazione di Copenaghen

lunedì 25 febbraio 2008, 22.58.42 | newsmtesla

capitolo 6

VI – L’interpretazione di Copenaghen e le prime reazioni.

La concezione che abbiamo intravisto alla fine del paragrafo precedente è la prima versione della cosiddetta interpretazione di Copenaghen della meccanica quantistica. Copenaghen è la città di Bohr, in cui operavano anche altri importantissimi scienziati come Heisenberg, Pauli, Born, Dirac. Tutti questi fisici sono considerati i fondatori della meccanica quantistica insieme a Planck, allo stesso Einstein (che poi criticò i fondamenti di tale teoria), a De Broglie e a Schrödinger.

Occorre precisare che la meccanica quantistica, pur segnando la fine del concetto di oggettività classica, permette ancora di parlare di “oggettività degli stati quantistici”. Infatti gli stati quantistici rimangono sempre esattamente definiti da un punto di vista matematico. Il problema è che si tratta di un tipo di “oggettività” ben diversa e limitata rispetto a quella familiare e sottintesa nella fisica classica, ed è per questo molti fisici preferiscono parlare espressamente di “non-oggettività”. Ma torniamo all’interpretazione di Copenaghen.

Vi furono subito delle reazioni a tale concezione, poiché in fisica era sottinteso da sempre che l’universo esiste oggettivamente, indipendentemente dal fatto che noi lo osserviamo o meno. In effetti, la scienza ebbe il suo grandioso sviluppo fin dal 1600 proprio grazie all’ipotesi dell’oggettivazione. Così i fisici degli anni ’20 e ’30 cercarono delle soluzioni concettuali per sfuggire a tale insolita situazione (che nella cornice dell’oggettivazione appare del tutto paradossale).

Le reazioni in questione furono numerose ed energiche, e misero a confronto le convinzioni di grandissimi scienziati, come Einstein (che riteneva che la meccanica quantistica fosse incompleta o comunque inaccettabile in questa forma) e come Bohr (che sosteneva invece la validità della teoria in questione).

Bohr volle subito eliminare la figura di un osservatore cosciente, troppo scomoda per una scienza ritenuta puramente oggettiva. Così l’interpretazione di Copenaghen fu presto modificata con degli artifici che sostituissero la figura dell’osservatore cosciente. Tale iniziativa si rese necessaria anche per la critica rivolta da Schrödinger con il suo scherzoso “paradosso del gatto”, che per brevità qui non citeremo (per inciso, è singolare che Schrödinger assumesse una posizione critica verso la necessità di un “soggetto cosciente” nella teoria quantistica, mentre invece nelle sue considerazioni filosofiche egli considerava l’intero universo come un “prodotto del pensiero”!).

In pochi anni così fu messa a punto la versione definitiva della “interpretazione di Copenaghen” della meccanica quantistica. Secondo la versione definitiva dell’interpretazione di Copenaghen, la realtà quantistica resta in uno stato indefinito e “non-oggettivo” (almeno rispetto ai canoni della fisica classica), ma non per questo è necessaria la figura di un osservatore cosciente (anche se nella prima versione essa sembrava indispensabile): è sufficiente che avvenga una “reazione termodinamica irreversibile” affinché lo stato non oggettivo diventi uno stato oggettivo.

Nel capitolo precedente abbiamo visto che molti fenomeni risultano irreversibili in fisica classica: se per esempio io vengo filmato mentre frullo una mela e poi tale filmato viene proiettato a rovescio (cioè col tempo invertito), tutti possono riconoscere che c’è qualcosa che non va, poiché è impossibile che il frullato possa ricomporre perfettamente la mela originaria. Un altro esempio di fenomeno irreversibile è quello che avviene su una pellicola quando viene scattata una fotografia: non è possibile far ritornare la pellicola allo stato iniziale.

Ebbene, quando un elettrone viene “visto” in un rivelatore, lascia dei segni irreversibili o sul rivelatore stesso oppure su un suo supporto (carta fotografica o altro): ciò comporta una “reazione termodinamica irreversibile” tra l’elettrone ed il rivelatore o la carta fotografica, e ciò è sufficiente a rivelarlo nel “mondo oggettivo” della fisica classica senza la necessità di un soggetto cosciente che testimoni tale evento.

Fu anche proposta un’interpretazione “operativa” del principio di indeterminazione: per poter misurare una caratteristica di un oggetto fisico, occorre necessariamente interagire con esso, e questa interazione “perturba” inevitabilmente lo stato originario, creando appunto la piccola “indeterminazione”. In questo modo, secondo gli scienziati di Copenaghen, si ottiene un’interpretazione del tutto ragionevole ed accettabile dell’indeterminazione.

In realtà tutto questo non spiega il “mistero” della non-oggettività delle caratteristiche fisiche prima della misura (e vedremo più avanti che tale non-oggettività è strettamente necessaria per la coerenza della teoria con gli esperimenti e crea degli incredibili paradossi).

Inoltre l’espediente di Copenaghen, nato al puro scopo di eliminare la figura del soggetto cosciente dalla teoria, si scontra con varie difficoltà. Anzitutto sembra impossibile che l’esistenza del mondo microscopico, cioè subatomico, debba dipendere da eventi termodinamici irreversibili, ovvero eventi “macroscopici” nell’ambito della fisica classica, mentre in realtà è il mondo macroscopico ad essere costituito da un insieme di eventi microscopici!

La situazione è chiaramente contraddittoria, poiché il mondo macroscopico (dei nostri oggetti familiari) è costituito di oggetti microscopici (cioè di atomi e dei suoi costituenti, cioè elettroni ed altre particelle), e non è chiaro come poi l’esistenza stessa di tali oggetti microscopici possa a sua volta essere sancita solo da eventi termodinamici che sono propri ed esclusivi del mondo macroscopico!

Nel capitolo precedente infatti avevamo visto che ovviamente la “termodinamica” osservata a livello macroscopico in realtà era prodotta dalla statistica sugli eventi microscopici. Qui viceversa si suppone che la “realtà” del mondo quantistico (microscopico) sia subordinata alla realtà dei fenomeni termodinamici (macroscopici), il che lascia una profonda lacuna concettuale, se non una chiara ed evidente contraddizione.

Per questo ed altri motivi, Wigner, Von Neumann ed altri fisici restarono fedeli alla prima versione dell’interpretazione di Copenaghen, secondo la quale occorre la coscienza umana affinché uno stato possa “collassare” in un autostato!

Va infine sottolineato che negli anni ’90 il gruppo di Chiao, dell’Università di Berkeley, ha dimostrato che il “collasso della funzione d’onda” può essere reversibile, e non è sempre irreversibile come credevano gli scienziati di Copenaghen (cosa che i fisici degli anni ’20 e ’30 non potevano ancora sapere…). Questo confuta definitivamente la scappatoia basata sui fenomeni termodinamici irreversibili, e ripropone in tutta la loro stranezza e stravaganza i paradossi quantistici. Ma questi argomenti verranno ripresi più avanti.

_________________________________________________________________________________

 IL SEGRETO DELL’UNIVERSO

MENTE E MATERIA NELLA SCIENZA DEL TERZO MILLENNIO_ F.Coppola

XIII – L’esperimento ‘a scelta ritardata’ di Wheeler.

lunedì 25 febbraio 2008, 22.57.08 | newsmtesla

capitolo13

XIII – L’esperimento ‘a scelta ritardata’ di Wheeler.

Immaginiamo un fotone che passa attraverso i due fori, come un’onda, e fa interferenza con se stesso. Come abbiamo visto, per distruggere la figura di interferenza, è sufficiente osservarlo “subito dopo” che è passato da un foro: in tal caso esso non è più un’onda ma una particella e quindi non può passare anche dall’altro foro. E poiché non può passare dall’altro foro la figura di interferenza scompare.

Perciò noi possiamo “decidere” se osservare il fotone come particella o se permettergli di fare la figura di interferenza come un’onda. Benissimo.

Abbiamo detto che riveliamo il fotone “subito dopo” che è transitato dal primo foro. “Subito dopo” significa che è passato pochissimo tempo dal transito nel foro. Ma per quanto piccolo sia il tempo trascorso, il fotone comunque ha già oltrepassato il foro; inoltre fino a questo momento esso è rimasto un’onda perché non l’abbiamo ancora rivelato.

Perciò nel frattempo l’onda ha già imboccato anche l’altro foro e lo ha oltrepassato.

E allora come fa il fotone ad essere rivelato “tutto intero” vicino al primo foro?

 Che fine fa il fronte d’onda che aveva appena oltrepassato il secondo foro?

Scompare nel nulla?

Sembra proprio di sì, ma com’è possibile?

Per chiarire questo punto, Wheeler propose di fare così: lasciamo che il fotone passi attraverso la maschera, come un’onda, passando da entrambi i fori. A questo punto, dopo che il fronte d’onda ha superato la maschera, inseriamo un rivelatore non lontano dal primo foro, ma neanche tanto vicino (cioè quanto basta per essere sicuri che nel frattempo tutto il fronte d’onda sia già sicuramente transitato dalla maschera). In pratica vogliamo effettuare la scelta di osservare il fotone come particella, però dopo che esso è transitato da entrambi i fori come un’onda. Infatti l’esperimento è chiamato “a scelta ritardata”.

L’esperimento è stato realmente effettuato da alcuni scienziati dell’Università del Maryland. Ebbene, inserendo il rivelatore dopo che l’onda è transitata dalla maschera, esso individua il fotone come particella e perciò la figura di interferenza non si crea. Ma allora che fine fa la parte dell’onda già transitata dal secondo foro?!

Scompare nel nulla, poiché il fotone viene rivelato interamente vicino al primo foro! Eppure, diciamo noi, l’onda era transitata sicuramente anche dal secondo foro: infatti, se non si inserisce il rivelatore (lasciando inalterato tutto il resto), si forma la figura di interferenza (che può formarsi solo se l’onda transita da entrambi i fori). E allora com’è possibile?!

La realtà è che anche stavolta cerchiamo di fornire un’immagine oggettiva di ciò che accade: ma un’immagine oggettiva non è adeguata. Non ha senso dire che “l’onda è già passata”, perché solo all’atto della misura possiamo dire che qualcosa è avvenuto: prima della misura il fotone rimane in uno stato indefinito di potenzialità o di non-oggettività (qualcuno preferisce dire perfino di irrealtà). Quando poi inseriamo il rivelatore, allora possiamo dire con certezza che il fotone era passato solo dal primo foro e non dal secondo foro, e infatti non c’è interferenza. Quando invece non inseriamo il rivelatore, e riveliamo dei fotoni sul bersaglio (con figura di interferenza), allora possiamo dire che ciascun fotone ha fatto interferenza come se fosse un’onda transitata da entrambi i fori; ma questo lo possiamo dire solo dopo che il fotone viene rivelato sul bersaglio (in un punto raggiungibile solo da un’onda ma non da una particella), cioè dopo la misura.

La cosa che a noi appare incredibile è che ciò che il fotone ha deciso di fare sulla maschera (passare da un foro solo o entrambi) dipende da una scelta successiva al transito stesso! Infatti il rivelatore viene inserito dopo che il fronte d’onda è transitato dalla maschera. Come dice Wheeler, la “scelta” di far passare il fotone da un solo foro o da entrambi è “ritardata”, cioè avviene dopo che il fotone è passato!

Affinché la cosa non risulti incredibile, dobbiamo ammettere che ciò che è successo prima non è definito. Occorre specificare che l’esperimento condotto nell’Università del Maryland non è stato impiegato uno schermo con due fori ma un’apparecchiatura concettualmente equivalente: un fascio laser è stato diviso in due fasci separati, uno dei quali attraversava un rivelatore (che poteva essere “acceso” o “spento”), ed infine i due fasci venivano fatti convergere nel rivelatore finale, dove si poteva verificare l’eventuale interferenza.

 ______________________________________________________________

  IL SEGRETO DELL’UNIVERSO

MENTE E MATERIA NELLA SCIENZA DEL TERZO MILLENNIO_ F.Coppola

XIV – Un incredibile paradosso astronomico.

lunedì 25 febbraio 2008, 22.55.56 | newsmtesla

capitolo14

XIV – Un incredibile paradosso astronomico.

Come sottolinea Wheeler, l’esperimento sopra analizzato fornisce un risultato assurdo se continuiamo a considerare “oggettivo” l’universo. Per rendere ancora più strabiliante questa assurdità, Wheeler fa notare che l’esperimento in questione, se considerato su scala astronomica, può produrre risultati sbalorditivi. Ecco un esempio.

Oggi conosciamo alcuni oggetti astronomici lontanissimi, chiamati quasar. Per giungere fino a noi, la luce di un quasar impiega miliardi di anni. Se nel percorso incontra una galassia di grande massa, che in base alla relatività generale di Einstein può funzionare da “lente gravitazionale”, il fascio di luce si divide in due fasci che aggirano la galassia da due parti opposte (infatti noi dalla Terra otteniamo delle immagini sdoppiate di alcuni quasar).

Immaginiamo che il quasar si trovi a dieci miliardi di anni luce di distanza e la galassia-lente a otto miliardi. Se noi sulla Terra vogliamo osservare il quasar, possiamo scegliere di far produrre interferenza ai due fasci, oppure di rivelare i singoli fotoni di ciascun fascio.

Proviamo a chiederci se otto miliardi di anni fa il singolo fotone è passato da entrambi i lati rispetto alla lontana galassia (come un’onda) oppure da un lato solo (come una particella). Ebbene, se continuiamo a mantenere una concezione oggettiva dell’universo, la risposta dipende da come decidiamo di osservarlo noi oggi!

Se oggi noi scegliamo di rivelare la figura di interferenza, allora otto miliardi di anni fa il fotone ha deciso di percorrere entrambi i cammini. Viceversa, se noi scegliamo di vedere il singolo fotone su un singolo cammino, allora otto miliardi di anni fa il fotone ha scelto di comportarsi come una particella!

Nel momento in cui noi cambiamo idea e lo osserviamo in un modo invece che nell’altro, il fotone che sta arrivando è già preparato alla nostra scelta!

In pratica, come dice l’articolo di J.Horgan (Le Scienze n.289), “i fotoni devono aver avuto una sorta di premonizione, per sapere come comportarsi in modo da soddisfare una scelta che sarebbe stata fatta da esseri non ancora nati su un pianeta ancora inesistente”!

Ciò che risolve il paradosso è che l’universo non si trova in uno stato pienamente oggettivo, ma le sue caratteristiche fisiche sono in parte determinate dall’osservatore cosciente (anche se solo a livelli quantistici si riesce a rivelare chiaramente tale piccola influenza).

  _____________________________________________________________

 IL SEGRETO DELL’UNIVERSO

MENTE E MATERIA NELLA SCIENZA DEL TERZO MILLENNIO_F.Coppola

domenica 24 febbraio 2008, 22.04.03 | newsmtesla

 

capitolo 5

V – La realtà è in parte creata dall’osservatore?

In definitiva, gli oggetti quantistici si trovano in certi stati che non sono sempre dotati di valore definito delle osservabili prima della misura: infatti è l’osservatore che costringe la natura a rivelarsi in uno dei possibili valori, e questo è determinato dall’osservazione stessa, cioè non esiste prima che avvenga la misurazione. Per introdurre una definizione apparentemente audace, ma che verrà giustificata in seguito (dal paragrafo XI in poi), le caratteristiche reali ed oggettive del sistema fisico sono definite solo quando vengono misurate, e quindi sono “create” in parte dall’atto dell’osservazione.

Questa affermazione può sembrare bizzarra, ma ha una validità molto più profonda di quanto si possa immaginare. Molti fisici (tra cui Einstein)  hanno inizialmente rifiutato questa insolita interpretazione, ma gli esperimenti hanno evidenziato che questa è l’unica soddisfacente.

La meccanica quantistica quindi introduce due elementi nuovi ed inaspettati rispetto alla fisica classica: una è appunto l’influenza dell’osservatore, che costringe lo stato a diventare un autostato; l’altra è la casualità nella scelta di uno tra i diversi possibili autostati (ognuno con una propria probabilità).

Il primo elemento inaspettato è la violazione dell’oggettività.

Il secondo è l’indeterminazione, che rappresenta un’inaspettata violazione della perfetta intelligibilità deterministica. Entrambi gli elementi sono estranei alla mentalità della fisica classica, cioè rispetto a quella concezione ideale (galileiana, newtoniana e perfino einsteiniana) che pretende che l’universo sia perfettamente oggettivo ed intelligibile.

La prima interpretazione della meccanica quantistica, che fu proposta da alcuni scienziati negli anni ’20, includeva la figura dell’osservatore come parte del sistema fisico osservato! Così la figura dell’osservatore cosciente fece capolino in una scienza fino ad allora considerata rigorosamente oggettiva (la fisica). Non a caso le grandezze fisiche misurabili in meccanica quantistica, come la posizione, l’energia, la quantità di moto, eccetera, vengono chiamate osservabili. Infatti si sottintende che la loro esistenza ha senso solo in funzione di una possibile osservazione.

Questo rivela la strana situazione in cui gli scienziati si trovano nell’analisi dei sistemi quantistici. Con la meccanica quantistica la scienza sembra essere arrivata a rivelare quella misteriosa frontiera tra soggetto ed oggetto che in precedenza era stata del tutto ignorata a causa del principio (nascosto e sottinteso) dell’oggettivazione: fino agli anni ‘20 la realtà poteva essere considerata del tutto “oggettiva” ed indipendente dall’osservazione di eventuali esseri coscienti. Ma con la formulazione della meccanica quantistica sembrò che si dovesse tener conto necessariamente della figura dell’osservatore cosciente!

_________________________________________________________

 IL SEGRETO DELL’UNIVERSO

MENTE E MATERIA NELLA SCIENZA DEL TERZO MILLENNIO_F.Coppola

VII – La reazione di Einstein.

domenica 24 febbraio 2008, 22.03.14 | newsmtesla

 

capitolo 7

VII – La reazione di Einstein.

La critica di Einstein e di altri fisici fu molto più radicale: essi sostennero che la meccanica quantistica era una teoria incompleta e provvisoria, che avrebbe dovuto essere perfezionata col tempo per eliminare alcuni aspetti indesiderati, sebbene funzionasse perfettamente sul piano sperimentale.

Le obiezioni di Einstein appaiono molto “logiche” e “realistiche”, ma erano errate. Col senno di poi, possiamo dire che questa fu una delle poche intuizioni errate di Einstein: la sua “fedeltà” alla concezione puramente oggettiva dell’universo fu così forte da indurlo a dubitare di una teoria – la meccanica quantistica – che lui stesso aveva contribuito a fondare!

Anzitutto Einstein non accettava che esistesse un’indeterminazione sulle misure quantistiche, ovvero che i risultati non fossero pienamente determinabili in anticipo: ciò, secondo Einstein, introduceva nella fisica l’influenza del “caso cieco”, per lui assolutamente inaccettabile. A questo proposito è rimasta celebre la sua frase: “Dio non gioca a dadi con il mondo”. Meno famosa è la risposta di Bohr: “Non è compito degli scienziati dire a Dio come funziona il mondo, ma solo scoprirlo”.

Inoltre Einstein non credeva alla possibilità di caratteristiche fisiche “non-oggettive”, ma riteneva che i valori delle osservabili esistessero oggettivamente anche prima della misura, indipendentemente dal fatto che venissero misurati o meno. Insomma, secondo Einstein (come probabilmente secondo il lettore o qualsiasi persona che non abbia ancora accettato il nuovo messaggio implicito nella meccanica quantistica) l’universo deve esistere oggettivamente, sia che noi l’osserviamo o meno! Per questo egli considerava la meccanica quantistica “incompatibile con ogni concezione ragionevole e realistica dell’universo”.

________________________________________________________________

 IL SEGRETO DELL’UNIVERSO

MENTE E MATERIA NELLA SCIENZA DEL TERZO MILLENNIO_F.Coppola

XI – Interferenza quantistica.

domenica 24 febbraio 2008, 22.02.22 | newsmtesla

 

capitolo 11

XI – Interferenza quantistica.

Iniziamo ad analizzare alcuni esperimenti quantistici davvero incredibili.

Molti dei seguenti esperimenti sono descritti in un ottimo articolo pubblicato su Le Scienze n.289 del 1992, La filosofia dei quanti di J.Horgan.

Seguiamo attentamente.

Partiamo da un esperimento di importanza fondamentale. Consideriamo una sorgente di particelle “classiche” che vengono inviate su un bersaglio: per esempio una mitragliatrice che spara verso di un muro distante10 metri(non in una direzione fissa, ma in modo da coprire tutto il muro). Quindi frapponiamo una “maschera” tra la sorgente ed il bersaglio, ovvero uno schermo forato, a circa2 metridal bersaglio: la maschera può essere una lastra di metallo con due fori rettangolari stretti e lunghi (che chiameremo “fenditure”), disposte come in figura 1.

Fig.1 – La maschera con le due fenditure

È evidente che sul bersaglio (sul muro) giungeranno solo i proiettili in corrispondenza dei due fori, mentre gli altri verranno fermati dalla maschera. In definitiva, i proiettili che colpiranno il bersaglio formeranno due rettangoli stretti e lunghi che saranno la “proiezione” sul bersaglio dei due fori della maschera (figura 2).

Fig. 2 – La maschera ed il bersaglio nel caso dei proiettili

Siamo nell’ambito della fisica classica ed è tutto chiaro e comprensibile.

Ora ripetiamo l’esperimento con delle onde al posto dei proiettili, per esempio delle onde sonore. In tal caso le onde colpiranno il bersaglio non soltanto in corrispondenza dei due fori, ma anche in altre parti del muro; se si potessero visualizzare le parti colpite con maggiore e minore intensità, vedremmo una tipica figura a frange detta figura di interferenza, che si estende ben oltre la proiezione delle fenditure. Ciò è dovuto ad un fenomeno ondulatorio detto interferenza: grazie a tale fenomeno, le onde possono colpire regioni del bersaglio che sarebbero irraggiungibili per i proiettili.

Fig. 3 – La figura di interferenza nel caso delle onde

Va aggiunto che se si tappa una delle due fenditure, l’interferenza non può più avere luogo, e la distribuzione delle onde sul bersaglio diventerà simile a quella dei proiettili, ovvero sullo schermo si vedrà la proiezione dell’altra fenditura, quella aperta (in realtà apparirà un po’ dispersa a causa di un fenomeno ondulatorio chiamato diffrazione, ma questo non cambia il nocciolo della questione). Si usa dire che in tal caso la figura di interferenza viene “distrutta”. Anche questo è perfettamente comprensibile in termini di fisica classica.

Passiamo adesso al caso quantistico: consideriamo degli elettroni e ripetiamo un esperimento simile, ovviamente su scale molto più piccole.

La sorgente emette elettroni distinti, cioè particelle e non onde, e quindi ci aspettiamo di avere la stessa situazione che si presentava nel caso dei proiettili: gli elettroni dovrebbero colpire solo due zone rettangolari in corrispondenza delle fenditure. Invece otteniamo una figura di interferenza come nel caso delle onde! Eppure non si tratta di onde, ma di particelle distinte.

Proviamo a rallentare il processo ed inviare un singolo elettrone alla volta: ovvero aspettiamo che un elettrone giunga sul bersaglio prima di far partire il successivo. Esso viene emesso come una particella singola; supera la maschera; e raggiunge il bersaglio come particella singola. Esso però può colpire zone del bersaglio irraggiungibili ad una particella, come se fosse un’onda! Continuando ad inviare singoli elettroni, uno alla volta, alla fine essi ricostruiscono la figura di interferenza tipica delle onde! Sebbene si tratti di particelle singole, nell’attraversare la maschera ciascuna di esse si comporta come un’onda estesa che produce interferenza.

 

Fig. 4 – Gli elettroni formano la figura di interferenza!

Ma com’è possibile che un singolo elettrone si comporti come un’onda e faccia interferenza con se stesso?! E da quale dei due fori passa il singolo elettrone? Per poter produrre l’interferenza, esso deve essere un’onda e passare contemporaneamente dai due fori, il che secondo noi non è possibile per una particella singola. In questo ragionamento chiaramente applichiamo all’elettrone il concetto di “particella classica”, ma esso non è più valido in meccanica quantistica.

In realtà, finché l’elettrone non viene rivelato sul bersaglio, esso non si trova mai in un punto preciso dello spazio (cioè in un autostato della posizione), ma esiste in uno stato potenziale astratto descritto da una funzione d’onda, che si propaga appunto come un’onda e non secondo una traiettoria definita.

De Broglie e Schrödinger tentarono di descrivere tutto il mondo quantistico in termini di onde, abolendo il concetto di particella. Bohr ed altri fisici però obiettarono che all’atto della rivelazione l’elettrone si comporta come una particella e non un’onda (la funzione d’onda collassa in un punto) e fecero notare altri aspetti tecnici che rendono vana la spiegazione puramente ondulatoria.

A questo punto possiamo immaginare di “smascherare il trucco” andando a vedere che cosa fa realmente l’elettrone nell’attimo in cui attraversa la maschera. Nella nostra convinzione infatti l’elettrone deve oggettivamente passare da uno dei due fori e non dall’altro (questo è il cosiddetto “realismo” di Einstein), e noi vogliamo “coglierlo” in quell’attimo per scoprire il suo segreto: sarebbe come osservare attentamente un prestigiatore e riuscire a scoprire l’attimo in cui effettua il suo trucco.

Ma per cogliere l’elettrone sul fatto, dobbiamo rivelarlo. Per far ciò, possiamo inviare sull’elettrone una debole luce e verificare se viene riflessa da esso. Quindi poniamo una debole sorgente luminosa dietro uno dei due fori, e vediamo se riusciamo a cogliere l’elettrone. Questo è sperimentalmente possibile, ma così facendo la figura di interferenza scompare! Infatti: o l’elettrone passa dal nostro foro, quindi viene individuato dal nostro rivelatore, e in quell’attimo diventa “particella reale”; oppure passa dall’altro foro, ma quando passa da un foro solo – sia esso onda o particella – non può produrre interferenza!

La meccanica quantistica non ci permette di avere contemporaneamente la figura di interferenza e la conoscenza del singolo foro da cui l’elettrone è passato. O l’uno o l’altro: o l’elettrone viene rivelato come particella oggettiva, e quindi non produce interferenza, o è un’onda estesa, ed in tal caso non passa da un solo foro, bensì da tutte e due (ma anche quest’ultima affermazione ha delle limitazioni e dovremmo dire: “è come se fosse passata da tutte e due”).

______________________________________________________________

 IL SEGRETO DELL’UNIVERSO

MENTE E MATERIA NELLA SCIENZA DEL TERZO MILLENNIO_F.Coppola

 

XII – La spiegazione ‘operativa’ non è esauriente.

domenica 24 febbraio 2008, 22.01.36 | newsmtesla

 

capitolo12

XII – La spiegazione ‘operativa’ non è esauriente.

Alcuni fisici in passato tendevano a sottovalutare tale fenomeno e preferivano dare una spiegazione “operativa” di quello che succede: per vedere l’elettrone mentre passa da un foro, dobbiamo osservarlo, quindi inevitabilmente dobbiamo perturbare il sistema e la figura di interferenza scompare.

I fisici “realisti” quindi non si meravigliavano più di tanto: abbiamo perturbato il sistema con una misura “invasiva”, ed esso si è adeguato:

che cosa c’è di tanto strano?

In realtà questa spiegazione, pur essendo parzialmente valida, ignora alcune implicazioni molto più profonde, rivelabili solo con altri esperimenti. Infatti è possibile fare scomparire la figura di interferenza con un’azione molto più “evanescente” di quella considerata finora, ovvero senza una misura invasiva. In pratica basta solo la “minaccia” di una misura a far cambiare stato al sistema! A tal proposito analizzeremo poco più avanti gli strabilianti esperimenti del gruppo di L.Mandel e di altri gruppi.

Prima però rimaniamo sull’esperimento dei due fori per notare un aspetto incredibile previsto dal fisico Wheeler, che smentisce l’apparente “ragionevolezza” della spiegazione “operativa” dell’esperimento (basata sul fatto che la misura è “invasiva”).

Gli esperimenti in questione possono essere effettuati indifferentemente su elettroni o su “fotoni”; i fotoni sono “quanti di luce”. Infatti a livello quantistico le particelle che noi chiamiamo “materiali” si comportano in un modo che per molti versi è simile a quello in cui si comportano i “campi di forze”, come per esempio i campi elettromagnetici (la luce è appunto un campo elettromagnetico che si propaga come un’onda).

Ovviamente vi sono varie differenze tra cosiddette “particelle materiali” e “campi di forze” (per esempio i primi sono “fermioni” e i secondi “bosoni”, il che crea delle differenza nel loro comportamento collettivo): tali differenze però non sono determinanti negli esperimenti che stiamo analizzando. In definitiva l’esperienza dei due fori si può effettuare anche con dei fotoni (quanti di luce), ed anzi risulta molto più semplice che con gli elettroni (è sufficiente utilizzare un laser).

 _____________________________________________________________

 

 

 IL SEGRETO DELL’UNIVERSO

MENTE E MATERIA NELLA SCIENZA DEL TERZO MILLENNIO_ F.Coppola

XV – La ‘conoscenza’ di un sistema ne altera lo stato.

domenica 24 febbraio 2008, 21.59.19 | newsmtesla

capitolo15

XV – La ‘conoscenza’ di un sistema ne altera lo stato.

All’inizio degli anni ’90 Mandel dell’Università di Rochester ed i suoi collaboratori hanno compiuto un esperimento straordinario, che potremo analizzare in un certo dettaglio.

Nel paragrafo XII avevamo visto che alcuni fisici in passato davano una banale interpretazione “operativa” dell’esperimento con le due fenditure: poiché la misurazione è necessariamente “invasiva”, è inevitabile che il sistema fisico alteri il suo stato.

Ma l’esperimento di Mandel ed altri di ottica quantistica a cui accenneremo più avanti hanno dimostrato che è sufficiente qualcosa di molto più evanescente di una misurazione per far cambiare lo stato fisico di un sistema: è sufficiente la conoscenza potenziale che possiamo avere di tale sistema! Magia? No, fisica contemporanea.

Horgan, nel suo articolo su Le Scienze n.289, riporta il commento scherzoso dei fisici Jaynes e Scully, che hanno parlato addirittura di “negromanzia medievale” a proposito di questi esperimenti. Lo stesso Horgan parla di “fotoni psichici” e si ricollega alla filosofia del celebre vescovo Berkeley (secolo XVIII), che può essere definita un “empirismo idealistico”. Berkeley affermò Esse est percipi, ovvero “esistere è essere percepito”.

Berkeley intendeva dire che l’esistenza di una qualsiasi entità in natura può essere solo testimoniata da una percezione cosciente, per cui tutta la realtà può essere ridotta ad atti di consapevolezza, ovvero a idee, senza che sia necessario che la materia esista oggettivamente! 

______________________________________________________________

 IL SEGRETO DELL’UNIVERSO

MENTE E MATERIA NELLA SCIENZA DEL TERZO MILLENNIO_ F.Coppola

domenica 24 febbraio 2008, 16.52.44 | newsmtesla

qst è solo il principio” ……….. :)

 

work in progress

 

 



Iscriviti

Ricevi al tuo indirizzo email tutti i nuovi post del sito.