Visualizzazione post con etichetta Scienza. Mostra tutti i post
Visualizzazione post con etichetta Scienza. Mostra tutti i post

venerdì 20 aprile 2012

Scienza


Il termine animismo è usato in antropologia per classificare le tipologie di religioni o pratiche di culto nelle quali vengono attribuite qualità divine o soprannaturali a cose, luoghi o esseri materiali. Queste religioni cioè non identificano le divinità come esseri puramente trascendenti, bensì attribuiscono proprietà spirituali a determinate realtà materiali.
Questo tipo di credenze è così chiamato perché si basa sull'idea di un certo grado di identificazione tra principio spirituale divino (anima) e aspetti “materiali” di esseri e realtà (anche "demoni" e altri enti).
La posizione filosofica corrispondente all'animismo viene di solito chiamata panpsichismo.

Il termine animismo, per quanto riferibile a concezioni e credenze molto antiche, è stato coniato solo in tempi più recenti.
Esso fu usato per la prima volta nel 1720 in ambito medico, dal chimico e biologo Georg Ernst Stahl per definire una teoria secondo la quale l'anima svolgeva una funzione diretta nel controllo di ogni funzione corporea, in particolare come meccanismo di difesa nei confronti degli agenti patogeni. Si trattava di una teoria rivelatasi scientificamente di scarso successo, ma simmetrica a livello concettuale alla teoria del flogisto, formulata sempre da Stahl in ambito chimico, che teorizzava la presenza in ogni tipo di materiale di un ineffabile componente (il flogisto) che sarebbe stato liberato durante la combustione giustificando gli effetti di quest'ultima.
Successivamente, nel 1871, l'espressione animismo è stata utilizzata dall'antropologo inglese Edward Tylor per definire una forma primitiva di religiosità basata sull'attribuzione di un principio incorporeo e vitale (anima) a fenomeni naturali, esseri viventi e oggetti inanimati, in special modo per tutto ciò che incide direttamente con la vita di queste popolazioni ed è essenziale per la loro sopravvivenza: i prodotti alimentari e la loro caccia e raccolta, i materiali per costruire utensili, monili e ripari, i fenomeni atmosferici, la morfologia stessa del territorio. Tutto ciò viene riconosciuto come animato e progressivamente associato a forme di venerazione, spesso direttamente funzionali alla buona riuscita delle azioni quotidiane per vivere.
Questo culto dell'anima, semplice, spontaneo, irrazionale, basato sulle esperienze comuni e quotidiane, sarebbe stato alla base, secondo Tylor, di un'"evoluzione" del pensiero religioso che avrebbe condotto, di pari passo con la civilizzazione, a religioni sempre più strutturate, con pratiche sociali ben definite, fino a svilupparsi attorno alla figura di un essere creatore.
Il senso del termine animismo così come definito da Tylor è quello oggi di uso più comune per descrivere le caratteristiche di questo tipo di religiosità, per quanto la spiegazione da lui fornita dell'animismo come religione primitiva e "immatura", con le sue analogie con lo sviluppo cognitivo del bambino, sia stata, invece, ampiamente criticata e superata in antropologia.
In particolare, della teoria di Tylor viene contestato l'etnocentrismo insito nell'assunto che i temi mitologici alla base delle religioni animistiche, in quanto frutto di una concezione superstiziosa e primitiva della natura, potessero svilupparsi indipendentemente in varie parti del mondo per progredire, altrettanto indipendentemente, verso un'elaborazione più complessa, più "elevata" dei valori religiosi.
Si trattava di un approccio psicologico simile a quello utilizzato dall'antropologo James Frazer, con la pubblicazione nel 1890 de Il ramo d'oro, per indagare il ruolo sociale ricoperto dalla magia nelle società umane più antiche.
Un primo approccio alternativo a quello di Tylor allo studio delle culture primitive viene proposto nel 1903 da Leo Frobenius con il concetto di kulturkreislehre («teoria dell'area culturale») basata sull'ipotesi che i temi mitologici delle civiltà più antiche non si siano sviluppati in modo indipendente, ma si siano diffusi, invece, progressivamente in Mesopotamia e India a partire da un nucleo primitivo africano, successivamente nelle isole del Pacifico, e da lì nell'America Centrale e equatoriale.
Studi sull'animismo sono presenti anche nella letteratura psicoanalitica. All'interno di Totem e tabù di Sigmund Freud, l'animismo viene considerato una fase primitiva dello sviluppo sociale. Una recente e originale chiave di lettura ispirata alla tradizione junghiana afferma invece che l'animismo, lungi dall'essere l'ingenuo prodotto di un pensiero pre-logico come sosteneva l'antropologo Lévy-Bruhl, nasce piuttosto da una psicologia tutta incentrata sugli aspetti soggettivi della psiche (sensazione e intuizione). Da tale concezione si sarebbe creato un sistema culturale basato sulla proiezione dell'inconscio sulla Natura, ad esempio su luoghi sacri, o identificandosi con lo spirito degli animali totemici, recuperando così competenze ancestrali; ci si confronta con l'anima di defunti o di nemici per affrontare e superare i propri conflitti interni.

Particolare rilevanza ha assunto anche il dibattito tra animisti e meccanicisti, riguardante la seguente questione: gli organismi viventi sono delle macchine perfezionate, o il risultato miracoloso di un principio spirituale? È la materia o l'anima a produrre la vita? Nell'Ottocento, con l'avanzare del positivismo, la domanda sembrava risolta dalla scienza in favore della tesi meccanica, sulla base del fatto che l'animismo, per spiegare la vita, faceva ricorso ad un principio autonomo, appunto l'anima, che non poteva essere oggettivamente studiato, e risultava quindi oscuro, non definibile, e scientificamente retrogrado. Poiché inoltre escludeva la possibilità di una dialettica materialista, appariva persino reazionario (specie negli ambienti marxisti).
Dietro la contrapposizione tra meccanicismo e animismo si celava sostanzialmente l'antitesi tra determinismo e finalismo: il primo ipotizzava che il mondo fosse soggetto a leggi causali senza un fine né un progetto; il secondo affermava invece che gli organi viventi sono talmente perfetti che non possono essere frutto del caso. Più recentemente, tuttavia, l'anima ha assunto altre connotazioni che le consentono di sfuggire alle obiezioni del meccanicismo: oggi, infatti, la fisica ammette una quota di casualità nei fenomeni naturali (principio di indeterminazione di Heisenberg), e la biologia, d'altro canto, riconosce che il finalismo vitalistico è tutt'altro che perfetto, essendo la vita soggetta a morte, malattie, e mostruosità. Così l'animismo non rifiuta più la ricerca sperimentale, ma ne riconosce i limiti nel comprendere la natura della vita, che non è riducibile a semplici fenomeni fisico-chimici.
Mentre infatti nell'organismo c'è un processo di auto-costruzione e auto-mantenimento, la macchina viene costruita dall'esterno. La macchina, inoltre, è costruita dall'uomo in vista di un fine, quindi non manca di finalismo, anzi, ha una finalità ben definita e rigida. Nell'organismo animato, invece, le funzioni sono in parte sostituibili l'una con l'altra poiché gli organi sono polivalenti: essi cioè hanno meno finalità e più potenzialità.
Ancora, la macchina è il prodotto di un calcolo a cui soggiace in maniera univoca, mentre l'organismo opera secondo criteri empirici, nel senso che la vita è esperienza, improvvisazione, tentativo in tutte le direzioni. Da ciò derivano le mostruosità che la vita comporta, trovandosi in un equilibrio precario e continuamente da ristabilire.
In definitiva, la concezione meccanica dell'organismo non sarebbe che un residuo antropomorfico, che cerca di spiegare la formazione della vita assimilandola al procedimento usato dall'uomo per fabbricare una macchina. Una concezione, affiorata la prima volta in Cartesio, che considera Dio alla stregua di un fabbro intento a costruire macchine perfette e rispondenti a degli scopi prefissati. E così l'accusa di finalismo, abitualmente rivolta all'animismo, viene da quest'ultimo ribaltata: la metafisica antropomorfa è alla base del meccanicismo, non del vitalismo.
Concezioni animiste radicalmente anti-antropomorfe risulta peraltro che fossero presenti sin dall'antichità, in particolare nell'antica Grecia, contrapponendosi già da allora alle prime forme embrionali del meccanicismo. Così in Platone, e poi successivamente nel neoplatonismo, l'anima era considerata il principio vitale, non componibile, che sta alla base del composto, in opposizione alle teorie atomiste di Democrito, secondo il quale invece gli esseri viventi erano un semplice aggregato di atomi.
Per i platonici l'anima è sempre stata vista come il principio più semplice che si possa concepire, l'unità che si articola nella molteplicità. Mentre il composto può nascere (quando si abbia aggregazione) e morire (quando viene scomposto), l'anima è indistruttibile essendo qualcosa di straordinariamente semplice. Il finalismo viene rigettato perché l'Uno, da cui ogni essere proviene, genera in maniera non intenzionale o voluta, ma inconsapevolmente. Ne deriva che la natura è tutta pervasa da una comune Anima del mondo (concetto di derivazione anche orientale).
Esponente dell'animismo neoplatonico nel Novecento fu Bergson, secondo il quale la vita non segue binari rigidi e prefissati, ma nasce da infinite potenzialità: alcune si bloccano, altre invece proseguono. L'evoluzione della natura è creatrice, perché deriva da uno slancio vitale inesauribile, privo di scopi determistici.

mercoledì 1 febbraio 2012

Scienza


Nell’insieme, un sentimento è la “veduta” momentanea di una parte di quel paesaggio del corpo. Esso ha un contenuto specifico (lo stato del corpo) e specifici sistemi neurali di sostegno (il sistema nervoso periferico e le regioni del cervello che integrano i segnali correlati con la regolazione e la struttura del corpo). Poiché il senso di tale paesaggio del corpo è affiancato, nel tempo, alla percezione e alla reminiscenza di qualcos’altro che non è parte del corpo - un viso, una melodia, un aroma - i sentimenti finiscono con l’essere «qualificatori» di tale qualcos’altro. Ma c’è di più, nel sentimento. Come spiegherò più avanti, lo stato qualificante del corpo, positivo o negativo, è accompagnato e costruito da una corrispondente modalità di pensiero: veloce e ricca di idee, quando lo stato corporeo è nella fascia positiva, piacevole, dello spettro; lenta e ripetitiva, quando esso volge verso la fascia dolorosa.

In tale prospettiva, i sentimenti sono i sensori per l’accoppiamento - o il mancato accoppiamento - tra natura e circostanze. Per natura intendo sia quella che abbiamo ereditato come pacchetto di adattamenti geneticamente organizzati, sia quella che abbiamo acquisito nello sviluppo individuale, attraverso interazioni con l’ambiente fisico e sociale, in modo consapevole e voluto oppure no. I sentimenti, insieme con le emozioni da cui provengono, non sono un lusso: essi servono come guide interne, ci aiutano a comunicare agli altri significati che possono guidare anche loro. E i sentimenti non sono né inafferrabili né sfuggenti; contrariamente a quanto ritiene l’opinione scientifica tradizionale, essi sono altrettanto cognitivi quanto gli altri precetti. Sono il risultato di una straordinaria sistemazione fisiologica che ha fatto del cervello l’avvinto uditorio del corpo.

I sentimenti ci consentono di dare un’occhiata all’organismo in pieno fervore biologico, di cogliere un riflesso dei meccanismi della vita stessa nel loro operare.

Se non fosse per la possibilità di sentire stati del corpo che sono intrinsecamente consacrati a essere dolorosi o piacevoli, nella condizione umana non vi sarebbero sofferenza o beatitudine, brama o mercé, tragedia o gloria.

A prima vista, l’immagine qui proposta dello spirito umano può non essere intuitiva, né confortante. Nel tentativo di gettare luce sui complessi fenomeni della mente umana, rischiamo di degradarli e di perderli con la spiegazione; ma ciò accadrà soltanto se confonderemo un fenomeno con i componenti e i processi separati che possono ritrovarsi dietro la sua apparenza - e non è questo che voglio suggerire.

Scoprire che un particolare sentimento dipende dall’attività di un certo numero di specifici sistemi cerebrali in interazione con un certo numero di organi del corpo non sminuisce lo status di quel sentimento come fenomeno umano. Né l’angoscia né l’euforia che amore o arte possono portare con se risultano svalutate dal comprendere alcune delle miriadi di processi biologici grazie ai quali esse sono quel che sono. Dovrebbe essere vero proprio il contrario: il nostro senso di meraviglia dovrebbe aumentare, dinanzi agli intricati meccanismi che rendono possibile tale magia. I sentimenti formano la base di quello che da millenni gli esseri umani descrivono come lo spirito o l’anima dell’uomo.

Questo libro tratta anche un terzo argomento, collegato con i primi due: quello in base al quale il corpo, così come è rappresentato nel cervello, può costituire l’indispensabile cornice di riferimento per i processi neurali che noi avvertiamo come mente. Proprio il nostro organismo, piuttosto che qualche realtà esterna assoluta, è usato come riferimento base per le costruzioni che elaboriamo del mondo circostante e di quel senso di soggettività, sempre presente, che è parte integrante delle nostre esperienze; e le nostre azioni migliori e i pensieri più elaborati, le nostre gioie e i nostri dolori più grandi, tutti impiegano il corpo come riferimento.

Per quanto sulle prime possa sorprendere, la mente esiste dentro e per un organismo integrato: le nostre menti non sarebbero quello che sono se non fosse per l’azione reciproca di corpo e cervello - nel corso dell’evoluzione, durante lo sviluppo dell’individuo e nel momento presente. La mente dovette prima essere per il corpo, o non sarebbe potuta essere. Sulla base del riferimento che il corpo fornisce con continuità, la mente può allora avere a che fare con molte altre cose, reali e immaginarie.

Quest’idea si radica sui seguenti enunciati:

1) il cervello umano e il resto del corpo costituiscono un organismo non dissociabile, integrato grazie all’azione di circuiti regolatori neurali e biochimici interagenti (che includono componenti endocrini, immunitari e nervosi autonomi);

2) l’organismo interagisce con l’ambiente come un insieme: l’interazione non è del solo corpo né del solo cervello;

3) i processi fisiologici che noi chiamiamo «mente» derivano dall’insieme strutturale e funzionale, piuttosto che dal solo cervello: soltanto nel contesto dell’interagire di un organismo con l’ambiente si possono comprendere appieno i fenomeni mentali. Il fatto che l’ambiente sia, in parte, un prodotto dell’attività stessa dell’organismo semplicemente sottolinea la complessità delle interazioni che bisogna tenere in conto.

Quando si parla di cervello e di mente, non è consuetudine fare riferimento agli organismi. Di fronte all’evidenza che la mente scaturisce dall’attività dei neuroni, si discute solo di questi, come se il loro funzionamento potesse essere indipendente da quello del resto dell’organismo. Ma via via che studiavo i disturbi della memoria, del linguaggio e della ragione, presenti in numerosi esseri umani colpiti da lesioni al cervello, sempre più mi si imponeva l’idea che l’attività mentale - nei suoi aspetti più semplici come in quelli più alti - richiede sia il cervello sia il resto del corpo. Quest’ultimo, a mio avviso, fornisce al primo più che un puro sostegno e una modulazione: esso fornisce la materia di base per le rappresentazioni cerebrali.

E un’idea sostenuta da fatti; vi sono ragioni che la rendono plausibile e ragioni per le quali sarebbe bello se le cose stessero davvero così. Fra queste ultime, soprattutto la considerazione che la precedenza del corpo qui suggerita potrebbe gettar luce su una delle più tormentose domande che assillano gli esseri umani da quando hanno cominciato a indagare sulla mente: come avviene che siamo coscienti del mondo attorno a noi, che sappiamo ciò che sappiamo, che sappiamo di sapere?

Nella prospettiva dell’ipotesi accennata, amore e odio e angoscia, qualità come gentilezza e ferocia, la soluzione pianificata di un problema scientifico o la creazione di un nuovo artefatto si basano tutti su eventi neurali all’interno di un cervello, purché questo sia stato e sia in interazione con il corpo cui appartiene. L’anima respira attraverso il corpo, e la sofferenza, che muova dalla pelle o da un’immagine mentale, avviene nella carne.

Damasio, L’errore di Cartesio, Adelphi , pag. 22

lunedì 30 gennaio 2012

Scienza


Il"cibo spazzatura". Perché ci piace tanto? Che cosa spinge a ordinare un hamburger e a chiedere una porzione doppia di patatine fritte, possibilmente con salse dai colori improbabili? Perché questi alimenti creano dipendenza (junk food addiction la chiamano negli Usa, con lo stesso termine che si usa per le droghe)? E, soprattutto, come fare per evitare il consumo compulsivo di cibo non solo poco ricco di principi nutritivi ma addirittura dannoso per la nostra salute e responsabile di gran parte delle patologie legate all'obesità?
La ricerca più interessante sull'argomento è stata fatta in America nel 2010 presso l'Istituto Scripps di Jupiter ("Dopamine D2 receptors in addiction-like reward dysfunction and compulsive eating in obese rats" ). Ha dimostrato che il junk food agisce come una vera e propria droga sull'organismo, inducendo in chi ne consuma abitualmente una dipendenza paragonabile a quella di una sostanza stupefacente qualsiasi. Abbiamo intervistato la dottoressa Valentina Chiozzi, biologa nutrizionista e dottore in Scienze fisiologiche e neuroscienze, per farci spiegare meglio come stanno le cose.
D: Dottoressa Chiozzi, perché questi cibi attraggono così il nostro palato?
R: Studi come quello americano hanno scoperto che questo tipo di alimenti, arricchiti in laboratorio con sali, zuccheri e grassi per renderli più appetibili al nostro palato, agiscono sui recettori della dopamina in maniera del tutto simile a come fanno le droghe. In altre parole, innescano quel meccanismo che porta poi alla dipendenza fisica.
D: Come accade?
R: La dopamina è un ormone endogeno, cioè prodotto direttamente dal nostro corpo: questo tipo di cibo stimola i recettori che secernono l'ormone ma non appena questi recettori non sono più stimolati il corpo sente 'la mancanza' dell'ormone. Ecco spiegato perché questo tipo di cibo, se consumato abitualmente, crea una dipendenza non solo psicologica ma anche fisica. In medicina si usa un termine, "craving", per indicare la ricerca spasmodica di questo tipo di cibo junk, spazzatura.D: Parliamo non solo di cosa è ma anche di come è consumato il junk food.
R: Questo è un altro aspetto importante del problema, da non sottovalutare. Il junk food ha indotto nei consumatori una nuova esperienza di masticazione: se i cibi sono facili da masticare e deglutire, perché molto morbidi, si avrà voglia di buttar giù velocemente un secondo boccone, e poi ancora un altro e così via. Non solo: il junk food ha introdotto la brutta abitudine di non consumare i pasti con calma seduti a tavola, ma di masticare continuamente snack dalla mattina alla sera, in maniera compulsiva, quasi fossimo dei ruminanti, magari davanti alla televisione o, per i ragazzi, con un videogioco in mano. Non dimentichiamo poi che un cosiddetto pranzo completo al fast food è ricchissimo di grassi e può arrivare a contenere 2000 calorie, cioè il fabbisogno giornaliero calorico di una persona media. Una cifra spropositata, ma assolutamente priva di principi nutritivi come le vitamine e i sali minerali.
D: Come evitare la dipendenza da junk food?
R: Bisogna cominciare da piccoli: è stato dimostrato che l'educazione al gusto dei bambini comincia già nel ventre materno. Fondamentale poi è il periodo di svezzamento, quando il bambino si accosta ai sapori. Una madre incinta che abusa di junk food trasmette al futuro bambino la propensione per questo gusto. Vorrei ricordare che non stiamo parlando di un problema meramente estetico: l'obesità infantile è in aumento di tutto il mondo occidentale e comporta patologie legate a una eccessiva assunzione di cibi ricchi di conservanti, coloranti e zuccheri, come i succhi di frutta. Penso ad esempio al deficit di attenzione, all'iperattività e a tutte le malattie metaboliche o dell'apparato cardio-vascolare.

mercoledì 30 novembre 2011

Scienza


Antoine-Laurent de Lavoisier (Parigi, 26 agosto 1743 – Parigi, 8 maggio 1794) è stato un chimico francese. Enunciò la prima versione della legge di conservazione della massa, riconobbe e battezzò l'ossigeno (1778), confutò la teoria del flogisto, ed aiutò a riformare la nomenclatura chimica. Lavoisier viene spesso indicato come il padre della chimica moderna.

Nato il 26 agosto 1743 a Parigi, Antoine Laurent Lavoisier frequentò il Collège des Quatre-Nations dal 1754 al 1761, studiando chimica, botanica, astronomia, e matematica. Chimico, naturalista, agronomo, economista ed esattore delle imposte, Lavoisier delineò, a partire dagli anni sessanta del secolo, con una serie ininterrotta di ricerche, una nuova rivoluzionaria immagine della chimica. La sua prima pubblicazione di chimica apparve nel 1764. Nel 1767 lavorò su uno studio geologico dell'Alsazia-Lorena. Venne eletto membro dell'Accademia francese delle scienze nel 1768 all'età di 25 anni. Nel 1771, sposò la tredicenne Marie-Anne Pierrette Paulze, che divenne nel tempo una sua collaboratrice scientifica, tradusse opere dall'inglese e illustrò i suoi libri. A partire dal 1775 servì nell'"Amministrazione delle polveriere reali", dove il suo lavoro portò a miglioramenti nella produzione di polvere da sparo e all'introduzione di un nuovo metodo per la preparazione del salnitro.
Alcuni dei più importanti esperimenti di Lavoisier esaminarono la natura della combustione. Attraverso questi esperimenti, dimostrò che la combustione è un processo che coinvolge la combinazione di una sostanza con l'ossigeno. Dimostrò anche il ruolo dell'ossigeno nella respirazione di animali e piante, così come nell'arrugginimento del metallo. La spiegazione data da Lavoisier alla combustione rimpiazzò la teoria del flogisto, la quale postulava che i materiali, quando bruciano, rilasciano una sostanza chiamata flogisto. Scoprì inoltre che l'aria infiammabile di Henry Cavendish che chiamò idrogeno (dal greco "formatore d'acqua"), si combinava con l'ossigeno per produrre una rugiada che, come riportò Joseph Priestley, appariva essere acqua. Il lavoro di Lavoisier era parzialmente basato su quello di Priestley, ma ad ogni modo, egli cercò di prendersi il merito delle scoperte di quest'ultimo. Questa tendenza ad usare i risultati di altri senza riconoscerlo e quindi trarre le proprie conclusioni, si dice che fosse stata una caratteristica di Lavoisier. In Sur la combustion en general, del 1777 e in Considérations Générales sur la Nature des Acides, del 1778, dimostrò che l'"aria" responsabile della combustione era anche fonte di acidità. Nel 1779, chiamò questa parte dell'aria "ossigeno" (dal greco "formatore d'acido"), e l'altra "azoto" (dal greco "senza vita"). In Reflexions sur le Phlogistique, 1783, Lavoisier mostrò che la "teoria del flogisto" era inconsistente.
Gli esperimenti di Lavoisier furono tra i primi esperimenti chimici veramente "quantitativi" ad essere condotti. Egli dimostrò che, anche se la materia cambia il suo stato con una reazione chimica, la quantità di materia è la stessa all'inizio e alla fine di ogni reazione. Bruciando fosforo e zolfo nell'aria, dimostrò che il prodotto pesava più della materia iniziale e il peso acquisito era stato preso dall'aria. Questi esperimenti fornirono la prova per la legge di conservazione della massa (in una reazione chimica la massa dei reagenti è esattamente uguale alla massa dei prodotti). Lavoisier investigò anche sulla composizione dell'acqua, e battezzò i suoi componenti come ossigeno e idrogeno. Assieme al chimico francese Claude-Louis Berthollet e ad altri studiosi, Lavoisier ideò una nomenclatura chimica, ovvero un sistema di nomi che serve da base al sistema moderno. Descrisse il tutto nel suo Méthode de nomenclature chimique (Metodo di Nomenclatura Chimica, 1787). Questo sistema viene ancor oggi largamente usato, compresi i nomi di acido solforico, solfati e solfiti. Il suo Traité Élémentaire de Chimie (Trattato di chimica elementare, 1789), è considerato il primo moderno libro di testo di chimica, e presentava una visione unificata delle nuove teorie della chimica, conteneva una chiara enunciazione della "legge di conservazione della materia",[2] e negava l'esistenza del flogisto. Inoltre, Lavoisier chiarificò il concetto di elemento come sostanza semplice che non può essere scomposta da nessun metodo conosciuto dell'analisi chimica, e concepì una teoria della formazione dei composti chimici a partire dagli elementi. In aggiunta stilò una lista di elementi, o sostanze, che non potevano essere scomposte, che includeva ossigeno, azoto, idrogeno, fosforo, mercurio, zinco, e zolfo. La sua lista, comunque, includeva anche luce e calorico, che credeva essere sostanze materiali.
I contributi fondamentali di Lavoisier alla chimica, furono il risultato di uno sforzo conscio di far rientrare tutti gli esperimenti all'interno di una singola struttura di teorie. Egli stabilì l'uso consistente della bilancia chimica, usò l'ossigeno per rovesciare la "teoria del flogisto", e sviluppò un nuovo sistema di nomenclatura chimica, che sosteneva che l'ossigeno era un costituente essenziale di tutti gli acidi (il che si rivelò in seguito vero nella maggior parte dei casi). Per la prima volta la nozione moderna di elementi viene impostata sistematicamente; i pochi elementi della chimica classica fecero strada al sistema moderno, e Lavoisier elaborò le reazioni nelle equazioni chimiche che rispettavano la conservazione della massa (si veda ad esempio il ciclo dell'azoto).
Creò anche la prima rivista di chimica specializzata, le "Annales de chimie".

Di importanza fondamentale nella vita di Lavoisier fu il suo studio della legge. Questo lo portò a un interesse per la politica francese e, come risultato, poté, all'età di 26 anni, divenire un Fermier Général (in pratica, un esattore in appalto di vari tipi di tasse). Nello svolgere questa attività cercò di introdurre riforme nel sistema monetario e fiscale francese. Mentre lavorava per il governo, aiutò a sviluppare il sistema metrico decimale, per garantire l'uniformità di pesi e misure in tutta la Francia. Essendo uno dei 28 esattori francesi che non avevano lasciato precipitosamente il territorio nazionale, Lavoisier poté essere catturato e processato come traditore dai rivoluzionari nel 1794 e ghigliottinato assieme al suocero e gli altri colleghi a Parigi, all'età di 51 anni. Il suo principale accusatore fu il rivoluzionario e chimico dilettante Jean-Paul Marat (1743 - 1793), al quale Lavoisier aveva in precedenza rigettato la domanda di accesso all'Accademia delle Scienze. Paradossalmente, Lavoisier fu uno dei pochi liberali nella sua posizione. La sua importanza per la scienza venne espressa dal matematico torinese di origine francese Joseph-Louis Lagrange che si dolse della decapitazione dicendo:
« Alla folla è bastato un solo istante per tagliare la sua testa; ma alla Francia potrebbe non bastare un secolo per produrne una simile. »

sabato 26 novembre 2011

Scienza


Una interfaccia cervello-computer, spesso consciuta dal termine inglese Brain-computer interface (BCI), rappresenta un mezzo di comunicazione diretto tra un cervello (o più in generale parti funzionali del sistema nervoso centrale), e un dispositivo esterno quale ad esempio un computer. Nelle classiche BCI mono-direzionali, il dispositivo esterno riceve comandi direttamente da segnali derivanti dall'attività cerebrale, quali ad esempio il segnale elettroencefalografico. Le interfacce cervello computer monodirezionali rappresentano quindi la funzione complementare a quella delle neuroprotesi , che invece sono dedicate tipicamente al sistema nervoso periferico. Le BCI bi-direzionali combinano il descritto canale di comunicazione con una linea di ritorno che permetterebbe lo scambio di informazioni tra il dispositivo esterno e il cervello.


Interfaccia Mentale - Cervello-Computer


Per interfaccia Mentale, si intende un'interfaccia che permette in modo non invasivo di controllare un qualsiasi apparato digitale (computer e videogames ecc...) per mezzo delle onde cerebrali. Questa interfaccia può anche essere un casco o cuffiette dotate di sensori che né rilevano le onde cerebrali.

Questa importantissima scoperta si deve a:

ing.Vinicio De Bortoli

prof.Ugo Licinio


Nel 1984 scoprono e brevettano la prima interfaccia non invasiva per la decodifica delle onde cerebrali, da questo principio venne poi creato il Mindball, il Neurosky, e molte altre interfacce che usano le onde cerebrali.

Nel1985 il principio viene brevettato anche in Spagna

Il principio da lui scoperto è stato utilizzato anche per lo sviluppo di diverse BCI o Brain Computer Interface, chiamata anche Interfaccia umano-macchina o anche BMI, Brain Machine Interface più evolute come:

-Neurosky La Sega Master System usò questa sua scoperta, per creare una interfaccia neurale per controllare i video giochi .

-Emotiv Systems sistema che fa uso di un caschetto Wifi per controllare il PC a distanza al posto del Mouse.

Lo stesso principio è utilizzato per controllare a distanza telefonini di nuova generazione.

L'interfaccia da lui scoperta è stata utilizzata per suonare il piano e per altre aplicazioni di tipo medico per persone con problemi motori eHandicap.

Un progetto per i disabili

Progetto Carozzella mobile per persone svantaggiate realizzato grazie alla tecnologia della BCI dall'università di Singapore.
http://www.bricerebsamen.com/project/

Nel contesto dell'ingegneria biomedicae della neuroingegneria , il ruolo svolto dalle BCI è nella direzione di sistemi di supporto funzionale e ausilio per persone condisabilità. L'acquisizione e l'interpretazione di segnali elettroencefalografici è stata ad oggi utilizzata con successo per comandare il movimento di unasedia a rotelle su percorsi predefiniti[1], o lasintesi vocale di un set definito di parole[2]. Applicazioni nel campo della domotica sono in fase di studio.

domenica 13 novembre 2011

Scienza


Santiago Ramón y Cajal (1 Maggio 1852 - 17 ottobre 1934)è stato un patologo , istologo , neuroscienziato e premio Nobel spagnolo . Le sue indagini pionieristiche della struttura microscopica del cervello furono originali: è considerato da molti il padre della moderna neuroscienza . E 'stato abile nel disegno, e centinaia di sue illustrazioni di cellule cerebrali sono ancora utilizzate per scopi didattici oggi.
Figlio di medico e docente di anatomia Justo Ramón e Cajal Antonia, Ramón y Cajal era nato aragonese,i genitori erano di Petilla de Aragón in Navarra , Spagna . Da bambino è stato trasferito tra molte scuole differenti a causa del suo comportamento e del suo atteggiamento anti-autoritario. Un esempio estremo della sua precocità e la ribellione è la sua prigionia all'età di undici anni per distruggere la porta della città con un cannone artigianale. Era un appassionato pittore, artista e ginnasta. Ha lavorato per un certo tempo come un calzolaio e barbiere, ed era ben noto per il suo atteggiamento battagliero.
Ramón y Cajal ha frequentato la scuola di medicina della Università di Saragozza , da cui si è laureato nel 1873. Dopo un concorso, ha lavorato come medico ufficiale nel l'esercito spagnolo . Ha preso parte a una spedizione a Cuba nel 1874-75, dove ha contratto la malaria e la tubercolosi . Dopo il ritorno in Spagna ha sposato Silveria Fañanás García nel 1879, con la quale ha avuto quattro figlie e tre figli. Nel 1877, ha conseguito la laurea in Medicina a Madrid. Ramon y Cajal è stato nominato professore della Universidad de Valencia nel 1881. In seguito ha tenuto cattedre sia Barcellona e Madrid. E' stato direttore del Museo di Saragozza (1879), direttore dell'Istituto Nazionale di Igiene (1899), e fondatore del Laboratorio de Investigaciones Biológicas (1922), in seguito ribattezzata l' Istituto Cajal , o Cajal Institute . Morì a Madrid nel 1934, all'età di 82 anni.

I Primi lavori Ramón y Cajal li compi' presso le Università di Saragozza e Valencia , dove si è concentrato sulla patologia di infiammazione , la microbiologia del colera , e la struttura delle cellule e dei tessuti epiteliali. E' stato fino al suo trasferimento presso l'Università di Barcellona nel 1887 dove ha imparato la preparazione del nitrato d'argento di Golgi e rivolse la sua attenzione al sistema nervoso centrale . Durante questo periodo ha fatto studi approfonditi di materiali neurali che coprono molte specie e le regioni più importanti del cervello.
Ramón y Cajal ha dato diversi importanti contributi alla neuroanatomia. Ha scoperto il cono di crescita assonale, e ha fornito la prova definitiva di ciò che in seguito sarebbe stato conosciuto come "teoria del neurone", dimostrando sperimentalmente che il rapporto tra le cellule nervose non era uno di continuità, ma piuttosto di contiguità. "Teoria del neurone" sta a fondamento delle moderne neuroscienze.
Ha fornito una descrizione dettagliata dei tipi di cellule associate a strutture nervose, e prodotto eccellenti rappresentazioni di strutture e la loro connettività.
Era un sostenitore dell'esistenza di spine, anche se non li riconosce come il luogo di contatto a partire da cellule presinaptiche. Era un sostenitore di polarizzazione della funzione delle cellule nervose e il suo studente Lorente de No avrebbe continuato lo studio di input / output dei sistemi di teoria cavo e alcune delle prime analisi del circuito di strutture neurali.
Nel dibattito delle teorie di reti neurali ( teoria del neurone , la teoria reticolare ) Ramón y Cajal era un feroce difensore della teoria del neurone .
Ha scoperto un nuovo tipo di cellula,che porta il suo nome: la cellula interstiziale di Cajal . Questo non è neuronale o gliale, ma una cella che è una via di mezzo, di vitale mediazione, neurotrasmissione da nervi intestinale liscia a cellule muscolari.
Nel suo libro del 1894 Lecture Croonian , ha suggerito in una metafora estesa che cellule cortico-piramidali possono diventare più elaborate con il tempo, come un albero cresce e estende i suoi rami. Ha anche dedicato una notevole parte del suo tempo allo studio dell'ipnosi (che ha usato per aiutare la moglie con la nascita del lavoro) e di fenomeni parapsicologici, ma un libro che aveva scritto su queste aree si è perso durante la Guerra civile spagnola.

Tra le sue molte distinzioni e appartenenze sociali, Ramón y Cajal è stato anche fatto dottore onorario di Medicina delle Università di Cambridge e di Würzburg e onorario Dottore in Filosofia della Università di Clark .
Ha pubblicato oltre 100 lavori scientifici e articoli in francese , spagnolo e tedesco . Tra le sue più notevoli pubblicazioni ci sono state le Regole e consigli sulla ricerca scientifica , Istologia , Degenerazione e rigenerazione del sistema nervoso , manuale di istologia normale e la tecnica micrografica , Elementi di istologia , manuale di generale Anatomia Patologica , Nuove idee sulla anatomia sottile dei centri nervosi , Libro di testo sul sistema nervoso dell'uomo e vertebrati , e la retina dei vertebrati .
Nel 1905, ha pubblicato cinque fantascientifiche "Storie vacanze" sotto lo pseudonimo di "dottor batteri." Nel 1906 è stato insignito del Premio Nobel per la Fisiologia e la Medicina insieme ad un uomo italiano di scienza, Golgi 'nel riconoscimento del loro lavoro sulla struttura del sistema nervoso'. Questo è stato visto come causa piuttosto controversa per il fatto che Golgi, era in disaccordo con Cajal sulla sua dottrina del neurone.

domenica 30 ottobre 2011

Scienza


Leonardo Pisano detto Leonardo Fibonacci, perché filius del Bonacci (Pisa, settembre 1170 ca. – Pisa, 1240 ca. fu un matematico italiano.

Con altri matematici del tempo, contribuì alla rinascita delle scienze esatte dopo la decadenza dell'ultima parte dell'età classica e del primo Medioevo.
Assieme al padre Guglielmo dei Bonacci (Fibonacci sta infatti per filius Bonacci), facoltoso mercante pisano e rappresentante dei mercanti della Repubblica di Pisa (publicus scriba pro pisanis mercatoribus) nella regione di Bugia in Cabilia (Algeria), passò alcuni anni in quella città, dove studiò i procedimenti aritmetici che studiosi musulmani stavano diffondendo nelle varie regioni del mondo islamico. Qui ebbe anche precoci contatti con il mondo dei mercanti e apprese tecniche matematiche sconosciute in Occidente. Alcuni di tali procedimenti erano stati introdotti per la prima volta dagli Indiani, portatori di una cultura molto diversa da quella mediterranea. Proprio per perfezionare queste conoscenze, Fibonacci viaggiò molto, arrivando fino a Costantinopoli, alternando il commercio con gli studi matematici.
Molto dovette alle opere di Muhammad ibn Musa al-Khwarizmi, Abu Kamil e ai maestri arabi, senza però essere mero diffusore della loro opera. Ritornato in Italia, la sua notorietà giunse anche alla corte dell'imperatore Federico II, soprattutto dopo che risolse alcuni problemi del matematico di corte. Per questo motivo gli fu assegnato un vitalizio che gli permise di dedicarsi completamente ai suoi studi.
A partire dal 1228 non si hanno più notizie del matematico, tranne per quanto concerne il Decreto della Repubblica di Pisa che gli conferì il titolo di "Discretus et sapiens magister Leonardo Bigollo". Fibonacci morì qualche anno dopo presumibilmente a Pisa.
A lui si devono il Liber abaci e la Practica geometriae (con l'applicazione dell'algebra alla soluzione di problemi geometrici); il Liber quadratorum; l'Epistola ad magistrum Theodorum e il Flos super solutionibus quorundam questionum ad numerosum vel ad geometriam vel ad utrumque pertinentium dedicata a Raniero Capacci, cardinale diacono.
I suoi studi furono così importanti che tutt'oggi esiste una pubblicazione periodica dedicata interamente alla sequenza aritmetica da lui elaborata, il "Fibonacci Quarterly". Al matematico è stato anche dedicato un asteroide, 6765 Fibonacci.

Una sequenza famosa: i numeri di Fibonacci
Fibonacci è noto soprattutto per la sequenza di numeri da lui individuata e conosciuta, appunto, come successione di Fibonacci:

0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89 ...
in cui ogni termine, a parte i primi due, è la somma dei due che lo precedono. Sembra che questa sequenza sia presente in diverse forme naturali (per esempio, negli sviluppi delle spirali delle conchiglie, ecc.).

Una particolarità di questa sequenza è che il rapporto tra due termini successivi diminuisce progressivamente per poi tendere molto rapidamente al numero 1,61803..., noto col nome di rapporto aureo o sezione aurea.

Nel 1202 pubblicò, e nel 1228 riscrisse (lo fece pubblicare solo dopo la sua morte però, lasciandolo nel suo testamento) il Liber abbaci, opera in quindici capitoli con la quale introdusse per la prima volta in Europa (nel capitolo I) le nove cifre, da lui chiamate indiane e il segno 0 che in latino è chiamato zephirus, adattamento dell'arabo sifr, che significa vuoto. Zephirus in veneziano divenne zevero ed infine comparve l'italiano zero.Per mostrare ad oculum l'utilità del nuovo sistema egli pose sotto gli occhi del lettore una tabella comparativa di numeri scritti nei due sistemi, romano e indiano.
Nel libro presentò inoltre criteri di divisibilità, regole di calcolo di radicali quadratici e cubici ed altro. Introdusse con poco successo anche la barretta delle frazioni, nota al mondo arabo prima di lui (capitoli II-IV). Nel libro sono anche compresi quesiti matematici che gli furono posti, con la loro soluzione (uno dei capitoli trattava aritmetica commerciale, problemi di cambi, ecc.).
All'epoca il mondo occidentale usava i numeri romani e il sistema di numerazione greco e i calcoli si facevano con l'abaco. Questo nuovo sistema stentò molto ad essere accettato, tanto che nel 1280 la città di Firenze proibì l'uso delle cifre arabe da parte dei banchieri. Si riteneva che lo "0" apportasse confusione e venisse impiegato anche per mandare messaggi segreti e poiché questo sistema di numerazione veniva chiamato "cifra", da questa denominazione deriva il termine messaggio cifrato.
L'uso delle cifre arabe era in ogni caso già conosciuto da alcuni dotti dell'epoca. Il primo caso del quale si ha notizia è stato quello del monaco Gerberto (poi diventato papa dal 999 al 1003 col nome di Silvestro II): egli propose l'uso di questo sistema in alcuni conventi in cui si scrivevano opere scientifiche, ma il metodo rimase del tutto sconosciuto nel mondo esterno. Un esempio più tardo, dell'epoca di Fibonacci, si trova nelle scritture notarili di Notar Raniero, perugino.
La prima edizione del Liber Abaci del 1202 è andata persa, ma la seconda edizione del 1228 (che aveva preparato su richiesta del filosofo scozzese Michele Scoto) si è conservata ed è stata ristampata nel 1857 a Roma dalla Tipografia delle Scienze Matematiche e Fisiche, in una edizione curata da Baldassarre Boncompagni.

venerdì 23 settembre 2011

Scienza

Einstein ha ancora ragione: troppo presto
per dire che il neutrino corre più della luce

Dopo l'esperimento del Cern c'è chi si affretta a mandare in soffitta la teoria della relatività. Ma gli stessi autori dello "scoop" scientifico avvertono che il risultato va verificato con nuovi test. Polemiche sull'anticipazione di Zichichi su "Il Giornale"

Guidati da Antonio Ereditato, scienziato italiano in forza all’Università di Berna, i ricercatori coinvolti nell’esperimento Opera (Oscillation Project with Emulsion-tRacking Apparatus) del Cern di Ginevra hanno assistito a un fenomeno teoricamente inspiegabile, almeno finora: l’esistenza di particelle più veloci della luce. In contraddizione con la regola fondamentale della fisica moderna, secondo cui nessun corpo che abbia una massa può abbattere la velocità della luce, i neutrini hanno impiegato 60 nanosecondi in meno dei fotoni per coprire i 730 chilometri di distanza che separano il Cern di Ginevra dai Laboratori Nazionali del Gran Sasso.

“Se confermata – dice senza esitazione Giuseppe Longo, docente di astrofisica alla Federico II di Napoli – non si tratterebbe solo della scoperta del secolo, ma della scoperta scientifica più importante dopo le osservazioni di Galileo. Saremmo costretti a rivedere gran parte sia della fisica dell’infinitamente grande, e sia della fisica dell’infinitamente piccolo”. Ma prima di mettere mano alla quantistica e alla cosmologia, è il caso di pazientare ancora un po’, a dispetto di chi già parla di “scardinamento” di Einstein e della Teoria della relatività. “Nel migliore dei casi si tratta di sprovveduti, anche se bisogna dire che i primi ad andarci cauti sono gli stessi autori della scoperta, tutti scienziati serissimi”.

Cosa è successo. Analizzando gli oltre 15 mila neutrini sinora prodotti dall’acceleratore del Cern Super Proton Synchrotron lungo il “tragitto” Cngs (Cern NeutrinoS to Gran Sasso), Ereditato e colleghi hanno osservato queste particelle (che, benché piccolissime, sono comunque dotate di una massa) superare la velocità dei fotoni, ovvero di particelle senza massa in grado di raggiungere circa un miliardo di chilometri l’ora. In barba alla teoria della relatività, i neutrini viaggerebbero a una velocità superluminale. “Si violerebbe, tanto per dire, il principio di causalità, secondo cui il verso dell’l’informazione può trasmettersi nel tempo solo andando in avanti”.

Accanto all’entusiasmo generale, emerge però qualche perplessità. “È bene non dimenticare che lo scopo di Opera è quello di osservare un particolare fenomeno relativo a queste particelle, vale a dire l’oscillazione dei neutrini da uno stato detto muonico a un altro stato, cosiddetto tauonico. Cronometrare la loro velocità non è la misurazione cui quei sistemi sono stato precipuamente progettati”. Ma la cosa non depone necessariamente a sfavore. “Quasi tutte le scoperte più importanti sono state fatte per sbaglio. Del resto se uno vuole andare a verificare qualcosa, vuol dire che quel qualcosa non era poi tanto un segreto”.

Anche da un punto di visto teorico non si tratta di una novità assoluta. I fisici da tempo ragionano sulla possibilità di rivedere la Relatività einsteinaina attraverso la cosidetta generalizzazione della relatività ristretta. “Anche se avere dei dati sperimentali è ovviamente tutta un’altra cosa”. La cautela più grande di fronte a questi dati nasce tuttavia da alcuni esperimenti omologhi già effettuati in passato. Nel 2007 un fenomeno simile a quello accaduto all’equipe del Cern e dell’Infn si è verificato in Minnesota. In quell’occasione il Main Injector Neutrino Oscillation Search (Minos) ha segnalato un fascio di neutrini provenienti dal Centro di fisica delle particelle di Fermilab, in Illinois, arrivare leggermente in anticipo sui tempi previsti.

“In quel caso i ricercatori hanno minimizzato il risultato – spiega Longo – perché c’era troppa incertezza circa la posizione esatta del rivelatore per essere sicuri della significatività dei dati, considerandoli quindi come un probabile effetto di un errore sistematico”. Un altro dato da ricordare prima di dare Einstein per spacciato è rappresentato dall’esplosione di una Supernova relativamente vicina alla Terra avvenuta nel 1987. Una supernova è una sorta di fabbrica di neutrini e quando esplode ne emette tantissimi. “Se i neutrini viaggiassero effettivamente 10 nanosecondi in più della luce, come attesterebbe l’esperimento del Cern – evidenzia l’astrofisico – in quell’occasione i neutrini sarebbero dovuti atterrare sulla Terra 4 anni prima dell’avvistamento del lampo. Ma non è stato così”.

Questo significa che quello che è accaduto nelle profondità tra Ginevra e il Gran Sasso è solo il frutto di una svista? “Nient’affatto – precisa lo scienziato – perché in questi casi deve considerarsi anche la potenza di esplosione e potrebbe darsi che i neutrini emessi dalla Supernova epsolosa nell’87 fossero in un certo senso più deboli di quelli emessi dal Sincrotone”.

Insomma, prima di riscrivere le pagine della fisica bisogna attendere la ripetizione di questi esperimenti da terzi. “Se davvero si tratta di un errore connesso al sistema solo altre macchine possono darci la certezza dei risultati sperimentali. Ma del resto questo è quel che dicono anche Ereditati e gli altri ricercatori nell’articolo pubblicato ieri su ArXiv. Lo ripeto, si tratta di scienziati seri che a differenza di altri non sono alla continua ricerca visibilità”.

La polemica che attraversa gli addetti ai lavori nasce dal fatto che l’anticipazione fatta sul Il Giornale dal fisico Antonino Zichichi ha in gran parte vanificato il lavoro scrupoloso di divulgazione dei dati della scoperta, favorendo un enorme polverone mediatico che ha rischiato di portare discredito all’intera comunità scientifica. La scoperta infatti non è di quelle che possano essere sussurrate su un giornale, e avrebbe meritato, sostengono molti ricercatori, la massima attenzione.

mercoledì 14 settembre 2011

Scienza


Se non accadesse nulla, se nulla cambiasse, il tempo si fermerebbe. Perchè il tempo non è altro che cambiamento, ed è appunto il cambiamento ciò che noi percepiamo, non il tempo. Di fatto il tempo non esiste.

Un saggio che arriva al cuore della fisica moderna, che solleva dubbi sul maggiore contributo di Einstein (il continuo dello spaziotempo) ma che propone anche una soluzione a uno dei più grandi paradossi della scienza contemporanea: la distanza tra la fisica classica e la fisica quantistica. Barbour sostiene che l'unificazione della relatività generale di Einstein con la meccanica quantistica può determinare la fine del tempo. Il tempo non avrà più un ruolo centrale nei fondamenti della fisica. In questo testo rivoluzionario si aprono squarci affascinanti sui misteri dell'universo: i mondi multipli, i viaggi nel tempo, l'immortalità e, soprattutto, l'illusione del moto.

Dopo la fine della storia e la fine della scienza (cfr. "L'Indice", 1999, n. 3) questa volta tocca al tempo. L'idea è affascinante: il tempo non scorre, non passa. È solo una serie di istanti singoli e autonomi (che l'autore definisce "Adesso") che noi colleghiamo assieme e vediamo scorrere sotto forma di "tempo". Non ci si deve meravigliare troppo della nostra interpretazione del tempo perché - come ha dimostrato Paolo Bozzi in Fisica ingenua - noi vediamo e interpretiamo il mondo su basi aristoteliche: il Sole sorge e tramonta, e così via. Da un punto di vista strettamente scientifico, nel momento in cui si riuscisse a unificare la teoria della relatività con la meccanica quantistica il tempo sparirebbe davvero. Ed è proprio questo che l'autore si prefigge di dimostrare. Il testo è costruito in maniera organica, partendo da capitoli abbastanza divulgativi, con dettagli tecnici piuttosto ridotti, poi diventa un po' più tecnico e richiede una discreta attenzione, pur restando sempre leggibile. Certo scegliere tra Eraclito ("tutto scorre") e Parmenide ("l'essere è immutabile e intemporale") non è facile. Per questo Barbour ricorre a Platone per il quale "le uniche cose reali sono le forme o idee " e battezza "Platonia" il paese matematicamente perfetto e il paesaggio atemporale in cui nulla cambia. "I suoi punti sono tutti gli istanti di tempo, tutti gli Adesso; semplicemente ci sono, una volta per tutte". Insomma, una sorta di "infiniti universi e mondi" alla Giordano Bruno, che però è per noi difficile non collegare assieme. Ovviamente senza tempo viene a mancare anche il moto e perfino la storia. Si passa così da Newton a Einstein per mostrare infine come la cosmologia quantistica - e quindi il nostro universo - sia atemporale. Nell'epilogo la parola è lasciata ai letterati, che hanno spesso descritto un universo senza tempo. L'ipotesi è affascinante ma, forse perché siamo capaci di vedere il mondo solo in chiave aristotelica, lascia un po' di perplessità.