SULLA GEOTERMIA ALTA VAL DI CECINA: appunti per una ricerca; del dott. ing. Aldo Baldacci; del dott. ing. Rodolfo Marconcini (Sagredo);…; post aperto a vari interventi

Testo rivisitato da il ‘Sillabario’ n. 4 1998

LE CENTRALI GEOTERMICHE E L’AMBIENTE

Appunti per una ricerca

Dott. ing.  Aldo Baldacci

Premessa

L’energia ha un ruolo fondamentale nel sostenere lo sviluppo dell’umanità, soprattutto dal punto di vista della crescita economica e del miglioramento della qualità della vita.

La crescente domanda di energia richiede, tuttavia, un grande uso di combustibili fossili, che determina un crescente impatto sull’ambiente e, in particolare, un aumento della produzione di anidride carbonica (CO2), il principale gas responsabile dell’effetto serra.

La necessità di limitare il consumo di risorse naturali non rinnovabili e di minimizzare la produzione di rifiuti e di sostanze inquinanti, requisiti essenziali per uno sviluppo sostenibile e duraturo, impone un ricorso sempre maggiore alle energie rinnovabili. In particolare, gli accordi sottoscritti a Kyoto, nell’ambito della 3a Conferenza delle Nazioni Unite sui mutamenti climatici, richiedono all’Italia per l’anno 2010 una riduzione delle emissioni di CO2 del 6,5 % rispetto al 1990, nonostante il prevedibile aumento della domanda energetica nel periodo.

L’energia geotermica rappresenta un’importante risorsa rinnovabile e pertanto idonea ad assicurare uno sviluppo sostenibile sia mediante la produzione di energia elettrica, che con gli usi diretti del calore. Nel 1997, la produzione di energia elettrica da fonte geotermica è stata di oltre 3,9 miliardi di chilowattora, pari a circa il 2% dell’intera produzione elettrica italiana e al 20 % di quella della Regione Toscana. Sono inoltre state fornite circa 400 miliardi di chilocalorie per l’alimentazione di teleriscaldamenti e per usi serricoli e industriali. Queste utilizzazioni dell’energia geotermica hanno consentito un risparmio di combustibili fossili di circa 1 milione di tonnellate equivalenti di petrolio (1 Mtep) e hanno evitato l’emissione in atmosfera di oltre 1,3 milioni di tonnellate di CO2.

I campi geotermici

Lo sfruttamento dell’energia geotermica consiste nell’utilizzazione del calore contenuto nelle rocce del sottosuolo profondo fino ad oltre 4.000 metri. Affinché il calore sia utilizzabile, è necessario che le rocce interessate, oltre che molto calde per la presenza di un’anomalia termica, siano permeabili in modo da consentire il passaggio di notevoli quantità di fluidi contemporaneamente presenti nel sottosuolo. Un tale sistema prende il nome di “serbatoio geotermico”. I fluidi, circolando all’interno delle rocce, asportano calore e, tramite pozzi perforati allo scopo, lo trasportano in superficie (v. fig. 1).

FIG-1

Il fluido, in dipendenza delle caratteristiche del campo geotermico, può essere vapore, acqua o una miscela dei due, con associata una frazione di gas incondensabili (dal 2% al 7% circa in peso rispetto al fluido), costituiti prevalentemente da CO2 (95% o più). Il resto è rappresentato da acido solfidrico (circa l’1%), metano, idrogeno, acido borico ed elementi in tracce in forme volatili (mercurio, arsenico e antimonio).

Il serbatoio geotermico, per poter confinare il fluido, deve essere protetto da una copertura di rocce impermeabili, in modo da impedire o limitare la dispersione dei fluidi e del calore.

Il continuo prelievo di fluido geotermico porterebbe però al suo progressivo esaurimento. Tuttavia, poiché il calore asportato dalle rocce del serbatoio rappresenta solo una piccola frazione di quello accumulato nelle stesse, è possibile continuare lo sfruttamento del campo geotermico reintegrando il fluido estratto. La ricarica in parte avviene naturalmente, tramite le acque meteoriche; essa può inoltre essere effettuata artificialmente, reiniettando nello stesso serbatoio, tramite pozzi appositamente perforati, il vapor d’acqua condensato e/o l’acqua dopo la loro utilizzazione.

Le centrali geotermiche

GEOjpg

Le centrali utilizzano il fluido estratto del serbatoio geotermico per la produzione di energia elettrica (v. fig. 2).

Il fluido è trasportato dai pozzi di produzione (1) in centrale mediante tubazioni in acciaio, isolate termicamente, i vapordotti (2).

All’ingresso in centrale, vi è un separatore di umidità per evitare che gocce di liquido eventualmente presenti nel fluido possano raggiungere la turbina, danneggiandola.

Il fluido, la cui portata è regolata mediante valvole, attraversando la palettatura della turbina trasforma la propria energia termica in energia meccanica. L’alternatore provvede quindi a trasformare l’energia meccanica in energia elettrica, che, tramite il trasformatore, viene trasferita alla rete ad alta tensione per il trasporto.

Il fluido, dopo aver attraversato la turbina (3), raggiunge il condensatore a miscela, dove viene condensato mediante contatto diretto con acqua fredda nebulizzata. Per migliorare il rendimento termodinamico e generare maggior potenza, la pressione allo scarico della turbina e quindi nel condensatore è mantenuta molto più bassa (meno di 1/10) di quella atmosferica. L’acqua calda prodotta con la condensazione del vapore (acqua di raffreddamento + vapore condensato) viene estratta per mezzo di una pompa che la invia alla sommità della torre di raffreddamento (4).

All’interno della torre l’acqua calda viene fatta cadere dall’alto, mentre dal basso, in controcorrente, entra aria aspirata dall’ambiente mediante ventilatori posti alla sommità della torre. L’acqua raffreddata viene raccolta nella vasca sottostante (5) e da qui ritorna al condensatore (6). La parte in eccesso, cioè l’acqua proveniente dalla condensazione del vapore geotermico, meno quella evaporata nella torre di raffreddamento, viene inviata alla reiniezione (14). I gas incondensabili contenuti nel fluido geotermico si raccolgono nella parte alta del condensatore, da dove vengono evacuati (9) mediante un estrattore gas e inviati (12) ai camini della torre di raffreddamento per essere miscelati all’aria umida uscente dalla torre e rilasciati in atmosfera. Allo scopo di ridurre la potenza assorbita, tra lo stadio di bassa pressione e lo stadio di alta pressione dell’estrattore il gas viene raffreddato in un refrigerante (10), alimentato dall’acqua fredda (7) proveniente dalla torre di raffreddamento.

Interazioni ambientali delle centrali geotermiche

L’energia geotermica costituisce una risorsa irrinunciabile per il fatto di essere rinnovabile e perché determina impatti inferiori rispetto alle centrali a combustibili fossili.

Fino ad oggi, purtroppo, l’opinione pubblica non è stata informata adeguatamente sui programmi di sviluppo e sui possibili impatti, cosicché, sulla base di supposizioni e dei “si dice”, più che su serie indagini scientifiche, si sono diffuse preoccupazioni e allarmismi e sono sorte opposizioni intransigenti e preconcette.

E’ pertanto importante, per superare queste difficoltà, che vengano fornite ai cittadini corrette informazioni sulla compatibilità dell’utilizzazione della risorsa geotermica con la salute umana e con l’ambiente.

Una pietra miliare a questo riguardo è rappresentata dai risultati dello studio interdisciplinare, di carattere fortemente sperimentale, che l’ENEL ha predisposto, con la collaborazione delle Università di Pisa e Siena e del CNR, per arrivare ad una chiara definizione degli effetti sul sistema naturale conseguenti alle emissioni in atmosfera delle centrali esistenti e future dell’area amiatina.

Lo studio, che si è concluso nel settembre ’96 dopo due anni di intensa attività, ha permesso di caratterizzare in modo completo sia le emissioni degli impianti, che il comportamento degli inquinanti geotermici nelle matrici di maggiore interesse ai fini della salute umana e dell’ambiente in generale: l’aria, il suolo, la acque, la vegetazione spontanea e le specie vegetali per il consumo umano e animale.

Il rigore scientifico delle indagini e il controllo di qualità dei dati, realizzato anche attraverso confronti tra laboratori, garantisce l’affidabilità dei risultati.

Le centrali geotermiche sono caratterizzate dalla sostanziale assenza di effluenti liquidi e solidi, in quanto i primi, come si è visto in precedenza, sono integralmente reiniettati nei serbatoi geologici da cui proviene il fluido, mentre la produzione dei secondi è nulla o trascurabile. La presenza nel fluido geotermico di specie chimiche diverse dal vapor d’acqua comporta l’emissione in atmosfera di alcune sostanze potenzialmente inquinanti o fonti di disagio: acido solfidrico, mercurio, boro e in minor misura, arsenico, antimonio e radon.

Le emissioni delle centrali geotermiche rientrano ampiamente nei limiti fissati dalla normativa. In condizioni di normale esercizio, l’unico punto di emissione è rappresentato dai camini della torre di raffreddamento. Emissioni sulle piazzole dei pozzi di produzione possono avvenire solo in caso di fuori servizio, per guasto o manutenzione, dei vapordotti ad essi collegati.

Acido solfidrico (H2S)

L’acido solfidrico rappresenta il principale inquinante emesso dalle centrali geotermiche. Le concentrazioni misurate nell’aria a livello del suolo, che è quella respirata dall’uomo, variano notevolmente in dipendenza del punto di misura e delle condizioni meteorologiche. Esse sono comunque largamente inferiori al valore guida stabilito dall’Organizzazione Mondiale della Sanità (OMS) per la qualità dell’aria, pari a 150 microgrammi per metro cubo come valore medio nelle 24 ore, corrispondenti a circa 100 parti per miliardo.

L’acido solfidrico è tuttavia caratterizzato da una soglia olfattiva estremamente bassa, dell’ordine di poche parti per miliardo, cosicchè ne è spesso percepibile la presenza, specialmente nelle prime ore del mattino e nelle ore più calde della giornata, nelle condizioni meteorologiche che inducono il regime di brezza.

Il problema delle emissioni di acido solfidrico è pertanto riconducibile unicamente al disturbo sensoriale legato alla presenza del suo caratteristico odore, simile a quello delle uova marce.

Mercurio

Le emissioni di mercurio sono notevolmente variabili in dipendenza del campo geotermico da cui il fluido è estratto. Ad esempio, le emissioni delle centrali amiatine sono, a parità di potenza, decisamente più elevate (fino ad oltre 10 volte) rispetto a quelle delle centrali dell’area geotermica tradizionale (area boracifera), essenzialmente a causa della presenza di mineralizzazioni di cinabro. In ogni caso, neppure nell’intorno delle centrali amiatine le concentrazioni di mercurio nell’aria, nell’acqua o nella vegetazione edule sono tali da determinare rischi agli organismi viventi.

I dati dello studio ambientale mostrano, infatti, che le concentrazioni di mercurio nell’aria ambiente, espresse in termini di media giornaliera, variano, in dipendenza del punto di misura, da valori analoghi a quelli di fondo per aree del Monte Amiata non mineralizzate (2¸5 nanogrammi per metro cubo) sino a valori dell’ordine di qualche decina di nanogrammi per metro cubo (1 nanogrammo = 1 miliardesimo di grammo). Anche quest’ultimi valori sono notevolmente inferiori al valore guida indicato dall’OMS per la qualità dell’aria: 1000 nanogrammi per metro cubo, come media annuale.

La concentrazione di mercurio nell’acqua piovana (valore medio: 30 nanogrammi per litro) è perfettamente in linea con i valori che si hanno in aree non geotermiche.

Anche per la vegetazione per alimentazione, il quadro che emerge sia dallo studio ENEL, che da quelli condotti da Istituzioni scientifiche pubbliche, è positivo. Gli ortaggi prelevati nell’area geotermica di Piancastagnaio presentano livelli di mercurio piuttosto bassi, anche se più elevati rispetto a quelli misurati nelle aree prive di contaminazione antropica e naturale. Tale risultato è legato alla diffusione nel comprensorio amiatino di mineralizzazioni di cinabro e alle emissioni delle centrali.

Boro

Il boro costituisce forse l’unico componente, tra quelli liberati nell’ambiente dalle attività geotermiche, per i quali i possibili effetti riguardano la vegetazione sensibile e non l’uomo.

Le forme di boro associate con le risorse geotermiche sono principalmente l’acido borico e i suoi sali inorganici. La stragrande maggioranza (oltre il 95%) del boro presente nel fluido, per effetto della sua elevata solubilità, passa nella fase acquosa che viene reiniettata; l’emissione in atmosfera è pertanto legata essenzialmente alle gocce trascinate dall’aria umida uscente dalla torre di raffreddamento. Per limitare tale trascinamento, nelle moderne centrali la torre è equipaggiata con separatori di gocce ad alta efficienza.

Il boro è un oligoelemento indispensabile per la crescita delle piante che lo assorbono facilmente dal terreno e tendono ad accumularlo nelle foglie; in suo difetto, sorgono stati patologici. Tuttavia alcune specie, quali frumento, girasole, vite, patate, ecc., sono particolarmente sensibili e mostrano danni evidenti (clorosi ai margini delle foglie e bronzatura agli apici, appassimento e caduta delle foglie più vecchie, etc) non appena la disponibilità ambientale dell’elemento supera quella ottimale.

Nessuna manifestazione di fitotossicità è stata peraltro osservata, neppure in vicinanza delle centrali geotermiche.

Le concentrazioni di boro nell’aria ambiente sono risultate inferiori ai limiti di rivelabilità della strumentazione (20 nanogrammi per metro cubo) e anche quelle nell’acqua piovana sono notevolmente basse, da 1 a 10 microgrammi per litro (1 microgrammo=1 milionesimo di grammo). Da notare che il valore guida per la concentrazione di boro nelle acque potabili è di 1000 microgrammi per litro. Relativamente ai corsi d’acqua presenti nell’area di influenza delle centrali, l’indagine sul boro non ha evidenziato effetti diretti della ricaduta delle emissioni delle centrali.

Arsenico e antimonio

L’arsenico e, in minor misura l’antimonio, sono , dopo il mercurio, gli elementi in traccia di maggior rilievo nei fluidi geotermici. La maggior parte dell’arsenico presente nel fluido (circa l’80% o più) passa in soluzione nella fase acquosa, che viene reiniettata. Ne è riprova il fatto che le concentrazioni misurate di arsenico nell’aria ambiente sono inferiori ai limiti di rilevabilità della strumentazione (5 nanogrammi per metro cubo) e anche quelle nell’acqua piovana sono notevolmente basse, comprese nel campo 0,1¸0,5 microgrammi per litro. Da osservare che il limite per le acque potabili è di 50 microgrammi per litro.

Anche per i corsi d’acqua presenti nella zona di influenza delle centrali, non si sono rilevati innalzamenti apprezzabili dei tenori di arsenico rispetto ai valori di fondo dell’area esaminata.

Per quanto riguarda la vegetazione per alimentazione, i valori misurati negli ortaggi di Piancastagnaio sono al di sotto del limite fissato negli USA per la commercializzazione dei vegetali freschi (2,6 parti per milione), sebbene anche in questo caso, essi risultano più elevati di quelli indicati in letteratura come valori naturali o di riferimento.

Relativamente all’antimonio, valgono le considerazioni svolte per l’arsenico, attenuate dal fatto che le relative emissioni sono assai inferiori a quelle dell’arsenico.

Radon

Il radon è un gas nobile radioattivo, naturalmente presente nell’ambiente in diverse forme isotopiche, delle quali la principale, il radon-222, è un prodotto intermedio del decadimento dell’uranio. La sua attività si dimezza in circa 3 giorni, con formazione, dopo una catena di decadimenti radioattivi, di un isotopo solido, il piombo 210.

Tutti i terreni contengono tracce di uranio; il radon così prodotto, per la sua natura di gas inerte, può migrare per diffusione ed essere poi trasportato dai fluidi che circolano nel terreno stesso. In tal modo, al radon che normalmente diffonde dalla superficie del terreno verso l’atmosfera si aggiunge quello trasportato dal fluidi endogeni.

I livelli più elevati di radon si hanno in aree vulcaniche e in presenza di particolari categorie di rocce quali scisti, graniti e rocce vulcaniche.

I rilevamenti eseguiti nell’area di Larderello dall’ENEL, anche in collaborazione con il Dipartimento dell’Energia degli USA (DOE) e con l’Università di Pisa, hanno evidenziato che anche in prossimità delle maggiori centrali geotermiche la radioattività da radon nell’aria ambiente risulta piuttosto bassa, dell’ordine di 5 Becquerel per metro cubo (il Becquerel è l’unità di misura dell’attività delle specie radioattive e corrisponde a un decadimento per secondo).

Se si considera che il valore medio di altre aree non geotermiche è di circa 10 Becquerel per metro cubo, il valore rilevato indica che non sussiste alcun problema di esposizione della popolozione.

Anidride carbonica (CO2) 

L’anidride carbonica, pur non essendo un inquinante, è il principale gas responsabile dell’effetto serra. Le emissioni di anidride carbonica delle centrali geotermiche sono fortemente dipendenti dal tenore di gas incondensabili nel fluido e possono variare da 100 a 500 grammi per chilowattora. Esse rappresentano le emissioni dell’intero ciclo di generazione dell’energia elettrica, in quanto la centrale geotermica costituisce l’unico punto di emissione. Questa situazione è diversa da quella che si ha utilizzando combustibili fossili, giacché, in questo caso, alle emissioni delle centrali si devono aggiungere quelle che si hanno nelle fasi di produzione e trasporto del combustibile. Infatti, nel caso della CO2 interessa non tanto l’emissione locale, quanto quella a livello planetario.

Tenuto conto di questo fatto, risulta che le emissioni di CO2 del ciclo geotermico, a parità di energia elettrica prodotta, sono sensibilmente inferiori a quelle della  generazione elettrica basata su cicli combinati a gas naturale ad alto rendimento.

Conclusioni

L’utilizzazione dell’energia geotermica non comporta effetti apprezzabili né sulla salute umana, né sull’ambiente. Le prestazioni ambientali delle centrali sono verificate mediante il monitoraggio delle emissioni e il controllo della qualità dell’aria mediante misura in continuo, in corrispondenza dei principali centri urbani potenzialmente influenzati dalla presenza delle centrali, delle concentrazioni di costituenti tipici dei fluidi geotermici: acido solfidrico, mercurio, anidride carbonica e radon. Le nuove centrali, inoltre, saranno dotate di un sistema di gestione ambientale secondo il regolamento comunitario EMAS.

L’ENEL è attivo sul fronte dell’innovazione tecnologica per migliorare la compatibilità ambientale delle centrali. E’ infatti in corso di sperimentazione, su scala pilota, un processo originale per l’abbattimento delle emissioni di acido solfidrico e di mercurio, il cui trattamento combinato rappresenta un’anteprima mondiale. Sono inoltre in fase avanzata di valutazione cicli di generazione elettrica ad emissione zero, nei quali il fluido geotermico viene reiniettato nel serbatoio di provenienza dopo la sua utilizzazione.

(Dott. ing. Aldo Baldacci)

L’ing. Baldacci, responsabile degli Usi Plurimi presso la direzione geotermica ENEL, laureato nel 1972 in Ingegneria Nucleare di indirizzo chimico presso l’Università di Pisa, ha operato dal 1974 presso ENEL nel campo dell’innovazione tecnologica e del miglioramento della compatibilità ambientale degli impianti di produzione dell’energia elettrica, utilizzando sia combustibili fossili che fonti rinnovabili. E’ autore di oltre 60 pubblicazioni su prestigiose riviste scientifiche internazionali. 

Testo rivisitato da il ‘Sillabario’ n. 1 1996

Chi volesse leggere l’articolo dell’ing. Marconcini “Lo sfruttamento geotermico

in pdf, cliccare, alla fine del post, sul link: SAGREDO10001

altrimenti continuare a leggere di seguito:

figura36

 Testo rivisitato da il ‘Sillabario’ n. 2-4 1995sagr0001

sagr0002

RIFLESSIONI PROVOCATORIE SU NATURA INSEGNAMENTO POESIA del dott. Piero Pistoia…post aperto con intermezzo

Curriculum di piero pistoia :

piero-pistoia-curriculumok (#)

Come intermezzo una tela di una nuova pittrice in divenire, Gabriella Scarciglia

RIFLESSIONI PROVOCATORIE SU NATURA INSEGNAMENTO POESIA (vers. rivisitata)

dott. Piero Pistoia

Riflessioni sulla Natura0002

grabi10002

Riflessioni sulla Natura0002

NOTA FINALE – I ricercatori  adulti non vogliono vedere altro che fatti certi e sicuri per cui nel famoso disegno -test di De Saint Exupery notano il cappello e non il boa che ha inghiottito un elefante, a cui il cappello ‘logicamente ‘ assomiglia’. Ciò suggerisce come le ideologie, le teorie accreditate , tutti i background culturali e le idiosincrasie che ‘intrappolano’ l’anima, controllano di brutto le interpretazioni dei fatti nel processo di conoscenza

(Dott. Piero Pistoia)

Rivisitato, Il Sillabario,  n.1, 1995, VII

CAMBIAMENTO CLIMATICO E CRISI ECONOMICA : DUE EFFETTI DELLA STESSA IDEOLOGIA dell’accademico Dott. Prof. Marcello Buiatti

CAMBIAMENTO CLIMATICO E CRISI ECONOMICA: DUE EFFETTI  INFINE DELLA STESSA IDEOLOGIA

Dott. Prof. Marcello Buiatti
Dipartimento di Biologia Evoluzionistica
Universita’ di Firenze

Per comprendere meglio le ragioni dell’atteggiamento umano verso la natura é utile andare molto indietro nella nostra storia fino ai tempi in cui un piccolo gruppo di donne ed uomini uscirono dall’Africa e cominciarono a “occupare” il Pianeta. Molti animali hanno fatto lo stesso e cioé si sono avventurati in nuovi ambienti. Tuttavia gli animali hanno usato la loro variabilità genetica per adattarsi nel senso che in ogni ambiente gli individui che avevano un patrimonio genetico localmente più adatto sono stati favoriti Gli animali cioé si differenziano per geni, e vengono selezionati dall’ambiente per cui gruppi della stessa specie che occupano “nicchie” diverse hanno anche patrimoni genetici diversi. Noi umani invece abbiamo “inventato” una nuova strategia che è quella di puntare essenzialmente al cambiamento dell’ambiente a nostro favore sostituendo il potere adattativo della variabilità genetica, minore in noi che negli altri Primati, con la variabilità culturale. Anche altre specie lo fanno ma in modo molto più stereotipo mentre noi siamo passati attraverso una serie di modificazioni che sono culturali e non genetiche. All’inizio cercavamo come gli altri animali degli ambienti adatti dove stare, pescavamo, raccoglievamo cibo. Poi abbiamo acquisito la capacità di astrazione come si può vedere dai primi utensili complessi ma soprattutto dalle pitture preistoriche. In queste si vede infatti che i pittori , dopo aver osservato un oggetto ne modificavano l’immagine nel loro cervello e la proiettavano sulla materia esterna. Questo processo prelude alla produzione, perché produrre un oggetto significa sviluppare un progetto mentale e poi realizzarlo proiettandolo sulla materia ottenendone oggetti. Fin da quando gli esseri umani attuali sono nati questo non lo fanno solo per fini utilitaristici ma anche per fini estetici e cioé non solo astratti ma perfino sganciati anche dal valore materiale del loro possibile uso. In seguito siamo quindi passati agli scambi di oggetti e poi alla creazione della moneta all’inizio come mezzo per facilitarli e poi agli scambi virtuali di sola moneta.

Parallelamente a queste macro-modificazioni la nostra percezione della realtà in cui viviamo è cambiata. Mano a mano che utilizzavamo di più i nostri strumenti culturali abbiamo accelerato un processo di alienazione e di distacco dalla materia reale e dal valore d’uso delle nostre azioni e dei nostri prodotti, fatti su misura per un Mondo esterno a “immagine e somiglianza “ più dei nostri pensieri che della materia che percepivamo con i nostri sensi. Siamo passati così attraverso due fasi: una prima fase di macchinizzazione del mondo e una seconda fase di smaterializzazione della realtà. Nella prima fase abbiamo fatto come se il mondo fosse un’immensa macchina e essendo una macchina potesse essere modificato a nostro piacimento pezzo per pezzo senza limite fino alla ottimizzazione. come fa una fabbrica di automobili quando ottimizza la automobili. Si é creduto cioé che il mondo fosse fatto come una macchina e in quanto tale fosse costituito di elementi indipendenti. In realtà in una macchina i singoli pezzi restano uguali se staccati dalla macchina a come erano quando ne fecevano parte mentre questo non succede nel caso degli esseri viventi. Ad esempio se io levo una ruota ad una automobile né questa né la ruota stessa cambiano e qundi possono facilmente essere assemblate di nuovo dando esattamente lo stesso risultato di prima della operazione. Non é così se mi privo di un dito perché in questo caso il dito muore e io cambio il mio stato abbastanza drasticamente. In altri termini in noi esseri viventi gli elementi non sono indipendenti ma sono connessi, mentre nella macchina i componenti sono indipendenti e possono quindi essere assemblati nell’ordine che vuole il costruttore che ne ha fatto il progetto. Nella seconda fase della nostra collettiva evoluzione culturale il distacco dalla nostra stessa materia sta diventando molto maggiore perchè, mentre anche le macchine sono materia, servono ad usi ben precisi e son parte di un progetto di Mondo preciso, così non é del denaro che ora viene scambiato direttamente in economie che sempre di più si staccano dalla produzione di beni e servizi.

La rivoluzione concettuale che ha dato inizio a questo processo è iniziata ufficialmente nel 1847 con il concetto di equivalenza tra esseri viventi ed sistemi non viventi proposto da un gruppo di fisiologi e chimici meccanicisti. La proposta della natura meccanica delle vita ha il suo simbolo nel “dogma centrale della genetica molecolare” che dice che noi siamo essenzialmente dei computer dotati di un unico programma “scritto nel DNA” che, se letto, ci permetterebbe di predire completamente la nostra storia futura. Se la realtà fosse veramente questa, come ancora molti di noi credono, potremmo trasformare e ottimizzare anche gli esseri umani. L’espressione forse più estrema di questa concezione, in un certo senso anche divertente, è il futurismo italiano fondato sull’idolatria della macchina, sulla identificazione del progresso con la costruzione di macchine, e quindi con la macchinizzazione del mondo. Quali sono le possibile conseguenze dell’utopia meccanica, dico utopia perché poi é fallita? Intanto che se volessimo “migliorare” la nostra specie ci sarebbero solo due strade: o buttiamo via gli esseri umani che hanno i geni “cattivi”, o gli cambiamo i geni, strada quest’ultima che ovviamente non funziona soprattutto perché non siamo capaci di controllare il processo della trasformazione o almeno di limitarne i livelli di imprevedibillità con possibili conseguenze negative.

Il primo esempio delle difficoltà che derivano da questo tipo di ragionamento viene dall’agricoltura perché l’agricoltura è l’attività produttiva che utilizza esseri viventi per la produzione. Ad iniziare su larga strada la applicazione del principio di ottimizzazione é stata in questo campo la cosiddetta rivoluzione verde, un grande movimento, una grande impresa internazionale, cominciata negli anno ’60 del secolo scorso con l’intento di ridurre o eliminare la fame nel mondo. Allora i selezionatori facevano riferimento al cosiddetto “ideotipo” di Donald dal nome di un ricercatore inglese, intendendo con questo termine un progetto di pianta che univa tutti i caratteri ritenuti positivi come se fossero appunto indipendenti come in una macchina e veniva messo in pratica selezionandoli uno per uno in modo da ottenere la varietà ottimale a prescindere dall’ambiente in cui era coltivata. Se poi in certi ambienti questa varietà non si fosse dimostrata ottimale si prevedeva di risolvere il problema con mezzi artificiali di supporto e cioé con additivi chimici, macchine ecc. In questo modo furono selezionate moltissime varietà, alcune molto utili, altre meno ottenendo in un primo tempo risultati positivi in tutti i continnenti con la eccezione dell’Africa in cui mancavano i soldi e le industrie per produrre gli additivi necessari. E’ aumentata così ma solo fino al 1995, la produzione del cibo totale e, anche se in misura molto minore quella pro capite, abbassando quindi il livello di la fame Poi la situazione si é rvesciata ed ora in pochi anni le persone sotto il livello di sussistenza sono risalite da 800 milioni ad un miliardo e cento milioni. Il progetto quindi non ha funzionato per il semplice fatto che ad ogni nostra azione sull’ambiente e sui sistemi viventi risponde una reazione in parte imprevedibile. Infatti se diamo molta chimica, anticrittogamici ecc..il terreno si depaupera rapidamente, l’humus se ne va, le acque non vengono trattenute e il terreno perde anche minerali e si desertifica. Per ovviare a questo si danno più additivi peggiorando ancora la situazione ed aumentando il costo di produzione mentre i prezzi sul mercato diminuiscono per la aumentata disponibilità delprodotto sul mercato. Per questo non esiste agricoltura al mondo che sia del tutto autonoma dal punto di vista economico, molte aree non sono più coltivabili e la fame cresce di nuovo.

Più recentemente , abbandonata la speranza di ridurre la fame con la sola svolta industriale della agricoltura basata solo sulla selezione é stato propagandato un altro metodo “magico” che dovrebbe risolvere tutti i problemi, che si basa sull’inserimento nel corredo genetico delle piante di geni provenienti da altri organismi anche lontani dal punto di vista evolutivo. Questo nella presunzione che un gene , spostato da una specie ad un’altra continui a svolgere la funzione che aveva nella prima anche nel contesto genetico del ricevente. Il concetto da cui si parte é lo stesso di prima perché qui invece di modficare la “macchina” che non va bene ci si inserisce un “pezzo” completamente nuovo proveniente da un altro manufatto. Anche questo tentativo, nonostante la propaganda sfrenata che se ne fa, é fallito dato che , dal 1983, anno in cui fu prodotta la prima pianta geneticamente modificata ad oggi, sul mercato ci sono soltanto quattro piante trasformate ( mais, soia, colza e cotone) in cui si sono modificati solo due caratteri, resistenza ad insetti e a diserbanti.Il fallimento é dovuto al fatto che quando facciamo una trasformazione con un gene non sappiamo quante copie di questo entrano nel corredo ereditario della pianta, in quale parte di esso si inseriscono prvocando danni in geni pre-esistenti, se il gene é stato modificato durante il processo, in che modo interagisce con la pianta ed il suo metabolismo ecc. In realtà quello che succede é che la struttura genetica e fisiologica della pianta ricevente viene modificata dal processo in sé stesso e dal fatto che il gene inserito non si é co-evoluto con i geni pre-esistenti, per cui quella che veramente soffre è la pianta stessa che in genere non produce abbastanza o produce male per cui non riesce ad entrare sul mercato. Sono così stati prodotti migliaia e migliaia di OGM nei laboratori ma solo i due ora citati vengono adesso coltivati dopo quasi trenta anni di ricerche frenetiche e costose. Anche questo metodo di ottimizzazione quindi é fallito ed é noto da tempo che gli OGM prodotti non producono più delle stesse piante non modificate, nonostante il tentativo di alcune delle imprese produttrici di falsificare i dati di produzione forniti dagli Stati come ha fatto Syngenta modificando quelli ufficiali del Dipartimento di Agricoltura americano. Tutto qusto conferma un concetto che é stato enunciato molto tempo fa da Charles Darwin quando parlava della cosiddetta “variazione correlata” affermando che un cambiamento in un organismo é accettabile solo se é armonico con la organizzazione precedente. Gli esseri viventi infatti hanno un’organizzazione a reti gerarchiche in cui ci sono connessioni sia fra i diversi livelli della gerarchia sia fra i componenti di ogni livello e inoltre ogni sistema vivente a sua volta é connesso anche con la materia non vivente per cui é praticamente impossibile prevedere completamente gli effetti di un eventuale cambiamento.in uno degli elementi del sistema complessivo. E infatti un altro grande fallimento, molto più grave di quelli già citati é il cambiamento climatico globale anch’esso direttamente derivato dalla “macchinizzazione del mondo” che ha aumentato in modo estremamente rapido la quantità di emissioni dei gas serra ,causa prima dell’aumento della temperatura del nostro Pianeta. Si può proprio parlare in questo caso di un “effetto farfalla” citando ancora una volta uno slogan desueto ma non sbagliato degli ambientalisti che, agli albori del movimento dicevano che “un battito di ali di una farfalla in un luogo lontano può provocare un tifone da noi” a causa di una amplificazione caratteristica, possibile dei sistemi complessi Anche in questo caso il processo mentale collettivo che é alla base dell’errore é un fenomeno di frammentazione.concettuale che ci fa pensare gli esseri umani come completamente staccati ed indipendenti da quello che li circonda ( lo “umwelt”, letteralmente, di Von Uexkull che noi chiamiamo ambiente). E’ per questa impostazione mentale che molti di noi pensano all’ambiente come a qualcosa di “altro da noi” da savaguardare o da distruggere senza renderso conto che se distruggiamo l’ambiente in realtà distruggiamo noi stessi. Deve essere chiaro quindi che non bisogna salvaguardare l’ambiente perché siamo buoni e amiamo gli animali né per ragioni estetiche, ambedue obiettivi nobili ma che non contribuiscono a migliorare la situazione. E’ necessario invece valutare gli effetti complessivi delle nostre azioni contemporaneamente sulle economie e le società umane, sulla salute nostra e degli altri, sull’ambiente. Purtroppo questo tipo di valutazione non é quello che fanno i governi, che, in particolare in questo periodo storico di “turbolenza” come direbbe un fisico, non affrontano insieme le quattro crisi che ci affliggono, quella economica, quella sociale, del cibo e della povertà, dell’ambiente non rendendosi conto che tutte derivano dagli errori concettuali di cui si é parlato. E’ bene nel caso specifico rendersi conto che il cambiamento climatico da una parte é globale e colpisce tutti, ma il livello di pericolo é comunque diverso nelle diverse zone della terra perché l’incidenza dei raggi solari è diversa come diverse sono le stagioni., per cui l’effetto é più o meno forte. Per esempio noi in Europa siamo tra le zone più colpite, tant’è vero che le ultime previsioni dicono che nel 2099 tutta l’Italia sarà arida. E ancora più colpiti sono i Paesi africani e le altre zone alle stesse latitudini che fra l’altro sono abitate dalle popolazioni più povere.

Il cambiamento climatico è senza dubbio la prova più evidente dell’abbandono da parte della nostra specie della sua strategia adattativa orginaria che trasformava l’ambiente per aumentare il benessere reale mentre ora pensiamo che il mezzo ( la “macchinizzazione”) sia il fine. Ma la frammentazione del pensiero si spinge oltre, nel senso che tendiamo a non affrontare le quattro crisi insieme e non diamo una visione integrata nemmeno degli effetti delle emissioni che non cambiano solo la temperatura ma incidono su tutte le risorse della terra che sono poi i quattro elementi degli antichi, l’acqua, il fuoco, la terra e l’aria a cui dobbiamo aggiungere le risorse viventi e cioé gli ecosistemi con la loro diversità. L’acqua, in seguito al cambiamento mancherà ma contemporaneamente inonderà le terre per lo scioglimento dei ghiacci, , il fuoco e quindi l’energia mancherà per la crisi del petrolio e quindi diventerà più cara ma dovrà soprattutto essere prodotta in modo sostenibile per non accelerare e peggiorare la crisi, la terra si desertificherà e perderemo i preziosissimi servizi degli ecosistemi che regolano le dinamiche dell’intero Pianeta incluso il clima stesso ed hanno grandissima importanza per limitare l’effetto serra, perché assorbono la CO2 e ne riducono la quanttà, per cui sono fondamentali per la nostra sopravvivenza,ed anche per le nostre economie che ne risulteranno fortemente danneggiate.

Anche l’ecosistema è una rete e quindi se si rompono i legami fra i componenti l’ecosistema muore. La causa maggiore della morte di ogni ecosistema è infatti la rottura dei legami tra i singoli componenti degli ecosistemi e fra questi e l’ambiente esterno..

A tutti questi problemi si aggiungeranno infine i danni procurati dalla crescente turbolenza della atmosfera che porta ai cosiddetti “eventi eccezionali” ( bufere, tifoni, inondazioni, frane ecc.) che già da tempo stanno aumentando in modo esponenziale.

Ovviamente la distribuzione dei danni non sarà equa perché i Paesi poveri avranno maggiore difficoltà dei ricchi a prendere misure di adattamento al cambiamento climatico e anche perché i Paesi poveri sono nellle zone che .in cui l’aumento di temperatura sarà più forte e la desertificazione più intensa. Questo fatto comporterà una ondata migratoria impressionante che farà fuggire al Nord da 200 milioni a un miliardo di esseri umani con conseguenti possibili conflitti già al giorno d’oggi più frequenti di prima nei Paesi in via di sviluppo. Questo aumento delle disuguaglianze si verificherà inevitabilmente anche per quanto riguarda il PIL la cui caduta inevitabile , a livello globale sarà però senza dubbio più sentita dai Paesi poveri che da quelli ricchi e ridurrà ulteriormente la loro capacità di adattamento. E’ interessante notare che sono proprio i dati di riduzione del PIL in conseguenza del cambiamento climatico l’unica ragione per cui solo dal 2007 ,l’anno di pubblicazione del rapporto dell’economista Stern, i governi hanno cominciato a interessarsi seriamente degli effetti dell’aumento della temperatura sul piano economico. Ora sappiamo che, a seconda di quello che noi faremo il Pil calerà da dieci, 15 punti a 40, 60 punti percentuali.

Da tutto questo risulta chiaro il fallimento dell’utopia dell’ottimizzazione, e conferma che nella evoluzione l’ottimo non va bene ma vince invece chi se la cava, e cioé chi è capace di cambiare il suo progetto continuamente. Purtroppo la risposta delle economie e del pensiero umano al fallimento della ottimizzazione é stato il rifugio in una economia virtuale fatta solo di scambio monetario come se a questo punto si potesse considerare la materia come irrilevante. In questo modo l’economia o meglio la entità degli scambi di moneta, hanno continuato ad aumentare tanto che da un dato recente, risulta che lo scambio di merci e servizi è di 120 miliardi di dollari al giorno ed è largamente superato dalla dinamica delle borse e in genere della economia finanziaria che é di ben 7200 miliardi di dollari. Tuttavia lo scambio di merci è ancora fondamentale perché serve da volano per il resto degli scambi come risuota ad esempio dal fatto che i titoli in borsa di una azienda che non vende perdono di valore. Ecco perché tanta propaganda sugli OGM e su altri “prodotti “ come i cloni anch’essi praticamente inesistenti La propaganda serve essenzialmente a convincere della utilità economica degli OGM e dei cloni e infatti il titolo di Monsanto, la maggiore impresa del campo, sale quando un nuovo Paese apre le frontiere a questi prodotti o si reclamizza un particolare OGM che magari non andrà nemmeno sul mercato. Lo stesso é successo quando poco tempo fa gli Staiti Uniti hanno dato il permesso di commercializzare carne clonata. A me é capitat allora che diversa gente mi ha chiesto se secondo me questa carne clonata fosse in qualche modo pericolosa. Io ho risposto che non é pericolosa ma che comunque , cosa che é pura verità, il problema non esiste dato che sono poche centinaia gli animali clonati nel Mondo perché la clonazione da animale adulto produce individui tutti con menomazioni e non produttivi. In realtà la crisi economica é collegata alla crisi climatica perché deriva dalla stessa concezione e cioé dalla pur fallita utopia meccanica che ha portato alla economia virtuale , del tutto incontrollabile in quanto non legata al reale andamento della produzione di beni e servizi. Per fortuna molto recentemente sono stati sviluppati indicatori nuovi che tengono conto non soltanto dell’aumento della disponibilità monetaria ma anche di altre grandezze per dare indici di welfare, di benessere come il cosiddetto “indicatore genuino di progresso” che ci dà valutazioni numeriche inversamente proporzionali al PIL , come del resto succede con gli indicatori di felicità che ci dicono la stessa cosa: fino ad un reddito annuale di 8-10mila euro, più soldi danno più felicità, oltre questi valori succede il contrario e la fonte di felicità maggiore secondo i sondaggi diventa la buona comunicazione con i propri simili, gli altri esseri umani.

La soluzione per affrontare le due crisi in atto sta intanto nel comprendere che la crisi economica è dovuta a una smaterializzazione dell’economia, il cambiamento climatico alla meccanizzazione del Mondo, al progresso inteso solo come costruzione ed omogeneizzazione. Bisogna quindi puntare insieme su una economia più legata alla produzione di beni e servizi e su produzioni sostenibili che riducano il cambiamento climatico. Per ridurre il cambiamento climatico bisogna da un lato aumentare l’adattamento e cioé salvaguardare meglio le risorse che ridurranno gi effetti del cambiamento che comunque avverrà, e d’altra parte mitigare il cambiamento climatico e cioé riconvertire l’economia reale in modo da ridurre l’effetto serra, il che significa energie alternative, ridurre la produzione di CO2, cambiare i cicli di produzione per ridurre gli sprechi di energia nei diversi punti del ciclo produttivo ecc. Tutto questo sarà possibile però solo utilizzando parte della ricchezza per la riconversione e per la ri-materializzazione della economia, tenendo conto che nel primo rapporto Stern del 2007 si indicava nell’uno per cento del PIL la spesa sufficiente per reggere il cambiamento climatico mentre il secondo rapporto , di soli due anni dopo, aveva raddoppiato la cifra in conseguenza della accelerazione continua della modificazione del clima e di fenomeni imprevisti all’epoca della prima stesura. Comunque sia é essenziale che il Paesi del Mondo entrino tutti nella nuova mentalità e tengano conto , oltre che della crisi economica e di quella climatica anche della crisi sociale e dell’effetto nefasto delle disuguaglianze fra nazioni ed all’interno di esse che, come dice il grande economista Jean Paul Fitoussi, comportano di per sè stesse crisi economiche, conflittualità crescenti, disgregazione. Lo vediamo con chiarezza da quanto é successo alla Conferenza di Copenhagen , almeno parzialmente fallita per la incapacità delle Nazioni di mettersi d’accordo sulla dividione delle specie. In particolare infatti i Paesi ricchi non hann mostrato la elasticità sufficiente per venire incontro a quelli poveri che, mentre facevano notare che gran parte del’effetto serra é dovuta al Paesi ad economia industriale, chiedevano aiuto in materia di innovazione e ricerca per la riconversione alla sostenibilità e sovvenzioni per i costi da affrontare . In realtà oltre a queste misure é necessaria una revisione seria delle regole della Organizzazione Mondiale per il Commercio ormai impotente di fronte alla divisione fra Paesi sviluppati ed economie emergenti e incapace quindi di dettare nuove regole. Evidentemente la virtualizzazione della economia rende miopi i Governi delle Nazioni che vedono ancora nell’aumento del flusso monetario in quanto tale il toccasana , senza comprendere che questo é sempre meno collegato alla vita delle popolazioni e quindi alla stessa sopravvivenza della specie apparentemente avviata per una strada suicidaria a mezzo fra quella dello struzzo e dei lemmings. anmali che ogni tanto si suicidano in massa guidati da un capo incosciente.

(Marcello Buiatti)
Dipartimento di Biologia Evoluzionistica
Università di Firenze

DAGLI OGM ALLA BIOPIRATERIA dell’accademico Dott. Prof. Marcello Buiatti

 

 DAGLI  OGM ALLA BIOPIRATERIA

del Dott. Prof Marcello Buiatti

Come ho scritto nei miei precedenti interventi, a dispetto della propaganda delle grandi imprese produttrici, le Tre Sorelle come le chiamo io (Monsanto, Dupont e Syngenta), è praticamente dal 1996 che i prodotti OGM veramente sul mercato sono sempre le stesse quattro piante modificate per resistenza o ad insetti o a diserbanti. Nessuna innovazione dopo l’anno di introduzione sul mercato di queste PGM eppure le Tre sorelle vanno avanti nella loro strada senza fare ricerca che ancora potrebbe almeno migliorare i prodotti che hanno. Vanno avanti però essenzialmente dal punto di vista finanziario perché controllano il mercato del cibo e guadagnano dalla speculazione in Borsa dai soldi che vengono dai brevetti. In sintesi si potrebbe dire che gli OGM sono il doloroso e assurdo specchio dei nostri tempi in cui tutto è sempre più virtuale, lo scambio di merci è infinitamente minore dello scambio di denaro online, i prodotti si vendono perché sono ben pubblicizzati e non per il loro valore per il benessere, dove la gente è costretta con i mezzi più svariati a comprare le stesse cose spesso inutili che gli impongono i mezzi di comunicazione, dai libri di Harry Potter, alle scarpe di plastica costosissime ma con cui si cammina male, ai cellulari che si “devono cambiare” al più presto per non farci una figuraccia. Non a caso le statistiche ci dicono che in Italia la risposta alla crisi, anche questa finanziaria e non necessariamente reale, gli italiani hanno risposto aumentando la spesa per i cellulari e diminuendo quella per il cibo. Non a caso quindi, pochi lo sanno, ma è stato l’avvento degli OGM che ha provocato il cambiamento della legislazione europea dei brevetti meglio chiamati “diritti della proprietà intellettuale”, che è stata estesa agli organismi viventi che sono passati da bene comune fondamentale a merce in possesso di un numero limitatissimo di esseri umani. Fino a relativamente poco tempo fa il lavoro creativo dei selezionatori e costitutori delle varietà vegetali e delle razze animali era protetto da una Convenzione detta UPOV nata nel 1961. Secondo la UPOV naturalmente una varietà selezionata da un costitutore non poteva essere venduta da altra persona, ma innanzitutto un contadino se comprava i semi di una varietà poteva poi riprodurre il prodotto del suo campo senza pagare altri balzelli in virtù del cosiddetto “esenzione dell’agricoltore” e se era a sua volta un selezionatore poteva utilizzare la varietà acquistata per incrociarla con altre e eventualmente costituirne una nuova di sua proprietà (“ esenzione del selezionatore”) . D’altra parte le varietà e le razze non potevano essere coperte dal molto più restrittivo brevetto industriale. Le cose cambiarono poco dopo la introduzione nel mercato delle PGM per la pressione delle potenti imprese produttrici che, vinta la battaglia negli Stati Uniti, riuscirono a modificare anche le leggi europee con la direttiva n.44 del 1998. Secondo questa direttiva anche alle varietà è applicabile il brevetto industriale sia di processo che di prodotto ove per processo si intende qualsiasi serie di operazioni che servono a costruire varietà migliori, mentre il prodotto è la varietà stessa che può anche essere geneticamente modificata per un solo gene introdotto da un biotecnologo. Inoltre, e questo è il fatto più grave, i brevetti di prodotto coprono tutte le piante che hanno il gene in questione e quelli di processo tutte le piante migliorate con lo stesso metodo. Chi aderiva alla Convenzione UPOV quindi correva il pericolo di perdere la proprietà di una varietà ottenuta dopo lunghi anni di selezione se un biotecnologo ci inseriva un suo gene perché a quel punto la varietà cambiava automaticamente padrone in virtù del brevetto industriale. Gli aderenti alla UPOV allora si difesero eliminando in parte la esenzione del selezionatore e introducendo il concetto di “varietà essenzialmente derivata” quella che contenesse un gene nuovo, ma fosse identica alla precedente per il resto del corredo genetico. In questo caso chi aveva introdotto il gene doveva pagare al costitutore primario una cifra stabilita da una contrattazione che in parte remunerava la perdita del possesso totale della varietà. Le cose sono andate peggiorando recentemente perché le grandi multinazionali si sono accorte che l’ ingegneria genetica non produceva alcun nuovo risultato, come ha affermato anche pubblicamente un dirigente di Syngenta, e stanno tentando purtroppo con qualche successo di sottoporre a brevetto industriale varietà selezionate anticamente e tipiche delle diverse agricolture. Questo obiettivo è facilmente raggiungibile se si vogliono utilizzare varietà tipiche perché queste non sono protette dalla UPOV in quanto non omogenee geneticamente al loro interno, ma lo è anche utilizzando due nuovi trucchi. Il primo consiste nella analisi molecolare del DNA e nella individuazione di un gene presente nella varietà che viene brevettato con brevetto industriale che quindi copre tutte le piante che posseggono quel gene. Il secondo si basa invece sulla modificazione del processo di selezione e sulla brevettazione del nuovo metodo. In questo modo l’impresa Plant Bioscience sta brevettando dei broccoli, il Ministero della agricoltura israeliano, un pomodoro e Monsanto un melone, ma ci sono già un centinaio di domande di brevettazione di altre varietà di diverse specie.

(Dott. Prof. Marcello Buiatti)

EPISTEMOLOGIA ED OLTRE a cura del dott. prof. Giacomo Brunetti, del dott. Piero Pistoia e Gabriella Scarciglia…post aperto ad altri interventi

Curriculum di piero pistoia :

piero-pistoia-curriculumok (#)

 

INDUZIONE E DEDUZIONE: DUE METODI DI INDAGINE SCIENTIFICA

del dott. Giacomo Brunetti

(vers. rivisitata, Il Sillabario, n.1, 1995, X)

Induzione0002scansione0004

ALCUNI ASPETTI DEL PENSIERO DI K. POPPER ED OLTRE
Spunti per riflessioni e discusssioni personali
A cura del Dott. Piero Pistoia & M.a Gabriella Scarciglia

Le linee argomentative di questo articolo seguono alcuni percorsi di pensiero tracciati nei seguenti testi:
K. Popper, Scienza e filosofia, Einaudi, 1991;
P. Feyerabend, Ambiguità ed armonia, Laterza, 1996;
A.V., Critica e crescita della conoscenza, feltrinelli, 1987.

IN VIA DI REVISIONE

IL MODUS TOLLENS E LA FALLACIA DEL CONSEGUENTE

Popper aveva compreso perfettamente che la proposizione logica relativa alla falsificazione, il modus tollens(1), era logicamente fondata a differenza di quella per la verificazione dei positivisti (fallacia dell’affermazione del conseguente) e la considerò un emblematico riferimento per tutto il suo lavoro. Accettare il modus tollens contro la fallacia dell’affermazione del conseguente suggerisce, se non vogliamo invocare dèi o dèmoni, l’assenza necessaria per l’uomo di qualsiasi fonte o criterio ideale di verità a cui fare riferimento (se ‘H implica Q’ è vera, la conferma di Q non potrà mai avvallare la verità di H, a meno che non ci sia una fonte assoluta di verità per Q; nessun numero di accadimenti di cigni bianchi potrà mai rendere vera l’ipotesi generale: “Tutti i cigni sono bianchi”). La stessa coerenza e logicità di una argomentazione non poteva implicare la sua verità; neppure i criteri cartesiani di chiarezza e distinzione (le idee chiare e distinte) sono criteri di verità per Popper. Semmai i loro contrari sono importanti per la conoscenza: l’oscurità e la confusione, l’incoerenza e la contraddizione possono essere indizi di errore, che è appunto ciò che ci affanniamo a cercare nel soddisfare il processo di falsificazione.

Sia nella Scienza sia nella Politica non esiste garanzia alcuna; nell’una la conoscenza non sarà mai ottimale e definitiva, nell’altra non esisterà mai un capo ideale ai diversi livelli. Non esistono fonti ideali a cui fare riferimento né per la Scienza (né l’intelletto, né i sensi più o meno amplificati) e neppure in Politica (né Capitalisti al governo, né Popolo). Costruire la Scienza a partire dalla ragione oppure a partire dall’osservazione-esperimento non garantisce in ogni caso che una volta o l’altra non saremo indotti in errore. L’intuizione intellettuale , l’immaginazione ispirata e profetica, che psicologicamente ci soddisfano, allo stesso modo dell’osservazione e del ragionamento, sono certo importanti, ma non si deve credere rimandino a qualche autorità assoluta, non criticabile, divina o d’altro tipo. Così in politica eleggere chi è considerato migliore, il più colto, il più saggio, il più mite,…, o chi crede in una certa ideologia, non è garanzia di un ottimo governo.

Ma proprio perchè il modus tollens in logica permetteva di incidere significativamente sulle ipotesi di partenza controllandole, Popper pensò che il suo utilizzo in ambiti più complessi potesse avere più senso di altri escamotages, pur rimanendo il fatto incontrovertibile, come credeva già lo stesso Senofane, che i mortali possono avere solo una conoscenza debole (doxa) e non forte (epistème) che è propria degli dèi (4). L’uso, nell’analisi di un oggetto complesso, di una proposizione logica che funziona non porta forse a qualche vantaggio rispetto ad usare metodi logicamente non corretti? Il processo sperimentale (doxastòn=oggetto di opinione, direbbe Parmenide) non fonda niente in positivo (e neppure in negativo!), perchè è gravido di teoria e abbozzi di teoria, di conoscenza “tacita” alla M. Polanyi, aggiungerebbe Feyerabend e perchè viziato da possibili errori sistematici, dovuti all’interpretazione sistematicamente errata di qualche fatto. “Il livello sperimentale forma una cultura a sé il cui rapporto con la teoria è tutt’altro che chiaro”, preciserà poi Feyerabend. Il lavoro intellettuale, che si esplica in teorie, preconcetti e “pregiudizi”, a differenza delle posizioni platoniche, non fonda niente, in ciò Bacone aveva ragione; infatti se con esso interpretiamo i fatti osservati corriamo il pericolo, qualunque siano questi fatti, di confermali e rafforzarli. Le teorie “rileggono” i fatti a loro favore.

Come spunto per una riflessione,  ci sembra interessante notare un certo parallelismo strano fra l’oggetto della conoscenza, “riletto” continuamente dalle teorie, e l’oggetto poetico, “riletto” continuamente dalla mente del fruitore. Ambedue i processi ad infinitum.

Bacone allora propose di eliminare teorie e preconcetti (i famosi IDOLA) prima di poter “leggere” con obiettività il libro aperto della Natura; come se la mente potesse essere purificata e liberata dai pregiudizi!

Su due fronti dunque l’indeterminatezza: sul fronte dell’esperimento e sul fronte della teoria; sia teoria, sia esperimento sono “inquinati”. Oggi Hume ne avrebbe avuti libri da gettare nel fuoco, contenenti sofisticherie e inganni!(2). Ma non è il tempo di accendere né roghi humiani, né di altro tipo: il nostro obiettivo è convivere al meglio con inganni e sofisticherie!

Naturalmente Popper era pienamente consapevole che un processo logico, pur fondato come il modus tollens, non poteva tout-court applicarsi a fenomeni così complessi come, per esempio, la costruzione della Scienza e della Politica. Ma il suo principale obiettivo rimase quello per tutta la vita, cioè utilizzare il modus tollens, anche se come goal regolativo in questi ambiti in cui agiscono miriadi di componenti. Come si affronta allora in questa ottica la costruzione della conoscenza? Come si traduce il modus tollens in tali ambiti? E’ possibile farlo? C’è possibilità di controllo dei fenomeni previsti dalle teorie? L’esperimento in particolare sarà in grado di controllare le teorie? A quest’ultima domanda Popper risponde in maniera esplicita che l’osservazione e l’esperimento non possono stabilire nulla di definitivo sia nel senso della verifica di Q sia nel senso della sua falsificazione, come abbiamo accennato. Ma allora come agiscono i fatti sulla teoria? Lo stesso risultato dell’esperimento sarà soggetto ad esame critico stringente e a sua volta esso servirà per criticare aspramente la teoria; in effetti, leggendo fra le righe, sembra che la teoria non si confronti coi fatti, ma criticamente con le teorie ed abbozzi di teoria contenute in osservazioni ed esperimenti! Ciò che viene osservato in laboratorio, afferma esplicitamente Popper, non è qualcosa di più di un mero status ipotetico! Schematicamente, si parte da un problema, da un punto di domanda (P1), si formula un’ipotesi o congettura, un tentativo cioè di teoria (tentative theory, TT), poi si cerca di attaccarla, combatterla, con tutte le forze a disposizione, procedendo in tentativi di eleminazione critica dell’errore (EEerror elimination); nell’ambito della falsificazione nascerà il nuovo problema (P2). In termini più espliciti, Popper pensava che, seguendo il modus tollens, capace di falsificare un’ipotesi di partenza all’interno del mondo pulito e asettico della logica, con un po’ di fortuna, ma anche con sagacia, buon senso, intuizione per immedesimazione ed empatia (Einfhunlung), operando una critica stringente delle teorie e dei tentativi, nostri e degli altri, si potesse indovinare il mondo, audaci tanto da far violenza al senso umano e del tempo, come ben insegna Galileo, e favorendo, curiosi e disponibili, la critica dall’esterno, Popper riteneva, si potesse anche vagliare il mondo delle apparenze e delle ombre sulla parete della nostra caverna della conoscenza, per dirla con Platone(4)  (mito raccontato nella Repubblica), sondarle e talora oltrepassarle, calando in profondità il nostro sguardo, dove, Democrito insegna, si situerebbe la “verità” (aumento della verosimiglianza  popperiana, progresso, nel senso che a parità di contenuto di falsità, quello di verità aumenta).

Riassumendo, “imbracciando” il modus tollens come un’arma, anche se letale solamente in un altro mondo (quello della logica), sarà necessario sottoporre a stringenti critiche anche i processi sperimentali prima di poter criticare aspramente le teorie, senza esclusione di colpi in ambo i campi, utilizzando ogni escamotage (la fortuna, la sagacia, il buon senso, l’immedesimazione empatica…), fidando sulle capacità di indovinare il mondo degli audaci e dei poeti (oì mythietài, quelli del mito, i ribelli di Erodoto), tanto da far violenza talora al senso umano e del tempo (contro le sensate esperienze!), come suggerisce Galileo. Un processo senza requie, ma l’arma logica, non così efficace, a lungo andare darebbe  risultati (ragione o speranza?). Qualche sprazzo di luce al di là delle ombre sulla parete della nostra caverna della conoscenza, come accennato.

A tutti i livelli e in tutti gli ambiti, come si vede, esiste una scaletta delle incertezze. Incertezze sulle teorie sui processi sui protocolli . In quest’ultimo ambito però si annida un possibile “punto fermo”, l’errore. Riconoscerlo è un vantaggio per la conoscenza, amarlo e curarlo è un apprendistato efficiente e forse anche efficace per il futuro, saperlo calcolare rende l’operazione quantitativa densa di significati nuovi, quasi divini. Ci dice che, se tutto il precedente è “indovinato”, nel suo intervallo i pensieri sono degni di essere considerati e quindi degni di rispetto (livello conoscitivo di corroborazione) e, fuori del suo intervallo, si toccherà, qualsiasi cosa voglia significare, il “reale” (livello conoscitivo di falsificazione). Non è tanto, ma è tutto quello che gli umani possono riuscire a realizzare. Agli dèi l’altro! (8)

Come si vede un esperimento da solo non è capace di sfidare una teoria anche isolata, costituita da una sola proposizione; c’è bisogno sempre di istinto metafisico ed estro artistico. Scientifiche comunque saranno quelle teorie per le quali è possibile sapere in anticipo quali asserzioni sperimentali vengano proibite (criterio di demarcazione di Popper), oggetto di continua ed assidua ricerca, perchè rappresentano, se esistenti nell’Universo, l’errore della teoria. La discussione accalorata, l’argomentazione critica (“il discorso”) proposte da Popper, come già accennato, non avevano da fondare niente, anche se si situavano in un contesto logico di falsificazione(5). Popper, come già accennato, era infatti perfettamente consapevole della teoricità implicita nel processo sperimentale, che avrebbe ostacolato la falsificazione diretta, e della complessità ipotetica delle teorie, per cui 1) teorie non falsificabili, non scientifiche per il suo criterio di demarcazione, potevano diventarlo in futuro; 2) teorie falsificate, da buttare, potevano risultare ancora utili da tenere di scorta per eventuali nuove potenti idee ed ipotesi di soluzione di nuovi problemi; 3) era necessario discernere fra ipotesi rilevanti e non nella fase H, come risposta al dogmatismo olistico di Duhem-Quine(6), da parte della mens esperta del ricercatore in empatia con la sua ricerca. Niente di certo quindi; un processo sporco che ha come unica giustificazione l’uso della proposizione logica: [(H-> Q)U(non-Q)]-> non-H, che funziona perfettamente solo nel mondo appunto della logica! Alla fine tutte le teorie così costruite, sottoposte a tutte le sfide possibili, falsificate o corroborate, anche con processi extra-logici (sagacia, intuizione, fortuna), è quanto di meglio nel campo del razionale riusciamo ad ottenere. Esse, insieme a tutte le argomentazioni critiche, vengono a costituire il Terzo Mondo, che, per la sua complessità, sviluppa emergenze, incastri da soddisfare in un dato modo, guidando autonomamente il “progresso” della conoscenza ( sempre però in interazione con il Primo Mondo degli oggetti materiali e col Secondo Mondo della psicologia, per loro natura a scarso contenuto logico). La conoscenza procede a tentoni mettendo sotto seria critica la conoscenza precedente, sia quella innata, ma non nel senso ottimistico dell’anamnesis platonica (7), sia quella fornita dalla tradizione, che viene così modificata, eliminando gli errori se vengono incontrati. Un processo che non avrà mai fine, perchè infinita rimarrà sempre la nostra ignoranza. Si tratta di logica o di speranza? Di ragione o religione? Si tratta in effetti di un metodo logico alla ricerca dell’errore nei nostri pensieri, calato cioè nell’ambiente dei fenomeni dove i percorsi non sono così determinati, dove si moltiplicano le possibilità e le soluzioni, dove le previsioni si perdono spesso in vortici, per cui può stare anche nell’errore la verità. L’oscurità, la confusione, l’incoerenza e la contraddizione saranno solo indizi di errore. Mettiamo pure da parte le teorie falsificate su questi indizi, ma ricordiamo che l’indizio non significa certezza! Teniamole ancora e difendiamole con forza, forse sta proprio in questo il progresso. Progresso in che cosa? “Nel portare la pace o nel rendere le persone più capaci di amare? Neanche per sogno!”. Progresso “nel trovare leggi generali che a loro volta hanno portato ad individuare tecnologie interessanti”. Interessanti in che senso? Le Grandi Menti del nostro tempo seguono sempre di più il percorso del denaro, che spesso significa ricerca militare!

Abbiamo voluto accennare anche ad alcune battute di Feyerabend, per focalizzare l’attenzione del lettore sulla drammatica spaccatura fra natura e sentimenti, fra mondo delle idee e mondo delle fedi, interland scosceso dove tenta di insinuarsi timidamente anche il nostro Blog!

“Da principio gli dèi non hanno rivelato i loro segreti ai mortali, tuttavia, col tempo, se cercheremo troveremo e impareremo a conoscere meglio” (Senofane, VI secolo a.C.n., B 18).

“Ma la verità (epistème) nessun uomo la conosce mai: nè sugli dèi nè delle cose di cui parlo. Ed anche se per caso dovesse pronunciare la verità definitiva, lui stesso non lo saprebbe; perché tutto è tentativo di indovinare (dòxa)” (Senofane, B 34).

(Dott. Piero Pistoia & M.a Gabriella Scarciglia)

BIBLIOGRAFIA E NOTE

(1) TABELLA DI VERITA’ DELL’IMPLICAZIONE: H implica Q

H-> Q       H      Q
(1) vera vera vera
(2) vera falsa vera
(3) vera falsa falsa
(4) falsa vera falsa

Dalla Tavola di Verità si evince che se l’implicazione è vera – il nostro caso – la verità di Q (righi 1 e 2) non ci dice nulla sulla verità di H che può essere vera o falsa indifferentemente. Ne deriva un’espressione logica scorretta, cosiddetta della fallacia nell’affermare il conseguente, classica dei processi induttivi e della verificazione dei positivisti. Questa espressione scorretta ha la forma:

Se H implica Q1,Q2…Qn è vera,
se dall’esperimento od altro risulta che le Qi sono vere
——————————————————————-
H è vera

In simboli: [(H->Q)UQ]->H.

Se le implicazioni sperimentali Qi dell’ipotesi H sono vere non risulta affatto che H sia vera, neppure probabilisticamente, perché le Qi in effetti sono infinite.

Invece se l’implicazione è vera e Q è falsa (rigo 3) necessariamente anche H è falsa (MODUS TOLLENS); in simboli

[(H->Q)U(non-Q)]->non-H.

Se (H implica Qi) è una relazione vera,
se dall’esperimento od altro risulta che Qi è falso
————————————————————-
H è logicamente falsa

2 – “[…] quando scorriamo i libri di una biblioteca, […] che cosa dobbiamo distruggere? Se ci viene alle mani qualche volume, per esempio di teologia o di metafisica scolastica domandiamoci: contiene qualche ragionamento astratto sulle quantità e sui numeri? No. Contiene qualche ragionamento sperimentale? No. E allora gettiamolo nel fuoco, perchè non contiene che sofisticherie ed inganni!” (Hume, Ricerche sull’intelletto umano, a cura di M. Dal Pra, Bari, 1957).

3 – “Nè posso a bastanza ammirare l’eminenza dell’ingegno di quelli che l ‘ hanno ricevuta e l’hannostimata vera (Teoria Elicentrica) ed hanno con la vivacità dell’intelletto fatto forza tale ai propri sensi, che abbiano possuto antepor quello che il discorso gli dettava a quello che le sensate esperienze gli mostravano apertissimamente in contrario” (G. Galilei, Dialogo dei massimi sistemi, 3a giornata).

4- In una grande caverna vi sono prigionieri incatenati fin dall’infanzia in maniera tale da essere costretti la parete di fondo. Alle spalle dei prigionieri è acceso un enorme fuoco e fra il fuoco ed i prigionieri, nella direzione a 90°  alla linea della loro visione , si articola un sentiero lungo il quale dei personaggi alzano davanti al fuoco forme-sagome dei vari oggetti del mondo fisico, animali, piante e persone, che proiettano le loro ombre sulla parete di fondo, osservata continuamente dai prigionieri. (vedere figura). Se i personaggi parlano, le parole rimbombano dando l’impressione ai prigionieri che provengano dalle ombre. Tali ombre costituirebbero il solo mondo conoscibile nell’immediato. All’esterno della caverna brilla la luce del sole, che rappresenta l’idea del Bene, forse come una divinità creativa e indipendente, Chi riesce a liberarsi risale con difficoltà (abbagliato dal fuoco) traballando procede dubbioso verso l’uscita fino ad incontrare la luce del sole molto più intensa. Abituatosi alla situazione, dapprima distingue le ombre dei personaggi, e le loro immagini riflesse nell’acqua, per passare col tempo a sostenere la luce e guardare gli oggetti stessi ( entra nell’intelligibile) e di notte volgere lo sguardo alle stelle e alla luna (mondo della pura intellezione). Infine sarebbe capace di scorgere la presenza del sole (idea del Bene) e capirebbe che esso è il responsabile di tutte le cose del mondo (si tratta della faticosa salita del filosofo verso la vera conoscenza). Resosi conto della situazione vorrebbe tornare a liberare i compagni (filosofo che prova ad educare gli altri uomini), scendere cioè dalla luce al buio in un travaglio inverso simmetrico, che crea però sospetto da parte dei prigionieri, per cui si oppongono drammaticamente alla liberazione. L’allegoria tratta del percorso drammatico  del filosofo attraverso il processo di conoscenza della verità delle cose, in particolare quello che il filosofo Socrate dovette subire nel risalire la strada verso la verità (epistème). Venne poi ucciso per aver tentato di portarla agli uomini incatenati al mondo dell’opinione (doxa)

5 – E’ interessante notare che fin dal tempo dei Greci esistevano tre tipi di argomentazione: la dimostrazione (simile ai teoremi di geometria); l’argomentazione dialettica (opinioni di scienziati e non a confronto); l’argomentazione retorica che cerca di far passare opinioni indipendentemente dalla loro verità o falsità (come nelle relazioni pubbliche e nei discorsi politici e di propaganda).

6 – L’implicazione si trasforma in: H U (h1,h2,…h1…hn) → Q, dove le h1 riassumono la nostra conoscenza nella sua globalità

7 – Anamnesi significa reminescenza, risveglio della memoria, attivata dalla percezione degli oggetti sensibili. Numeri e forme geometriche non esistono nella Realtà per cui di essi non si può avere conoscenza tramite la percezione empirica, ma solo attraverso l’anamnesi (di qui la parola “ottimismo” ad essa associata) che permette all’anima di scoprire le “verità” che sono presenti in lei.

(8) Rimandiamo al post, firmato dagli autori, dove si fornisce un metodo di calcolo dell’errore su grandezze derivate assistito dal computer in Qbasic.

(Vers. rivisitata, Il Sillabario, n.3, 1999, II)

LA TEORIA, LA REALTA’ E I LIMITI DELLA CONOSCENZA

IPERBOLI SU  NATURA  COMUNICAZIONE-CULTURALE  POESIA

a cura del Dott. Piero Pistoia (vers. rivisitata)

Le Teorie scientifiche sono nostre invenzioni e, talora, procedendo, come afferma Galileo (1), “contro le sensate esperienze” e “facendo violenza al senso”,  sono così audaci da ‘scontrarsi’ con la Realtà;  e’ appunto da questo “scontro”  veniamo a conoscere che il Reale esiste (2). Questa posizione (3) considera errata la concezione secondo cui le teorie scientifiche debbono essere fondate su ciò che di fatto osserviamo, cioè sui dati forniti dal Reale, o perchè riconducibili a puro compendio e organizzazione di essi (Circolo di Vienna) o perchè conformate da  proposizioni molecolari teoriche, scomponibili in atomi linguistici immediatamente rapportati ai dati immediati dell’esperienza (Wittgenstein).

La Teoria non è riducibile ad asserzioni protocollari (dice molto di più di quanto possiamo sottoporre a controllo), per cui l’empirico non è più sorgente di significati per essa, serve solo, attraverso la logica del modus tollens (vedere dopo), a ricercarne, continuamente e senza fine, la falsificazione.

La Teoria così non è costruita a partire dai dati secondo processi di generalizzazione riassunti dal concetto di Induzione, che, sfuggendo a qualsiasi dimostrazione logica, ha la propria origine nella neuro-fisiologia animale  e serve  solo alla costruzione di una classe di convincimenti psicologici (certezze, ma non verità).

Essa non potrà mai essere “verificata” dai fatti, perchè il procedimento (fallacia dell’affermare il conseguente): “se H implica S e S è vero, allora H è vera”, non è un procedimento logico fino in fondo.

La Teoria potrà invece essere falsificata dai fatti tramite il procedimento deduttivamente valido (modus tollens): “H implica S e S è falso, allora H è falsa” (4).

Se poi nell’analizzare la zona di “scontro” (falsificazione) rinveniamo ancora processi a logica debole come l’Induzione, ovvero, data la complessità teorica degli oggetti in gioco (5), rimane oscuro e indeterminato ciò che viene falsificato, allora le teorie rimarranno semplici invenzioni della mente, convenzioni sostenute ora da paradigmi a forte permeabilità sociale (Kuhn), ora dai successi dei Programmi di Ricerca (Lakatos).

Ma allora il sostegno delle Teorie scientifiche non è più qualcosa di solido e oggettivo: prende il sopravvento l’aspetto convenzionale, arbitrario, propagandistico e strumentale, nel senso che esse diventano solo efficienti strumenti per la modifica più radicale dell’ambiente (teorico e fisico) a favore di una sopravvivenza (culturale e fisica) ad oltranza degli umani. Le teorie diventano convenzioni arbitrarie semplici ed efficaci, funzionali ai fatti, anche se non funzione dei fatti.

Si indebolisce così, in termini di principio, la distinzione da altre attività della mente umana con gli stessi obbiettivi (6) come le teorie del senso comune e del buon senso, il mito e la magia, la fede e il misticismo…(Epistemologia Anarchica).

La teoria scientifica diventa un’invenzione che non costruisce mappe del Reale, ma vi inventa sentieri e vi disegna “di brutto” depressioni e rilievi, aprendosi la strada man mano che procede. Il poeta Antonio Machado (7), in grande poesia, esprime questa azione conoscitiva umana:

Viandante, son le tue orme la via ,
e nulla più;
viandante non c’è via,
la via si fa coll’andare.
Con l’andare si fa la via
e nel voltare indietro la vista
si vede il sentiero che mai
si tornerà a calcare.
Viandante, non c’à via
ma scie sul mare.

Già Kant aveva affermato che “l’intelletto non attinge le sue leggi dalla Natura ma le prescrive (quaestio iuris) ad essa” (8) e altrove (9) che “l’Intelletto vede solo ciò che esso stesso produce secondo il suo disegno”.

Ciò che ne emerge è una topografia nuova di zecca, inventata e costruita dall’Uomo per L’Uomo ed è questo il suo Universo, “vero”, perchè funziona, è adatto ed adeguato (l’inglese fitting, o il passen tedesco).

Verum ipsum factum, aveva detto Vico molto tempo prima: ciò che l’Uomo “crea” con le sue mani è “vero” per l’uomo, cioè funziona nell’ambiente in cui l’uomo opera, permettendo di modificare tale ambiente fenomenico esterno e interno ai propri fini.

Allora non è dell’Uomo la conoscenza assoluta del Reale, visto come una congerie di infinite possibilità razionali e irrazionali di stati di un “qualcosa”, dove neppure il prima e il dopo, il sinistro e il destro, il sopra e il sotto corrisponderanno all’esperienza umana (Noumeno kantiano).

Nessuna concordanza o corrispondenza di immagine (match e in tedesco stimmen) quindi fra conoscenza e realtà, a differenza delle concezioni tradizionali e della Psicologia Cognitiva, sostiene con forza il Costruttivismo radicale  (10).

Forse siamo davvero chiusi in un “trappola per mosche”, costituita da una bottiglia la cui sommità è un imbuto rovesciato.  Dall’interno l’unica apertura appare alla mosca come la soluzione meno probabile e la più irta di ostacoli e da essa distoglie l’attenzione. E’ meno gravoso organizzarsi all’interno della trappola che trovare la via.

Come uscire allora da questa trappola che, metaforicamente, rappresentala nostra inadeguatezza nella soluzione dei problemi conoscitivi? Data la configurazione, le soluzioni andranno cercate nei luoghi più improbabili, fuori dalle credenze comunemente accettate, al di là delle abitudini dipensiero, negando cioè tutto ciò che compone il nostro attuale sistema di riferimento: la soluzione è infatti dove c’è più rischio. Non per niente ci si accorge poi che ogni fatto che sia stato oggetto di rifiuto più astioso e viscerale e limitato dalle repressioni più crudeli, stranamente, possedeva la sconcertante capacità di porre problemi insidiosi, ma che schiudevano nuove vie.

All’interno, quindi, il quadro concettuale appare coerente e privo di contraddizioni: il sistema di credenze, “dentro”, si auto-giustifica continuamente e tutti gli atti (osservazione, giudizio, valutazione…) vengono compiuti dal punto di vista particolare del sistema stesso. Se vogliamo uscire è necessario inventare un nuovo e inusitato sistema di certezze da cui “guardare” la situazione: è allora che riusciamo a individuare improvvisamente l’apertura. Una volta usciti ci troviamo però in un’altra trappola che ingloba la prima  e così via all’infinito: ciò che progredisce è solo l’adeguatezza delle teorie (fitting e non matching) che diventano sempre più funzionali ai nostri fini.

Questa configurazione indeterminata di trappole includenti sarebbe poi la conseguenza di un’ unica trappola inesorabile, cioè l’impossibilità totale della distinzione fra soggetto e oggetto. L’Io stesso è la visione dell’Universo, affermava il premio Nobel per la Fisica Schroedinger. Il confine di separazione fra Io e Universo si perde in frattali indefiniti e la sua ricerca rincorre descrizioni, di descrizioni, di descrizioni…. La poesia di Montale, trascritta di seguito (commentata nel post a più dimensioni in questo blog), sottolinea questa impossibilità di raggiungere tale limite da “dentro” (Non chiederci la parola che squadri da ogni lato/ l’animo nostro informe…) e da “fuori” (Non domandarci la formula che mondi possa aprirti…).

NON CHIEDERCI LA PAROLA

Non chiederci la parola che squadri da ogni lato
l’animo nostro informe, e a lettere di fuoco
lo dichiari e risplenda come un croco perduto
in mezzo a un polveroso prato.
Oh l’uomo che se ne va sicuro,
agli altri e a se stesso amico,
e l’ombra sua non cura che la canicola
stampa sopra uno scalcinato muro!
Non domandarci la formula
che mondi possa aprirti, sì qualche
storta sillaba e secca come un ramo,
codesto solo oggi possiamo dirti, ciò
che non siamo, ci che non vogliamo.

Quindi come nell’incisione: “Galleria di Stampe” di Escher (vedere figura), l’Io, in basso, osserva un mondo (nave e fila di case lungo costa),  che si trasforma nel substrato che lo produce (casa d’angolo in alto a destra  dove si apre proprio la galleria dov’è l’Io che guarda). Non esiste alcun luogo da dove uscire (confine): se tentassi di farlo (risalire all’inizio di un mio pensiero o idea) mi troverei nel bel mezzo di un frattale in continua regressione, perdendomi in una infinità di dettagli e interdipendenze (il circolo interminabile che sfuma nello spazio vuoto al centro della figura).

Ma allora il Paradosso non è semplicemente una curiosità intellettuale, ma si nasconde fra le pieghe dello stesso atto conoscitivo: correndo lungo un ramo di iperbole, non è da escludere che, in questi contesti, i due famosi professori in medicina, il Corvo e la Civetta, del libro di Pinocchio, ricordati con maestria e precisione da Collodi, avessero ragione ambedue.

Da questo insieme compenetrato e circolare di Io e Universo è mai possibile “saltar fuori”? L’”ombra”, di cui si parla nella poesia, porta scritto qualche segreto? Sarà forse più facile l’accesso al Reale tramite l’esperienza mistico-religiosa, l’esperienza artistica e quella magica?

Quest’ultime due, profondamente legate al loro sorgere (si pensi ai significati dell’arte Paleolitica nelle grotte di Lascaux), hanno lasciato di tale interazione tracce nell’arte di tutti i tempi (si pensi agli strani cieli a misura d’uomo di Van Gogh), anche se abbiamo perso la consapevolezza di questi profondi significati archetipici.

Già lo stesso B. Russel affermava che “non vi era alcuna ragione definitiva di credere che tutti gli accadimenti naturali avvengano secondo leggi scientifiche” (11). La discontinuità del tempo e dello spazio e la quantizzazione del microcosmo individuavano “zone d’ombra” a regime caotico, per cui “l’apparente regolarità del mondo sarebbe dovuta alla completa assenza di leggi”.

Non è trascurabile il fatto che scienziati e filosofi abbiano mutuato dalla Fenomenologia di Husserl (12) la parola “einfuhlung” (immedesimazione, empatia) per spiegare l’illuminazione che la mente subisce quando “inventa” ipotesi creative sul cosmo.

Il grande logico Ludwig Wittgenstein nel suo Tractatus Logico-Philosophicus (13) alla proposizione 6.52 scriveva “Noi sentiamo che se tutte le possibili domande della scienza ricevessero una risposta, i problemi della nostra vita non sarebbero neppure sfiorati” e successivamente, alla 6.522, “C’è veramente l’Inesprimibile. Si mostra, è ciò che è mistico”.

Esiste allora un immenso mare del magico e del mistico che circonda oscuro e tempestoso la piccola isola del razionale, anche se poi di questo “altro” (mare) non se ne può parlare (1° Wittgenstein), e degli altri infiniti “giochi linguistici” possibili sul mondo (isola), nessuno è plausibile, perchè non c’è realtà là fuori“ (2° Wittgenstein). E’ vero: spesso nelle esperienze mistiche e forse magiche, dove per pochi secondi soggetto e oggetto si fondono nella stessa unità primordiale, le descrizioni sono vaghe e soggettive; “il Tao che può essere espresso non  il vero Tao”  (14). Ma, per esempio, nel caso della situazione di Einfuhlung nella ricerca scientifica, mi sembra, che le cose siano leggermente diverse (si pensi all’ipotesi creativa che risolve un problema cruciale del mondo). Se questo fosse vero, forse sarebbe possibile non solo pronunciare qualche “storta sillaba”, ma balbettare qualche parola e sarebbe già qualcosa in termini di principio.

Il presupposto dell’esperienza magico-mistica che fa corrispondere puntualmente la struttura reale del Cosmo a quella della mente umana, permetteva l’accesso ai segreti più nascosti della Natura attraverso la meditazione e la contemplazione sull’Universo.

Si pensi a Giordano Bruno (15), che apriva un canale di comunicazione reversibile fra l’Uomo e Dio, percorribile, dal basso all’alto, tramite l’esperienza magico-mistica e la contemplazione su un Universo infinito (per questo fu bruciato vivo). Per lui la scienza e il copernicanesimo, a differenza di Galileo, che per questo salvò la vita, non erano altro che metafore e gli errori, che nell’interpretazione scientifica di esse commetteva, erano di nessun conto di fronte al potere che pensava di schiudere all’umanità ( la conquista del Vero contro l’apparente).  Lo stesso grande filosofo e mistico Plotino non incoraggiò forse a guardare in se stessi anzichè all’esterno, perchè da dentro è possibile contemplare il Nous (Spirito-Intelletto), che è divino, nel quale è scritta la struttura profonda dell’Universo?  Si pensi a quello che aveva detto lo stesso Shroedinger.

Dopo millenni e millenni di dibattiti, argomentazioni, teorie, modelli, meditazioni, contemplazioni, immedesimazioni sofferte, miti e religioni è questa l’unica e ultima risposta: che siamo dentro una trappola senza possibilità di uscita? Sarebbe veramente il massimo dell’ironia se l’unica proposizione linguistica che un mistico possa formulare, senza contraddire Lao Tse, fosse che l’Io costruisce un mondo “a propria immagine” più o meno “adeguato”, senza essere consapevole di farlo, poi “sente” questo mondo, “esterno” e indipendente da sè, infine costruisce l’Io stesso a fronte della realtà di quel mondo ritenuto oggettivo, perdendosi in un frattale se scopre il gioco!

Le conseguenze positive che ne derivano sul piano sociale (tolleranza, e pluralismo, responsabilita personale, distacco dalle proprie percezioni e valori a favore di altri…), certamente non bilanciano l’ambito circolare in cui rimane imprigionata la creatività umana.

Infine certe attuali tendenze psicologiche (16) sostengono una dualità interattiva nella conformazione della mente. L’evoluzione del cervello dapprima avrebbe favorito lo sviluppo del lato destro, preposto essenzialmente ad una comunicazione empatica con la Natura, tanto da permettere l’ascolto delle “Voci degli Dei”, mentre il lato sinistro, oggi sede della consapevolezza razionale e della individualità, rimaneva in ombra permettendo comportamenti forse più conformi al vivere in gruppo, con scarsa consapevolezza dell’Io. Successivamente si ha una rivoluzione cerebrale dalla quale emerge e domina l’emisfero sinistro in tutta la sua complessità e potenza, atto alle analisi consapevoli e alle certezze sull’esistenza dell’Io, ove prevale la visione razionale all’atto uditivo di ascoltare gli Dei. Non ne deriva forse che per comunicare col Dio (e quindi cogliere la Verità) è necessario un processo di annullamento dell’Io nel cosmo?

“Non si può negare ciò che non si conosce”, affermano spesso gli Scritti Sacri e “di ciò che non si può parlare si deve tacere” (settima e ultima proposizione del Tractatus), ma forse è un “tacere” che apre altre direttrici di esperienza, in un mondo come l’attuale nel quale si sta riscoprendo la narrazione epica e il mito.

(Dott. Piero Pistoia)

BIBLIOGRAFIA

1-Galilei “Dialogo sopra i due massimi sistemi del mondo” Salani, 1964

2-K. Popper “La logica della scoperta scientifica” Einaudi, 1970

3-O. Tobisco “ La crisi dei fondamenti” Borla, 1984

4-C. Hempel “Filosofia delle scienze naturali” Il Mulino, 1968, pag. 20-21

5-A.V. “Critica e crescita della Conoscenza” Feltrinelli,1976

6-P. Feyerabend “Addio alla Ragione” Armando,1990

7-M. Cerutti “La danza che crea” Feltrinelli,1989

8-I. Kant “Prolegomeni”, Laterza, 1982

9-I. Kant “Critica della Ragione Pura” Laterza, 1966

10-A. V. “La realtà inventata”,  Feltrinelli, 1989, pag.17-35

11-B. Russell “L’analisi della materia” Longanesi,1964, pag. 293-29

12-E. Stein “Il problema dell’empatia” Studium,1984

13-L. Wittgenstein “Tractatus logico-philosophicus” Fratelli Bocca,1954

14-Lao Tse “Tao Te Ching” Adelphi,1980

15-L. S. Lerner et al. “Giordano Bruno” Le Scienze, N.58

16-Jaines “Il crollo della Mente Bicamerale” Adelphi, 1988

 

DALLA “SCIENZA” ALLA “NARRAZIONE”: i sintomi di un virus nella Conoscenza e nel vivere sociale; a cura del dott. Piero Pistoia

Curriculum di piero pistoia:

piero-pistoia-curriculumok (#)

Testo rivisitato da ‘Il Sillabario’ n.  3 1995

DALLA “SCIENZA” ALLA “NARRAZIONE”
I sintomi di un virus nella Conoscenza e nel vivere sociale
A cura del Dott. Piero Pistoia 

RIASSUNTO

Una critica affilata su fatti e processi nell’acquisizione di conoscenza ha condotto al mondo delle “narrazioni”,  dove le varie “tradizioni” devono  essere rispettate in quanto tutte essenziali, e ha soffiato ossigeno su un  vivere sociale reso asfittico dall’unica tradizione razionale.

……………………………………………………………………………………………

Nelle sue linee essenziali,  analizzeremo, insieme ad altro,  il processo  d’acquisizione di conoscenza con l’accademico Pera [1]. Fino a qualche tempo fa – e ancora oggi nella maggior parte degli ambienti culturali e didattici di ogni tipo e a qualsiasi livello (escludendo gli specialisti) – eravamo sicuri che l’episteme (la scienza) permettesse l’osservazione al di sopra e al di fuori (epi-stànai) del mondo, secondo convinzioni certe le cui radici si perdono lontane nel profondo della Grecia antica. Lo schema essenzialmente razionale, che riassume questa convinzione, considera due poli in interazione più o meno intensa connotata storicamente: da una parte l’osservatore o ciò che l’osservatore produce (l’ipotesi H) e dall’altra la natura indagata o i dati D che essa in qualche modo fornisce. Una serie di processi operativi, talora ritualizzati (metodi scientifici), “interposti” fra i due poli a guisa di interfaccia, avrebbero dovuto garantire il trasferimento cognitivo, cioè i metodi assiomatici, induttivi, ipotetico-deduttivi…

Ma una attenta riflessione critica sui meccanismi in gioco in queste interazioni a due termini, ancora ben lontana dai normali canali di comunicazione culturale – es., dal senso comune, ma anche dall’attività didattica e altro (si pensi alle argomentazione manichee di certi politici e sindacalisti, di certi storici, di avvocati, magistrati e giudici ..) – ha fortemente indebolito, in questi ultimi anni, le sicurezze, e introdotto in ogni passaggio, nei meandri della relazione H-D, come azione sui metodi e nell’esplicitazione di D, come azione sui protocolli, elementi soggettivi che sembrano ineliminabili alla ragione. Guai per chi rimane intrappolato nelle maglie dei  cicli perversi del sillogismo strumentale [5], cioè il linguaggio della scienza, delle leggi e dei codici, ma anche della malevolenza e della calunnia! “Prima di giudicare una persona cammina per tre lune nei suoi mocassini”, recita un saggio e antico detto Sioux. Questo sillogismo non è conforme neppure al falsificazionismo popperiano, che, pur indebolito, poteva rappresentare, per la libertà, la giustizia e la democrazia, una conquista non trascurabile in campo legale, sociale ed umano!

Così, per quanto riguarda il rapporto H-D, nessun processo induttivo [1], sostenuto dalla logica, può portare da D ad H (Popper), nessuna probabilità è derivabile per H a partire solo da D, senza interventi del soggetto, nessuna implicazione logica, anche se “vera”, come il modus tollens popperiano, [(H -> D) U non-D] -> non-H, permette la falsificazione univoca (Duhem) [2], data la presenza in H di ipotesi al contorno non esplicitate (non si sa cos’è che viene in effetti falsificato) ecc.. (1)

Per quanto riguarda poi il versante dei dati, la sicurezza di D, il cosiddetto protocollo sperimentale, basta dire che non solo la sua descrizione presuppone l’uso di un linguaggio per sua natura intriso di teoria, ma la costruzione stessa dell’informazione sul dato ha bisogno di aspettative e quindi di teorie e punti di vista più o meno esplicitati e lo stesso funzionamento dello strumento che lo raccoglie (compreso l’occhio o altro organo di senso) si basa spesso su teorie estremamente complesse e lontane dall’ambiente di osservazione e/o di misura. Lo stesso D non rimanda inoltre univocamente ad una sola teoria; più teorie incompatibili [2] possono essere sostenute dallo stesso D (Quine): svariati percorsi razionali “fanno attrito” con il mondo!

A sostegno di questa breve sintesi sulla debolezza razionale dei processi di acquisizione di conoscenza, costruiti su due termini e riferiti alla scienza, riporto di seguito una carrellata di illuminanti passaggi individuati sempre dal docente M. Pera [3], che, a colpi di flasch, colgono le posizioni attualmente rilevanti sull’argomento. Si riscopre così l’ affermazione nietzscheana che “i fatti non ci sono, bensì solo interpretazioni” tradotto poi da Nerida in “non c’è fuori-testo”, da Hanson in “hypotheses facta fingunt”  o in “i fatti sono teorie di piccola taglia” (Goodman); “i fatti sono socialmente costruiti” (Latour); “ogni teoria possiede la sua esperienza” (Feyerabend); “i sostenitori di paradigmi opposti praticano i loro affari in mondi diversi” (Kuhn); “entro quadri concettuali diversi le stesse esperienze prendono la forma di fatti e prove diverse” (Polanyi).

E’ interessante notare come in molti scritti di autori di diverse discipline si rinviene spesso un percorso culturale analogo. Si veda per esempio lo sviluppo del pensiero dello psicologo e pedagogista J. Bruner: dal Cognitivismo “duro” degli anni ’60 (“Verso una teoria dell’istruzione”, Armando), attraverso “Saggi per la mano sinistra” e “Significato dell’educazione” (Armando), dove si afferma anche che differenti culture “vedono” il mondo con occhi differenti, si giunge a “La mente a più dimensioni” (Laterza) e infine a “La ricerca del significato” (Bollati Boringhieri), con riferimenti pedagogici alla co-educazione, interazione motivazione extra-cognitiva dell’apprendimento, ponendo più volte l’accento sulla valenza psicologica e pedagogica delle narrazioni.

Anche con interazioni a più poli (più teorie contro l’empirico) la conoscenza rimarrà inevitabilmente e tragicamente infondata. Ad analoghe conclusioni si arriverebbe se considerassimo come poli in interazione l’Io (osservatore) e la Natura. A differenza del discorso analitico su H e D, l’interazione Io-Natura rimanda a riflessioni su filosofie orientali e/o alla scoperta, nelle pieghe del rapporto, di confini-frattali senza possibilità di uscire fuori dal ciclo vizioso: Io-Natura-Io [4].

E’ da notare come questa esplosione ramificata di posizioni critiche abbia avuto come sorgente la revisione della struttura categoriale kantiana delle forme a priori. In particolare si pensi alla rivoluzione mentale scatenata dopo l’invalidazione del “sintetico a priori” kantiano, e la percezione che la geometria euclidea non era l’ unica geometria possibile del mondo.

Questa posizione nata all’interno di una meta-riflessione da parte delle stesse scienze umane, viene stranamente avvallata dalle ultime argomentazioni nate all’interno della scienza stessa.

Se l’Universo è disseminato di “turbolenze”, una piccolissima variazione delle condizioni iniziali, al tempo considerata insignificante, ovvero all’interno delle soglie dell’errore, potrebbe provocare soluzioni impreviste e imprevedibili con incidenza non trascurabile sul mondo fenomenico [5].

Una esatta prevedibilità in questi sistemi caotici (sensibili a minime differenze iniziali) presupporrebbe poter assegnare numeri reali alle misure delle grandezze che figurano nelle condizioni iniziali. Allora fattori sconosciuti di entità non misurabile, pur non potendo essere scoperti dai ricercatori, potrebbero causare grosse modifiche sui fenomeni. E ancora onde elettromagnetiche di energia inferiore alle soglie del misurabile potrebbero produrre ugualmente effetti vistosi. Così il mondo delle nostre misure a decimali finiti (cifre significative limitate) riguarderebbe una sezione estremamente piccola, semplice e addomesticata dell’Universo, anche se efficace nell’ambito della sopravvivenza umana (anche troppo!), perchè come affermava Vico (Verum Ipsum Factum), abbiamo “inventato” leggi per costruire un marchingegno che, in quelle particolari circostanze e in quei casi, estremamente ammaestrati nel tempo e nello spazio, della realtà, funzionasse, cioè fosse “vero” per noi (e spesso accade che neppure funzioni in quelli): si tratta di uno degli infiniti percorsi in un “reale” estremamente complesso e disordinato.

Quando Galileo diceva di voler cogliere nella complessità inesprimibile dell’esperienza solo percorsi semplici, le cui grandezze fossero esprimibili  con numeri a decimali limitati, voleva certamente affermare l’ambito estremamente limitato del mondo della “quantità”, unico mondo che la parte razionale della mente può capire e gestire, non essendo adatta ad affrontare l’oggetto nella sua complessità, oggetto certamente poco ordinato. E quando Galileo costruiva e interpretava gli oroscopi (e plausibilmente ci credeva, come tutti i suoi contemporanei, visto che sapeva “leggere” le influenze del cielo sulla vita) voleva significare appunto l’esistenza di una parte complementare al “semplice”, cioè la maggior parte del mondo (ci sono molte più nubi, alberi e cose simili che cristalli nel cosmo), che poteva venir colta in altri modi. E’ facile che Galileo non fosse un ingegnere-empirista, dedito continuamente a prove sperimentali, ma più plausibilmente un fisico teorico [6] che quasi mai ripiegava sull’esperimento, e che usava invece il teorema e il suo “principio di continuità” come prassi scientifica usuale.

Sulla stessa linea di pensiero, per il grande logico L. Wittgenstein esiste un immenso mare del mistico-magico che circonda oscuro e tempestoso la piccola isola del razionale, anche se poi di questo mare non se ne può parlare (indicibile), usando i linguaggi della ragione (primo Wittgenstein) e degli altri “giochi linguistici” possibili (isola), nessuno è plausibile, perchè non c’è realtà “lì fuori” (secondo Wittgenstein), anticipando le posizioni drammatiche attuali. E’ vero che gli elettroni esistono ed hanno carica negativa? Li abbiamo “individuati” con i nostri criteri, con i nostri requisiti etici, le nostre esigenze estetiche, nell’ambito del nostro linguaggio, proprio come i Greci antichi “individuarono” Afrodite!  E’ vero (Vico): esistono ed hanno carica negativa; però solo nel nostro mondo linguistico e culturale, dove il consenso rinforzato è l’unica condizione di verità, come lo fu per Afrodite.

E così il Progresso (meglio la parola più neutrale Modificazione ambientale) – cioè la capacità di sezionare e guarire i corpi aumentando la speranza di vita, di scoprire dietro pieghe spazio-temporali le particelle più strane che o prima o poi potrebbero servire per trasferirci ancora più energia a nostro uso e consumo ormai esponenziali (qualità e speranza di vita) ecc. – è tale solo rispetto ai nostri criteri manipolativi, operativi e tecnologici e ai valori su cui questi si fondano e quindi, in ultima analisi, ai nostri valori etici, politici ed estetici. Questi criteri sorti all’interno del nostro mondo, potranno garantirci al massimo questo nostro mondo, non “il Mondo” [3] ! In società “fredde” i valori sono altri e gli obiettivi si spostano, con l’importanza e la densità dei nessi, al fuori dell’io, nei loro cieli chiusi.

Quando i fatti, le prove, l’esperienza scientifica “costruita” in laboratorio, in base a precisi presupposti (esperimento), non sono più termini di confronto neutrali e la stessa falsificazione fallisce non riuscendo ad individuare ciò che di fatto viene negato, si perdono i riscontri oggettivi della razionalità e sparisce il criterio di demarcazione fra sapere razionale e gli altri (arte, metafisica, religione, magia s.l.). In altre parole sono le teorie a costruire i “fatti” e a fornire le prove.

Quando una teoria così diventa abbastanza organizzata tende ad auto-difendersi dall’eliminazione, prevedendo, attraverso la mente intrappolata del ricercatore (trappola di Wittgenstein), solo esperimenti favorevoli. Accettare una teoria scientifica invece di un’altra, allo stesso modo di accettare o no gli dèi, è solo funzione delle idiosincrasie della storia e non di qualche metodo razionale coniugato a prove empiriche. Scienza, religione, arte, magia s.l. sono tutte favole  che sono “vere” in senso vichiano all’interno dei loro mondi.

Altri popoli e razze da sempre hanno costruito altri mondi, diversi da quello artificiale e amorale dell’uomo bianco occidentale, su altri valori, principi, credenze e uniformità e queste strutture, non necessariamente razionali (dove il magico e il rituale giocano più che la logica e l’argomentazione critica), hanno funzionato da sempre, funzionano e se non interverranno aliene interferenze, continueranno a funzionare (sono “vere” in senso vichiano). Quei popoli sono infatti sopravvissuti secondo i loro ritmi e il loro senso della felicità (vivere 80 anni invece di 35, non significa un bene in assoluto!). Guarda caso, come abbiamo già accennato, il progresso operato dalla scienza è misurato con i valori interni allo stesso mondo in cui si dice che la scienza opera progresso!

Ci sono pregevoli culture umane, modelli di visione del mondo non derivate dalla scienza che, non solo sono capaci di far sopravvivere la specie riuscendo a controllare l’ambiente in massima armonia, ma costruiscono, a differenza della cultura occidentale, un uomo più completo all’interno, con un Io (non l’io singolo) più evoluto, consapevole e vigoroso, a fronte di una mera amplificazione sensoriale e percettiva sul piano simbolico, amorale nei confronti del resto dell’universo. In ognuno di questi mondi, senza onde nè codici, avvengono “miracoli” non dissimili per quei popoli a quelli basati sulla scienza per il nostro popolo. Gli spiriti, i Mani delle cose e gli stregoni o gli sciamani che li controllano, hanno potere effettivo sugli oggetti dell’universo anche se solo all’interno di questo cielo chiuso, come potere ebbe Afrodite sulle cose e sui cuori degli uomini, quando i greci credevano negli dei! Nello stesso modo funziona per noi il nostro mondo artificiale, disarmonico e sovrapposto alla Natura che, divenuto meno vincolato e più potente dal succhiare continuamente la vita alle altre specie ed energia all’ambiente,  spinge fino ai limiti dell’universo conosciuto il proprio rumore assordante e la propria spazzatura. Se il nostro mondo interferisce su uno degli altri il fragile meccanismo proprio dèi mondi in armonia con la Natura si rompe, i riti si inquinano, gli spiriti si nascondono, i Mani abbandonano le cose, i miracoli cessano e la struttura culturale non funziona più; l’unica via è affidarsi allora alle mani dell’invasore, perdendo la propria identità e i propri dèi, divenendo in pratica una sottospecie. Pionieri, colonizzatori, missionari, eroi scopritori, civilizzatori, antropologi e altra “ciurma” di questa sorta, se ne stiano a casa loro! E’ inutile: le loro tecniche non saranno in grado di arginare i danni da esse provocati! La foresta amazzonica si salva nel regno dell'”empatia”, del rispetto incondizionato, com’è nei costumi “totemici” delle popolazioni indie che l’abitano e non nel segno della “scienza” e del “calcolo”, dell’uso interessato com’è nei propositi “occidentali” di finalizzarlo alla sopravvivenza ad oltranza della nostra specie! Voler giudicare e misurare con idee e strumenti del nostro mondo valori e grandezze di un altro è mera utopia, presunzione e irresponsabilità: la furba Afrodite non si farà mai scoprire dagli strumenti dell’uomo razionale!

Non è allora fuori luogo la ricerca di modi alternativi [4] alla scienza nel cogliere il mondo, sui quali da secoli la nostra cultura non ha mai investito seriamente, limitandosi invece a criticare, punire e uccidere. Parlo della magia, della esperienza religiosa e mistica (esiste davvero il miracolo?), dell’esperienza empatica con l’oggetto osservato (filosofie orientali) ed è da sperare che funzionino in qualche modo al di là delle semplici “narrazioni” della scienza ufficiale!

Non è trascurabile, per terminare, il fatto che, dalle nostre parti, la tradizione dominante per eccellenza, quella razionale, sostiene oggi più che mai i gruppi di potere. Dopo 50 anni di sufficiente libertà un po’ per tutti, oggi c’è la tendenza a realizzare una società fortemente ordinata e programmata, dove tutto sia previsto e ogni azione vagliata e se non conforme punita, secondo una interna giustizia. Si tratta del virus della violenza della “società dell’organizzazione totale”, permessa da tutte le culture che si proclamano uniche e che, alla ricerca dell’essenza, eliminano continuamente il “caduco”; società che, come afferma G. Vattimo, sembrano essere legate a tutti gli essenzialismi metafisici, quelli più immediati del passato e quelli nascosti anche nelle pieghe del pensiero scientifico. Non c’è “una sola forma di umanità vera da realizzare, a scapito di tutte le peculiarità, di tutte le individualità limitate, effimere, contingenti” [6].

Lo stesso Caos Deterministico ci insegna che l’Universo è colmo di informazioni molto di più di quello che si credeva e tutte essenziali (di qui l’estrema difficoltà nel predire)!

Invece fra poco nessuno potrà più permettersi di oscillare intorno alla norma, o qualche volta di calpestare un’aiuola o fare una fotocopia in più di un articolo. L’uomo occidentale ormai disarmonico con la Natura, impaniato in migliaia di vincoli esosi, potrà percorrere solo pochissimi sentieri e il suo desiderio di libertà sarà fortemente frustrato. Se a questo aggiungiamo che sta perdendo legami anche con i suoi simili e si sente solo in mezzo agli altri, ben vengano maghi, psicologi, cartomanti, psichiatri, fattucchiere, preti di diverse religioni e pranoterapisti, pronti, a pagamento, ad ascoltare i problemi di vita di noi poveri diavoli. Non importa se le cose non funzioneranno (forse perché tradizioni incomplete, parziali, aperte), ma certamente serviranno a recuperare qualche momento di pace e speranza, completamente sconosciute in questa società  del cemento e del lungo tempo di vita, di banche e profitto e di ragionieri!

(Dott. Piero Pistoia)

Vers. rivisitata, Il Sillabario, n.3, 1995, VII

BIBLIOGRAFIA E NOTE

[1] M. PERA “Induzione e metodo scientifico”, Editrice Tecnico Scientifica,1978.

[2] A.V. “Critica e crescita della conoscenza”, Feltrinelli, 1976.

[3] M. PERA “Il Mondo la Scienza e Noi” da “Il mondo incerto”, Sagittari Laterza, 1994.

[4] P. PISTOIA “La Teoria, la Realtà ed i limiti della conoscenza” (in questo blog).

[5] E. BENCIVENGA “Oltre la Tolleranza”, Feltrinelli, 1992.

P. PISTOIA “Frattali, Logica e senso comune: considerazioni iperboliche” (in questo blog).

[6] A. KOYRE’ “Galileo e Platone” in “Le radici del pensiero scientifico”,  Feltrinelli, 1977.

[7] G. VATTIMO “La società trasparente”, Garzanti, 1989.

NOTE

(1) TABELLA DI VERITA’ DELL’IMPLICAZIONE: H implica Q

H-> Q     H        Q
(1) vera vera vera
(2) vera falsa vera
(3) vera falsa falsa
(4) falsa vera falsa

Dalla Tavola di Verità si evince che se l’implicazione è vera – il nostro caso – la verità di Q (righi 1 e 2) non ci dice nulla sulla verità di H che può essere vera o falsa indifferentemente. Ne deriva un’espressione logica scorretta, cosiddetta della FALLACIA NELL’AFFERMARE IL CONSEGUENTE, classica dei processi induttivi e della verificazione dei positivisti. Questa espressione scorretta ha la forma:

Se “H  implica  Q1,Q2…Qn”, è una affermazione vera e
se dall’esperimento od altro risulta che le Qi sono vere
——————————————————————-
H è vera

In simboli: [(H->Q)UQ]->H.

Se le implicazioni sperimentali Qi dell’ipotesi H sono vere non risulta affatto che H sia vera, neppure probabilisticamente, perché le Qi in effetti sono infinite.

Invece se l’implicazione è vera e Q è falsa (rigo 3) necessariamente anche H è falsa (MODUS TOLLENS); in simboli

[(H->Q)U(non-Q)]->non-H.

Se (H  implica Q) è una relazione vera,
se dall’esperimento od altro  risulta che un Qi è falso
————————————————————-
H è falsa

LA TEORIA, LA REALTA’ E I LIMITI DELLA CONOSCENZA: considerazioni provocatorie a cura del dott. Piero Pistoia

Curriculum di piero pistoia:

piero-pistoia-curriculumok (#)

::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::

 

LA TEORIA, LA REALTA’ E I LIMITI DELLA CONOSCENZA
Considerazioni provocatorie
a cura del Dott. Piero Pistoia (vers. rivisitata)

Le Teorie scientifiche sono nostre invenzioni e, talora, procedendo, come afferma Galileo (1), “contro le sensate esperienze” e “facendo violenza al senso”,  sono così audaci da ‘scontrarsi’ con la Realtà;  e’ appunto da questo “scontro”  veniamo a conoscere che il Reale esiste (2). Questa posizione (3) considera errata la concezione secondo cui le teorie scientifiche debbono essere fondate su ciò che di fatto osserviamo, cioè sui dati forniti dal Reale, o perché riconducibili a puro compendio e organizzazione di essi (Circolo di Vienna) o perché conformate da  proposizioni molecolari teoriche, scomponibili in atomi linguistici immediatamente rapportati ai dati immediati dell’esperienza (Wittgenstein).

La Teoria non è riducibile ad asserzioni protocollari (dice molto di più di quanto possiamo sottoporre a controllo), per cui l’empirico non è più sorgente di significati per essa, serve solo, attraverso la logica del modus tollens (vedere dopo), a ricercarne, continuamente e senza fine, la falsificazione.

La Teoria così non è costruita a partire dai dati secondo processi di generalizzazione riassunti dal concetto di Induzione, che, sfuggendo a qualsiasi dimostrazione logica, ha la propria origine nella neuro-fisiologia animale  e serve  solo alla costruzione di una classe di convincimenti psicologici (certezze, ma non verità).

Essa non potrà mai essere “verificata” dai fatti, perché il procedimento (fallacia dell’affermare il conseguente): “se H implica S e S è vero, allora H è vera”, non è un procedimento logico fino in fondo.

La Teoria potrà invece essere falsificata dai fatti tramite il procedimento deduttivamente valido (modus tollens): “H implica S e S è falso, allora H è falsa” (4).

Se poi nell’analizzare la zona di “scontro” (falsificazione) rinveniamo ancora processi a logica debole come l’Induzione, ovvero, data la complessità teorica degli oggetti in gioco (5), rimane oscuro e indeterminato ciò che viene falsificato, allora le teorie rimarranno semplici invenzioni della mente, convenzioni sostenute ora da paradigmi a forte permeabilità sociale (Kuhn), ora dai successi dei Programmi di Ricerca (Lakatos).

Ma allora il sostegno delle Teorie scientifiche non è più qualcosa di solido e oggettivo: prende il sopravvento l’aspetto convenzionale, arbitrario, propagandistico e strumentale, nel senso che esse diventano solo efficienti strumenti per la modifica più radicale dell’ambiente (teorico e fisico) a favore di una sopravvivenza (culturale e fisica) ad oltranza degli umani. Le teorie diventano convenzioni arbitrarie semplici ed efficaci, funzionali ai fatti, anche se non funzione dei fatti.

Si indebolisce così, in termini di principio, la distinzione da altre attività della mente umana con gli stessi obbiettivi (6) come le teorie del senso comune e del buon senso, il mito e la magia, la fede e il misticismo…(Epistemologia Anarchica).

La teoria scientifica diventa un’invenzione che non costruisce mappe del Reale, ma vi inventa sentieri e vi disegna “di brutto” depressioni e rilievi, aprendosi la strada man mano che procede. Il poeta Antonio Machado (7), in grande poesia, esprime questa azione conoscitiva umana:

Viandante, son le tue orme la via ,
e nulla più;
viandante non c’è via,
la via si fa coll’andare.
Con l’andare si fa la via
e nel voltare indietro la vista
si vede il sentiero che mai
si tornerà a calcare.
Viandante, non c’à via
ma scie sul mare.

Già Kant aveva affermato che “l’intelletto non attinge le sue leggi dalla Natura ma le prescrive (quaestio iuris) ad essa” (8) e altrove (9) che “l’Intelletto vede solo ciò che esso stesso produce secondo il suo disegno”.

Ciò che ne emerge è una topografia nuova di zecca, inventata e costruita dall’Uomo per L’Uomo ed è questo il suo Universo, “vero”, perché funziona, è adatto ed adeguato (l’inglese fitting, o il passen tedesco).

Verum ipsum factum, aveva detto Vico molto tempo prima: ciò che l’Uomo “crea” con le sue mani è “vero” per l’uomo, cioè funziona nell’ambiente in cui l’uomo opera, permettendo di modificare tale ambiente fenomenico esterno e interno ai propri fini.

Allora non è dell’Uomo la conoscenza assoluta del Reale, visto come una congerie di infinite possibilità razionali e irrazionali di stati di un “qualcosa”, dove neppure il prima e il dopo, il sinistro e il destro, il sopra e il sotto corrisponderanno all’esperienza umana (Noumeno kantiano).

Nessuna concordanza o corrispondenza di immagine (match e in tedesco stimmen) quindi fra conoscenza e realtà, a differenza delle concezioni tradizionali e della Psicologia Cognitiva, sostiene con forza il Costruttivismo radicale  (10).

Forse siamo davvero chiusi in un “trappola per mosche”, costituita da una bottiglia la cui sommità è un imbuto rovesciato.  Dall’interno l’unica apertura appare alla mosca come la soluzione meno probabile e la più irta di ostacoli e da essa distoglie l’attenzione. E’ meno gravoso organizzarsi all’interno della trappola che trovare la via.

Come uscire allora da questa trappola che, metaforicamente, rappresentala nostra inadeguatezza nella soluzione dei problemi conoscitivi? Data la configurazione, le soluzioni andranno cercate nei luoghi più improbabili, fuori dalle credenze comunemente accettate, al di là delle abitudini dipensiero, negando cioè tutto ciò che compone il nostro attuale sistema di riferimento: la soluzione è infatti dove c’è più rischio. Non per niente ci si accorge poi che ogni fatto che sia stato oggetto di rifiuto più astioso e viscerale e limitato dalle repressioni più crudeli, stranamente, possedeva la sconcertante capacità di porre problemi insidiosi, ma che schiudevano nuove vie.

All’interno, quindi, il quadro concettuale appare coerente e privo di contraddizioni: il sistema di credenze, “dentro”, si auto-giustifica continuamente e tutti gli atti (osservazione, giudizio, valutazione…) vengono compiuti dal punto di vista particolare del sistema stesso. Se vogliamo uscire è necessario inventare un nuovo e inusitato sistema di certezze da cui “guardare” la situazione: è allora che riusciamo a individuare improvvisamente l’apertura. Una volta usciti ci troviamo però in un’altra trappola che ingloba la prima  e così via all’infinito: ciò che progredisce è solo l’adeguatezza delle teorie (fitting e non matching) che diventano sempre più funzionali ai nostri fini.

Questa configurazione indeterminata di trappole includenti sarebbe poi la conseguenza di un’ unica trappola inesorabile, cioè l’impossibilità totale della distinzione fra soggetto e oggetto. L’Io stesso è la visione dell’Universo, affermava il premio Nobel per la Fisica Schroedinger. Il confine di separazione fra Io e Universo si perde in frattali indefiniti e la sua ricerca rincorre descrizioni, di descrizioni, di descrizioni…. La poesia di Montale, trascritta di seguito (commentata nel post a più dimensioni in questo blog), sottolinea questa impossibilità di raggiungere tale limite da “dentro” (Non chiederci la parola che squadri da ogni lato/ l’animo nostro informe…) e da “fuori” (Non domandarci la formula che mondi possa aprirti…).

NON CHIEDERCI LA PAROLA

Non chiederci la parola che squadri da ogni lato
l’animo nostro informe, e a lettere di fuoco
lo dichiari e risplenda come un croco perduto
in mezzo a un polveroso prato.
Oh l’uomo che se ne va sicuro,
agli altri e a se stesso amico,
e l’ombra sua non cura che la canicola
stampa sopra uno scalcinato muro!
Non domandarci la formula
che mondi possa aprirti, sì qualche
storta sillaba e secca come un ramo,
codesto solo oggi possiamo dirti, ciò
che non siamo, ci che non vogliamo.

Quindi come nell’incisione: “Galleria di Stampe” di Escher (vedere figura), l’Io, in basso, osserva un mondo (nave e fila di case lungo costa),  che si trasforma nel substrato che lo produce (casa d’angolo in alto a destra  dove si apre proprio la galleria dov’è l’Io che guarda). Non esiste alcun luogo da dove uscire (confine): se tentassi di farlo (risalire all’inizio di un mio pensiero o idea) mi troverei nel bel mezzo di un frattale in continua regressione, perdendomi in una infinità di dettagli e interdipendenze (il circolo interminabile che sfuma nello spazio vuoto al centro della figura).

Ma allora il Paradosso non è semplicemente una curiosità intellettuale, ma si nasconde fra le pieghe dello stesso atto conoscitivo: correndo lungo un ramo di iperbole, non è da escludere che, in questi contesti, i due famosi professori in medicina, il Corvo e la Civetta, del libro di Pinocchio, ricordati con maestria e precisione da Collodi, avessero ragione ambedue.

Da questo insieme compenetrato e circolare di Io e Universo è mai possibile “saltar fuori”? L’”ombra”, di cui si parla nella poesia, porta scritto qualche segreto? Sarà forse più facile l’accesso al Reale tramite l’esperienza mistico-religiosa, l’esperienza artistica e quella magica?

Quest’ultime due, profondamente legate al loro sorgere (si pensi ai significati dell’arte Paleolitica nelle grotte di Lascaux), hanno lasciato di tale interazione tracce nell’arte di tutti i tempi (si pensi agli strani cieli a misura d’uomo di Van Gogh), anche se abbiamo perso la consapevolezza di questi profondi significati archetipici.

Già lo stesso B. Russel affermava che “non vi era alcuna ragione definitiva di credere che tutti gli accadimenti naturali avvengano secondo leggi scientifiche” (11). La discontinuità del tempo e dello spazio e la quantizzazione del microcosmo individuavano “zone d’ombra” a regime caotico, per cui “l’apparente regolarità del mondo sarebbe dovuta alla completa assenza di leggi”.

Non è trascurabile il fatto che scienziati e filosofi abbiano mutuato dalla Fenomenologia di Husserl (12) la parola “einfuhlung” (immedesimazione, empatia) per spiegare l’illuminazione che la mente subisce quando “inventa” ipotesi creative sul cosmo.

Il grande logico Ludwig Wittgenstein nel suo Tractatus Logico-Philosophicus (13) alla proposizione 6.52 scriveva “Noi sentiamo che se tutte le possibili domande della scienza ricevessero una risposta, i problemi della nostra vita non sarebbero neppure sfiorati” e successivamente, alla 6.522, “C’è veramente l’Inesprimibile. Si mostra, è ciò che è mistico”.

Esiste allora un immenso mare del magico e del mistico che circonda oscuro e tempestoso la piccola isola del razionale, anche se poi di questo “altro” (mare) non se ne può parlare (1° Wittgenstein), e degli altri infiniti “giochi linguistici” possibili sul mondo (isola), nessuno è plausibile, perché non c’è realtà là fuori“ (2° Wittgenstein). E’ vero: spesso nelle esperienze mistiche e forse magiche, dove per pochi secondi soggetto e oggetto si fondono nella stessa unità primordiale, le descrizioni sono vaghe e soggettive; “il Tao che può essere espresso non  il vero Tao”  (14). Ma, per esempio, nel caso della situazione di Einfuhlung nella ricerca scientifica, mi sembra, che le cose siano leggermente diverse (si pensi all’ipotesi creativa che risolve un problema cruciale del mondo). Se questo fosse vero, forse sarebbe possibile non solo pronunciare qualche “storta sillaba”, ma balbettare qualche parola e sarebbe già qualcosa in termini di principio.

Il presupposto dell’esperienza magico-mistica che fa corrispondere puntualmente la struttura reale del Cosmo a quella della mente umana, permetteva l’accesso ai segreti più nascosti della Natura attraverso la meditazione e la contemplazione sull’Universo.

Si pensi a Giordano Bruno (15), che apriva un canale di comunicazione reversibile fra l’Uomo e Dio, percorribile, dal basso all’alto, tramite l’esperienza magico-mistica e la contemplazione su un Universo infinito (per questo fu bruciato vivo). Per lui la scienza e il copernicanesimo, a differenza di Galileo, che per questo salvò la vita, non erano altro che metafore e gli errori, che nell’interpretazione scientifica di esse commetteva, erano di nessun conto di fronte al potere che pensava di schiudere all’umanità ( la conquista del Vero contro l’apparente).  Lo stesso grande filosofo e mistico Plotino non incoraggiò forse a guardare in se stessi anziché all’esterno, perché da dentro è possibile contemplare il Nous (Spirito-Intelletto), che è divino, nel quale è scritta la struttura profonda dell’Universo?  Si pensi a quello che aveva detto lo stesso Shroedinger.

Dopo millenni e millenni di dibattiti, argomentazioni, teorie, modelli, meditazioni, contemplazioni, immedesimazioni sofferte, miti e religioni è questa l’unica e ultima risposta: che siamo dentro una trappola senza possibilità di uscita? Sarebbe veramente il massimo dell’ironia se l’unica proposizione linguistica che un mistico possa formulare, senza contraddire Lao Tse, fosse che l’Io costruisce un mondo “a propria immagine” più o meno “adeguato”, senza essere consapevole di farlo, poi “sente” questo mondo, “esterno” e indipendente da sè, infine costruisce l’Io stesso a fronte della realtà di quel mondo ritenuto oggettivo, perdendosi in un frattale se scopre il gioco!

Le conseguenze positive che ne derivano sul piano sociale (tolleranza, e pluralismo, responsabilità personale, distacco dalle proprie percezioni e valori a favore di altri…), certamente non bilanciano l’ambito circolare in cui rimane imprigionata la creatività umana.

Infine certe attuali tendenze psicologiche (16) sostengono una dualità interattiva nella conformazione della mente. L’evoluzione del cervello dapprima avrebbe favorito lo sviluppo del lato destro, preposto essenzialmente ad una comunicazione empatica con la Natura, tanto da permettere l’ascolto delle “Voci degli Dei”, mentre il lato sinistro, oggi sede della consapevolezza razionale e della individualità, rimaneva in ombra permettendo comportamenti forse più conformi al vivere in gruppo, con scarsa consapevolezza dell’Io. Successivamente si ha una rivoluzione cerebrale dalla quale emerge e domina l’emisfero sinistro in tutta la sua complessità e potenza, atto alle analisi consapevoli e alle certezze sull’esistenza dell’Io, ove prevale la visione razionale all’atto uditivo di ascoltare gli Dei. Non ne deriva forse che per comunicare col Dio (e quindi cogliere la Verità) è necessario un processo di annullamento dell’Io nel cosmo?

“Non si può negare ciò che non si conosce”, affermano spesso gli Scritti Sacri e “di ciò che non si può parlare si deve tacere” (settima e ultima proposizione del Tractatus), ma forse è un “tacere” che apre altre direttrici di esperienza, in un mondo come l’attuale nel quale si sta riscoprendo la narrazione epica e il mito.

(Piero Pistoia)

BIBLIOGRAFIA

1-Galilei “Dialogo sopra i due massimi sistemi del mondo” Salani, 1964

2-K. Popper “La logica della scoperta scientifica” Einaudi, 1970

3-O. Tobisco “ La crisi dei fondamenti” Borla, 1984

4-C. Hempel “Filosofia delle scienze naturali” Il Mulino, 1968, pag. 20-21

5-A.V. “Critica e crescita della Conoscenza” Feltrinelli,1976

6-P. Feyerabend “Addio alla Ragione” Armando,1990

7-M. Cerutti “La danza che crea” Feltrinelli,1989

8-I. Kant “Prolegomeni”, Laterza, 1982

9-I. Kant “Critica della Ragione Pura” Laterza, 1966

10-A. V. “La realtà inventata”,  Feltrinelli, 1989, pag.17-35

11-B. Russell “L’analisi della materia” Longanesi,1964, pag. 293-29

12-E. Stein “Il problema dell’empatia” Studium,1984

13-L. Wittgenstein “Tractatus logico-philosophicus” Fratelli Bocca,1954

14-Lao Tse “Tao Te Ching” Adelphi,1980

15-L. S. Lerner et al. “Giordano Bruno” Le Scienze, N.58

16-Jaines “Il crollo della Mente Bicamerale” Adelphi, 1988

IL CANE, IL LUPO ED IL BASTARDO E I SISTEMI DI RIFERIMENTO del dott. Piero Pistoia

Curriculum di piero pistoia:

piero-pistoia-curriculumok (#)

 

IL CANE, IL LUPO, IL BASTARDO E I SISTEMI DI RIFERIMENTO
del dott. prof. Piero Pistoia (vers. rivisitata)

Ancora da precisare

La crisi della ragione classica esplose improvvisa all’inizio del secolo, dal dibattito sui fondamenti della geometria e della meccanica (Relatività e Meccanica Quantistica). Essa portò all’esigenza di recuperare processi razionali tali da fornire nel futuro un sapere più rigoroso e vigilato.
Sembrò allora che l’empirico fosse l’ambiente di ricerca più solido e stabile. Si individuarono così metodologie che salvaguardassero la massima fedeltà all’empirico e impedissero l’immissione, consapevole o inconsapevole, di elementi meta-empirici.
Innumerevoli furono i pensatori che si cimentarono in questo obiettivo (Circolo di Vienna e zone limitrofe), finchè, con Popper e il processo logico della falsificazione, sembrò risolto definitivamente il problema di costruire l’edificio razionale della conoscenza. Ma come affermava Hegel, quando tutto sembra chiarito, lo Spirito inizia a negare l’Intelletto e l’edificio così solido si incrina lasciando il passo alla forza vitale. La dimensione umana, coi paradigmi sociali (Kuhn) o con le aspettative dei ricercatori (Lakatos), si appropria di nuovo dell’attività della conoscenza (1).

Il vero profeta però della Nuova Alleanza uomo-natura è Feyerabend.
Feyerabend afferma, al fine di propagandare le proprie posizioni anarchiche, che quando si è ricevuto una rigida educazione generale alle regole del razionalismo dogmatico o critico o di altra natura, è facile che la ragione vinca. E’ infatti difficile e forse impossibile mettere in discussione il valore dell’argomentazione logica: i cani domestici si accucciano più prontamente delle loro controparti anarchiche (i lupi). Che ne sa il cane domestico del lupo? Obbedirà semplicemente al padrone di sempre a fronte di scelte verso libertà incomprese e del tutto mitiche  (2).
Ma forse Feyerabend aveva dimenticato il cane bastardo, che, pur domestico, non è così prevedibile nelle risposte e, sempre sotto metafora, riassume meglio il comportamento di chi si appresta alla conoscenza secondo le nuove tendenze.
E’ il bastardo infatti che può muoversi a zig zag  come l’ubriaco fra opposte posizioni e sistemi di riferimento, individuando forse la direzione giusta intravista nella nebbiosa e vaga atmosfera di chi si appresta alla conoscenza. Talora le oscillazioni si smorzano  con i tentativi intorno alla direzione più probabile, come nei processi matematici della “iterazione” o nei processi in cui la freccia mira al bersaglio (fenomeni stocastici). Gli spostamenti ora toccano da una parte un universo materialistico e deterministico, dove il complesso si esaurisce nelle parti (3), sotto il bisturi di una ragione grossolana (regno del cane domestico), ora dall’altra lambiscono l’Universo degli Stati Instabili (4), dove il caos è capace di organizzarsi spontaneamente su strutture dissipative e il  Caso è il caso (random) e la Necessità riguarda il distaccarsi necessario dalla zona di equilibrio, contro le ragioni del passato. Allora gli oggetti somigliano a fiamme, a vortici, alla vita stessa libera e indeterminata. Dove gli eventi saranno toccati dalle oscillazioni più improbabili, si sconfina nel non-dicibile, a cogliere le essenze più profonde dell’Essere, dove il mistico e il magico fanno da padroni  e le forze di libertà trovano le loro maggiori energie (il regno del lupo). L’oggetto si fa analogo ad una pozzanghera di fango, dove sono cadute alcune gemme razionali e a intervalli si aprono  e si richiudono bolle oscure indicibili attraverso le quali è possibile gettare uno sguardo rapido nelle zone più profonde. L’osservatore previlegiato sarà allora lo Scienziato-artista, lo Scienziato-mistico, lo Scienziato-stregone. Solo allora si riconquisterà la comprensione istintiva della vita e del nostro posto all’interno dell’Universo.

Come l’uomo di Bergson (5), il bastardo si pone contro una ragione, che distaccatasi dalle fonti della vita, ha creato al di sopra di essa e al di là, un tessuto di schemi e formule, costruendo un universo artificiale della “separazione” e della ‘semplificazione’, che vomita continuamente spazzatura, depredando  energia alla vita del Cosmo e “il cui cicaleccio è talmente assordante da farsi udire fin ai limiti dell’Universo” (6).

Come l’uomo di Bergson, il bastardo procede verso un nuovo razionalismo (7) che contemperi e rinsaldi vicendevolmente intuizione-istinto e ragione: una ragione che si riconcili con la vita e con l’Universo; qualcosa di più che la Nuova Alleanza di Prigogine (4).

Il bastardo è l’uomo eletto che riassume tutta la memoria del mondo
lanciandola verso il futuro in una esplosione di innumerevoli e contrastanti indirizzi, ognuno dei quali si pone come una vera e propria opera d’arte, nel campo della scienza, del sociale e della vita.

E’ il bastardo l’uomo che riassume,  a fascio, le molteplici tradizioni e punti di vista, dal passato primordiale al presente, l’uomo anarchico di Feyerabend, l’uomo che, nel processo conoscitivo, non disdegna l’argomentazione critica, ma neppure la voce dello sciamano, dell’artista e del mistico – riconosce ancora il padrone, ma non gli obbedisce fino in fondo.

La personalità plurima e la proliferazione dei punti di vista
indeboliscono la consapevolezza dell’Io, la cui esistenza per secoli è sfuggita alla logica. Si prepara così l’Io alla meraviglia di fronte alla Natura, diminuendo i rischi e le  tensioni psicologiche e spirituali (8), all’estasi geneticamente adattiva e alla contemplazione dell’Universo di cui facciamo parte inscindibile, riscoprendo il potere dell’istinto.

Indebolire l’Io significa fratellanza, sensibilità verso il cosmo
(BIOFILIA ESTESA): la curiosità diventa conoscenza partecipata e coinvolgente (1) aprendo la via magica alla scoperta essenziale.

Indebolire l’Io significa rifiutare almeno in parte i vantaggi esosi del nostro mondo artificiale della “separazione”, dove il Tutto si esaurisce nelle parti, risentendo come fenomeni naturali il dolore e la morte che l’Io dominante ha tenuto in una considerazione quasi oscena. E’ facile allora per il bastardo vedere il nostro Pianeta come un organismo vivente (6) e forse anche lo stesso Universo nel suo complesso (9) e, a guisa delle remote tradizioni, associare Dio all’Universo stesso in qualche modo.

Indebolire l’io significa sdrammatizzare la vita e la morte, diminuire la corsa sfrenata della nostra civiltà, riconsiderare il giudizio sul bene e sul male, sul falso e sul vero, sull’operare del giusto e del malvagio. L’Io a più sistemi di riferimento è l’Io che potrà capire e, se necessario, salvare (o salvarsi da?) l’Organismo-Universo, potendo riascoltare di nuovo la voce, da tempo assopita, degli dei, riattivando la camera destra del cervello (1) da tempo immemorabile disattivata.

Il Male come il Bene è parte della vita proprio come fu parte della
Creazione; certamente non gli si dà il benvenuto e lo si deve limitare, ma si deve anche lasciarlo sopravvivere nel suo dominio, perchè nessuno è in grado di dire quanto bene ci sia ancora in esso e in che misura la presenza del Bene sia legata ai crimini storici più atroci (10). “Multae utilitates impedirentur  si omnia peccata districate proibentur (San Tommaso)” in cui riecheggia il pensiero dell’oscuro Eraclito col suo concetto di “enantiodromia” (vedere il post relativo).

PROF.     PIERO PISTOIA

1 – O.TOBISCO “La crisi dei fondamenti” Borla, 1984

2 – P.K.FEYERABEND “Contro il Metodo” Lampugnani Nigri, 1973

3 – J.MONOD “Il Caso e la Necessit…” Mondadori, 1970

4 – I.PROGOGINE “La Nuova Alleanza” Einaudi, 1981

5 – H.BERGSON “L’Evoluzione Creatrice” Dall’Oglio, 1991

6 – J.LOVELOCK “Le Nuove Età di Gaia” Bollati-Boringhieri, 1991

7 – G.DE RUGGERO “Filosofi del Novecento” Laterza, 1958

8 – E.O.WILSON “The diversity of the life” sintesi da PANORAMA, 03-01-1993

9 – P.DAVIS “Il Cosmo Intelligente” Mondadori, 1990

10- P.K.FEYERABEND “Addio alla Ragione” Armando, 1990.

Ancora da precisare

L’EVOLUZIONE: a cura del Dott. Prof. Marcello Buiatti, del Dott.Piero Pistoia,…post aperto ad altri contributi

GLI ARTICOLI DI PIERO PISTOIA SONO IN CORSO DI MODIFICA PER AGGIORNAMENTO

CURRICULUM di piero pistoia

piero-pistoia-curriculumok (#)

 

Links interni agli articoli

1-Marcello Buiatti_L’EVOLUZIONE RIVISITATA
2-Piero Pistoia_EVOLUZIONE, ISTINTO E RAGIONE
3-Piero Pistoia_EVOLUZIONE: UN IPOTETICO SCHEMA EVOLUTIVO

3_1- Riassunto

   3_2   Precisazioni introduttive

   3_3 – Ipotesi ‘tentative‘ (TT di Popper) sui possibili progenitori della linea delle grandi scimmie e quella degli ominini (cenni)

   3_4 – Brevi considerazioni sulla teoria degli Equilibri Punteggiati 

   3_5 – L’albero dell’evoluzione umana; schema in continuo aggiornamento

   3_6 – Sulla prima e seconda ‘esplosione’ di specie degli ominini

   3_7 – Una specie-chiave dell’evoluzione umana ed altro.

 

 

4-NOTE-FOTOSINTESI CLOROFILLIANA a cura di Piero Pistoia

——————————————————————————-
1-Marcello Buiatti_EVOLUZIONE RIVISITATA

L’EVOLUZIONE RIVISITATA

Dott. Prof. Marcello Buiatti, professore ordinario di genetica, Università di Firenze.

L a storia delle Scienze Biologiche è relativamente recente rispetto a quella di altre discipline scientifiche come, ad esempio, la fisica, la chimica ed ancora di più la matematica. Molti contestano la stessa esistenza di vere teorie biologiche dato il livello non elevato di matematizzazione e comunque di capacità predittiva che queste sembrano avere. Non vi è dubbio comunque che, se di vere teorie si può parlare in biologia, queste sono quelle evolutive, a cominciare dalla prima enunciazione compiuta del concetto di storia dei cambiamenti nella vita, quella di Lamark, per andare al nucleo teorico centrale delle teorie evolutive, ancora oggi in gran parte valido, quello di Darwin. La versione del darwinismo, sviluppata fra le due guerre e articolatasi nel secondo dopoguerra, prevede che gli esseri viventi cambino essenzialmente  per l’effetto dei tre processi fondamentali, la mutazione, la selezione, la deriva genetica, che modificano la struttura dei patrimoni ereditari delle popolazioni. Il tutto parte da alcune constatazioni abbastanza banali. Ogni carattere controllato quasi interamente dai geni, come ad esempio, il colore degli occhi, è presente nelle popolazioni in due o più forme alternative (nero, azzurro, ecc.). Se consideriamo quindi un carattere alla volta potremo dire che in una popolazione è presente una certa percentuale di geni che determinano il colore azzurro, ed un’altra di determinanti ereditari che danno occhi neri. Queste forme alternative sarebbero il risultato della diversificazione avvenuta per modificazione della stessa porzione di materiale ereditario durante la storia della specie. E’ la capacità di modificarsi (di “mutare”) che ha portato alla variabilità genetica senza la quale le popolazioni non potrebbero cambiare ed evolversi. Come procederebbe allora l’evoluzione? Poniamo, ad esempio, da una popolazione fatta di individui che hanno tutti  gli occhi neri in cui compare una mutazione dal nero all’ azzurro. La presenza di questa mutazione potrà portare nel tempo al cambiamento del colore degli occhi nella popolazione , se interverranno due processi. La  selezione, che per i darwinisti classici è il processo più importante, agisce quando una delle forme alternative è più vantaggiosa dell’altra per la sopravvivenza e quindi permette che gli individui che la posseggono si riproducano più degli altri. E’ ovvio allora che, ad ogni generazione, se ad esempio gli individui con gli occhi azzurri per qualche ragione si riproducono di più che quelli con gli occhi neri, si avrà un aumento percentuale dei primi fino a determinare , dopo numerose generazioni, la scomparsa dei secondi. La deriva genetica è invece un processo casuale. Poniamo per capirsi, si parta da una popolazione con il 20% di occhi azzurri e l’80% di occhi neri e che la popolazione consista di molti milioni di individui. Mettiamo poi che un piccolo drappello (ad esempio, una ventina di individui), si allontanino dalla popolazione originaria e fondi una nuova colonia. Sarà in questo caso molto difficile che il piccolo campione degli “esploratori” sia esattamente composto da 16 individui con gli occhi neri e quattro con gli occhi azzurri, rispecchiando così fedelmente la composizione iniziale, mentre sarà molto più facile una fluttuazione che sarà tanto più grande tanto più piccolo e poco rappresentativo sarà il campione. Quali sono i concetti base che emergono da questa impostazione? Innanzitutto che l’evoluzione procede a partire dalle mutazioni dei singoli geni che offrono il terreno su cui agiscono selezione e deriva genetica. La prima, secondo i darwinisti, sarebbe essenzialmente determinata dall’ambiente da cui verrebbero le indicazioni sulle forme di ogni carattere da avvantaggiare e su quelle a cui attribuire uno svantaggio riproduttivo ad ogni generazione, mentre la seconda sarebbe determinata dal sorteggio casuale delle diverse forme (alleli). Ne deriva che: a) la selezione agisce indipendentemente su ogni gene; b) i cambiamenti, di generazione in generazione, sono quantitativi e lenti in quanto cambiano le percentuali delle diverse forme ma non ci sono “salti” che modifichino improvvisamente tutta la popolazione; c) gli individui sono interamente determinati dai geni per cui ad un corredo genetico (insieme di geni) corrisponde una ed una solo forma di vita (il “fenotipo”) su cui in modo diretto agiscono i processi che abbiamo appena discusso. Fin qui, naturalmente in modo molto schematico, il neodarwinismo, prima dei nuovi dati che si sono rapidamente accumulati da quando sono stati scoperti metodi raffinati di analisi del materiale genetico (il DNA) e di tutta la macchina molecolare degli organismi. Dagli studi più recenti sono emerse, in estrema sintesi dato il poco spazio a disposizione, le seguenti considerazioni rilevanti per l’evoluzione: 1) – I geni hanno un certo livello di ambiguità nel senso che, soprattutto negli organismi “superiori” (animali e piante) uno stesso gene può essere “letto” in modo diverso, ad esempio, in tessuti diversi dello stesso organismo. 2) – Pochi geni sono attivi nello stesso momento di vita di una cellula. Ad esempio, si calcola che dei 120000 geni presenti nel patrimonio ereditario di ogni essere umano solo circa 2000 vengono contemporaneamente utilizzati in una singola cellula, E infatti le cellule che si compongono sono molto diverse l’una dall’altra, il che permette la specializzazione delle funzioni, proprio perché essenzialmente a funzioni diverse corrispondono diverse combinazioni di geni. Molto del nostro fenotipo dipende quindi da quali geni sono attivati e dove (in quali cellule) e questo a sua volta dipende dai segnali che le cellule si scambiano fra loro e da quelli che ricevono dall’ambiente con processi di regolazione raffinata che ci permettono di rispondere alle variazioni ambientali, percependole e traducendole in attivazione ed inattivazione di gruppi di geni diversi. 3) – In molti casi, per il risultato in termini di fenotipo, è importante non tanto o soltanto quale forma di un determinato gene è presente, ma quanto è attiva, se naturalmente lo è. Per fare un esempio banale, se ci sono, come ci sono, dei geni che con la loro azione fanno allargare una mano ed altri che la fanno allungare  è ovvio che nessuno può avere una mano che si allunga soltanto o si allarga soltanto, ma tutti invece avranno mani durante lo sviluppo delle quali si sono attivati più o meno i due gruppi di geni portando alla fine ad una forma che è contemporaneamente “un po’ lunga ed un po’ larga”. 4 )– I geni e gli strumenti che ne derivano (le proteine) interagiscono fra loro in modo complesso. E’ ovvio a tutti per esempio che un individuo che ha i geni adatti per assumere ed assimilare molto cibo dovrà avere anche altri geni che gli permettano di eliminare efficacemente quanto meno gli scarti, pena grandi difficoltà metaboliche durante la vita. Ciò significa che una mutazione di un gene che aumenti la capacità di assimilazione dell’individuo portatore avrà un effetto positivi se gli altri geni (quelli per l’eliminazione delle scorie) saranno nelle forme più attive, negativo nel caso contrario. Ne discende che la capacità di riprodursi non deriverà dalla somma delle azioni geniche, ma dalla combinazione, nel senso che ogni gene dovrà essere adatto a convivere in armonia con gli altri geni perché poi l’organismo sia in grado di sopravvivere e riprodursi nell’ambiente in cui si trova. Da questo deriva allora che non tutte le mutazioni sono compatibili con la sopravvivenza, ma che lo sono soltanto se si trovano nel giusto contesto di geni. 5)– Alcuni geni sono più importanti di altri. Un gene che abbia informazioni per la sintesi di sostanze ad azione ormonale avrà per esempio effetto sul funzionamento di molti altri geni e quindi influenzerà di più la capacità di sopravvivenza di quanto non faccia il gene per il colore degli occhi di cui si parlava prima, la cui azione è limitata a quel carattere. Se questo è vero, significa che una mutazione di un gene importante potrà o portare alla morte oppure ad una sopravvivenza bassa fino a quando anche gli altri geni ad esso collegati non si saranno adeguatamente modificati in funzione della nuova situazione. In altri termini allora, una singola mutazione porterà ad un effetto a cascata il cui risultato finale sarà un cambiamento drastico (un “salto” evolutivo). Tutto questo, come si accennava prima, non è in contraddizione con il darwinismo ma ne modifica alcune caratteristiche soprattutto perché introduce il concetto che il fenotipo non è predicibile in modo rigido a partire solo dalla natura qualitativa dei singoli geni, ma deriva dal contesto interno (l’insieme dei geni) dai processi di attivazione-inattivazione, dai segnali che vengono dall’esterno, il tutto in continuo cambiamento per il cambiare dell’ambiente, per le mutazioni, ecc.. L’adattibilità di un individuo e quindi il vantaggio e lo svantaggio  selettivo non sono caratteristiche stabili e predeterminate, ma hanno una storia che è poi la storia di vita dell’organismo stesso. La selezione allora agisce in funzione dell’ambiente, ma anche delle caratteristiche proprie, anch’esse variabili, della organizzazione interna (la auto-organizzazione). Tutto ciò porta ad una evoluzione con strategie molto diversificate di adattabilità che procede per periodi di cambiamento lento neodarwiniano classico e per improvvise accelerazioni che derivano da mutazioni importanti all’interno e da cambiamenti drastici all’esterno in una dialettica che era stata in parte prevista da Lamark, ma anche Darwin stesso quando aveva enunciato la cosiddetta legge della correlazione fra le parti nell’ evoluzione, secondo la quale nessuna parte può cambiare senza tener conto del contesto formato dalle altre. E questo, a ben vedere, è valido per la singola cellula, in cui le diverse attività metaboliche devono essere armoniche, per l’organismo, in cui le cellule devono tener conto le une delle altre,  per le popolazioni, gli ecosistemi, la biosfera, tutte entità che si auto-organizzano, mutano, si adattano ai cambiamenti dell’ambiente esterno di questo nostro Pianeta.

Dott. Prof. Marcello Buiatti

(Dipartimento di Biologia animale e Genetica Università degli studi di Firenze)

———————————————————

 

2-Piero Pistoia_EVOLUZIONE, ISTINTO e RAGIONE

EVOLUZIONE, ISTINTO E RAGIONE: ASPETTI EDUCATIVI  E PENSIERI DIVERGENTI del dott. Piero Pistoia

INTRODUZIONE

Il genere Homo e’ caratterizzato dalla possibilità di accumulare Cultura attraverso la fuga delle generazioni. Oggi, in questa fase detta “Post-Industriale di Transizione” (1), il Mondo Culturale si organizza in strutture così complesse e articolate da far pensare che possa essere dotato di vita autonoma, orientando e dirigendo la propria espansione (Terzo Mondo di Popper) (2). L’uomo e’ trascinato da questo vortice culturale verso un isolamento sempre piu’ profondo in un complesso universo di simboli e le previsioni per il futuro (Società dei Servizi) (1) lo vedono chiuso in una individualità egocentrica e narcisistica (3) e costretto in un isolato e freddo rapporto interattivo uomo-macchina (già oggi si parla sempre meno di Mass Media e sempre più di Personal Media). Si capisce cosi’ come siano potuti sorgere in maniera drammatica e improvvisa i problemi delle reciproche relazioni e del rapporto con l’ambiente esterno, urgenti oggi, insolubili domani, che coinvolgono la stessa sopravvivenza dell’uomo come specie sul pianeta. La soluzione di questi problemi, chiamati da A. Visalberghi “ipercomplessi”, non rimanda solo ad una complessità naturalistica di tipo scientifico, ma anche ad una complessità della preferibilità, sulla quale influisce fortemente il senso morale e il patrimonio dei valori dell’uomo che sempre presiedono a giudizi e valutazioni e quindi alle scelte (4). Sono dell’avviso che questo senso profondo del rispetto dell’uomo e dell’ambiente, che dovrà operare scelte sul modo di indirizzare la ricerca scientifica e la programmazione economica volte alla soluzione dei problemi planetari, può essere ritrovato e partecipato consapevolmente in una riflessione sulla storia umana delle nostre lontane origini, in specie da parte dei giovani chiamati presto direttamente in causa. Per riscoprire l’identità umana nell’uomo di oggi e’ necessario tornare a controllare com’era l’Uomo di milioni di anni fa. Questa ricerca nel nostro lontano passato e’ ricca di suggerimenti educativi, di direttrici di comportamento, di ammonimenti e consigli.

EREDITA’ BIOLOGICA UMANA E RIFLESSI SOCIALI

In generale possiamo affermare che tutti gli animali manifestano tendenzialmente un’aggressività per la sopravvivenza (per il cibo, il territorio e l’accoppiamento), che pero’ viene regolarmente mitigata, per esempio, attraverso gesti ritualizzati e strategie di riconciliazione che impediscono di fatto l’uccisione di animali della stessa specie (5). Fino ad ieri ricercatori e senso comune davano rilievo al primo aspetto (aggressività), oggi etologi, antropologi, psicologi e sociologi (non ancora il senso comune) credono che sia il secondo aspetto, la cooperazione, a controllare l’interazione nel gruppo. Lo stesso Uomo, come sostiene attualmente l’etologo Eibl Eibesfeldt (6), a differenza delle posizioni di Eric Fromm (7), possiede potenzialità genetiche istintuali almeno in ugual misura degli animali e di esse e’ possibile trovare traccia e significati nel corso della sua evoluzione: l’uomo non nasce tabula rasa e per buona parte il suo comportamento e’ controllato dalla biologia, almeno in termini potenziali ed è, forse, nella biologia e nell’inconscio, che sono incise le strategie per salvare il mondo. L’aggressività svolgerebbe così anche per l’uomo un ruolo fondamentale nel promuovere la cooperazione (8). Le stesse strategie di riconciliazione allora avrebbero nell’uomo profonde radici e non sarebbero riconducibili al “trionfo della ragione sull’istinto”, come spesso si dice. Per quasi tre milioni di anni l’uomo ha vissuto in piccoli gruppi nomadi (poche decine di individui) a semplice economia di caccia e raccolta e le pressioni selettive di questa esistenza, fondata, come aspetto centrale, sul rito della divisione del cibo e su altre interazioni sociali a comportamento altruistico e ad alto vantaggio genetico (Reciprocal Altruism Theory) (9), sono state le responsabili della “costruzione” del cervello umano attuale, cosi’ adattabile e creativo.

Questa economia innescava una forte selezione a segnare, forse anche in senso junghiano (10), l’inconscio profondo di esperienze tipiche, milioni di volte ripetute. Esperienze e comportamenti correlati a:

1 – una profonda collaborazione e cooperazione reciproca, non di tipo passivo o normativo, ma a forte identificazione al gruppo, che poteva cosi’ muoversi all’unisono nelle scelte: partecipation mystique al gruppo piuttosto che al territorio; l’interesse individuale coincideva profondamente con quello del gruppo: “se vi fosse un gene per l’altruismo”, afferma Dobzhansky (11)  “la selezione naturale potrebbe agire contro di esso a livello individuale, ma favorirlo a livello di gruppo“; fu quello che successe;

2 – una probabile assenza di lotte sanguinose fra gruppi, per la completa mancanza di vantaggio complessivo per il vincitore: la perdita anche di un solo individuo nel gruppo vincitore poteva danneggiare irreversibilmente la caccia futura, contraddicendo la “Legge Assoluta della Riproduzione” (5); il rischio non valeva il bottino di guerra (rapporto con l’Altro da noi);

3 – una profonda armonia con gli altri esseri viventi e con l’ambiente esterno; la stessa sopravvivenza del gruppo richiedeva tale rispetto, volto a conoscere il luogo e il tempo della raccolta per le diverse piante, il periodo della loro maturazione, la quantità da cogliere per la sopravvivenza del gruppo e della stazione botanica, il comportamento, i cicli e le abitudini delle prede animali, addirittura considerate in un rapporto magico di vita-morte col gruppo (rapporto con l’oggetto esterno);

4 – una inessenzialità dei beni materiali, di oggetti ridondanti di ornamento e di scambio, da sempre simboli del benessere sociale. Una volta raggiunto, circa quarantamila anni fa, lo stadio finale dell’Homo sapiens sapiens, si aprono tutte le possibilità culturali. La capacita’ di possedere una Cultura coniugata al potente cervello costruito, permette l’elaborazione di questa in mille forme diverse e pittoresche. Solo diecimila anni fa, un tempo troppo breve per determinare ulteriori modifiche cerebrali significative, cominciarono, con l’invenzione dell’Agricoltura e la pratica dell’Allevamento, gli insediamenti umani permanenti, con i relativi “fili spinati” al confine e il concetto di proprietà, con l’accumulo di beni materiali superflui e l’incremento dello scambio e del commercio, ma in principal modo con la guerra. La guerra divenne possibile perché ora vi fu qualcosa per cui combattere: l’appropriazione dei raccolti del vicino poteva permettere la crescita di numero del popolo vincitore e la sua espansione rispetto alle perdite, grazie al surplus alimentare conquistato in battaglia (criterio spesso usato nei giochi storici di simulazione). La guerra divenne possibile come fallimento dello scambio e della transazione (Claude Levi-Strauss). La guerra divenne possibile per la tendenza alla perdita di unita’ e coesione del gruppo sottoposto a forze centrifughe di smembramento: si salva la coerenza interna, inventando lo straniero e il nemico (12). “In ogni caso“, affermano Piero e Alberto Angela (13) “sara’ soprattutto con la nascita della difesa dei beni (e quindi con la vita sedentaria e agricola tipica del Neolitico) che si svilupparono le occasioni di conflitto. E quindi probabilmente anche la violenza. Col concetto di proprietà si accresce appunto anche quello di appropriazione con furti e razzie“. Tracce del primo vero e inconfutabile massacro si rinviene proprio nel Neolitico nel Sud-Est della Francia, dove vari scheletri di uomini, donne e bambini portavano all’interno ancora conficcate le punte di numerose frecce neolitiche. Fu infine con l’insediamento permanente che si presento ‘ la necessita’ di inventare strutture sociali per risolvere le controversie, ponendo le basi per la formulazione di norme del Diritto, in nome del quale, in argomentazioni fredde e scarsamente controllate dai valori archetipici, saranno commessi nella Storia i più efferati genocidi.

Da allora in poi la spirale culturale, più che l’evoluzione biologica, inizio’ a ruotare a velocità sempre crescente attraverso l’Agricoltura, l’Industria, fino alla tecnologia avanzata dell’Epoca Moderna: Dobzhansky parla di passaggio dall’evoluzione biologica a quella culturale di tipo lamarkiano (14). Se prima l’uomo cambiava i propri geni a seconda delle esigenze dell’ambiente, potè pervenire ora a questo adattamento cambiando l’ambiente per accordarlo con i suoi geni (Dobzhansky (11) ), ostacolando il loro sviluppo. L’Uomo, pur capace di sfuggire alle vicissitudini dell’ambiente, costruendo asettici mondi fenomenici sempre più complessi e articolati, ne rimaneva coinvolto fino alla drammatica fase attuale di non essere più in grado di controllarlo, ponendo le condizioni per l’autodistruzione. L’intelletto umano “non e’ fatto per capire i sistemi sociali umani” (15), perché “le nostre forme di percezione innate sono state selezionate nel modesto ambiente causale dei nostri antenati primitivi” e non sono più “all’altezza delle responsabilità che la Tecnocrazia si arroga nel mondo in cui viviamo” (16). Gli adattamenti filogenetici che ci hanno plasmato sono ancora quelli del Paleolitico: con la cultura ci siamo costruiti un mondo per il quale non siamo ancora biologicamente ‘fatti’ (6). Il fatto però che non siamo più in grado di controllare i nostri mondi, previsti da sofisticati modelli simbolici, nei quali la ragione si è sbizzarrita fino in fondo, non significa che i nostri istinti siano indirizzati a comportamenti negativi sul piano umano, anzi, è la mancanza totale di umanità in quei mondi artificiali che obnubila l’umanità profonda presente negli istinti! Tutto ciò che è capace di rivitalizzare questo bagaglio di tendenze primordiali alla cooperazione e al rispetto universale (BIOFILIA ESTESA) – riti di caccia, immersione nella Natura con i riti di raccolta, immedesimazione nel Creato… – fa parte delle strategie vincenti per il futuro. L’affermazione di E. Morin (17) che “le forme a priori sotto il profilo ontogenetico sono a posteriori sotto quello filogenetico”, una specie di legge di Haeckel sul piano mentale, verrebbe a significare quindi che le teorie e i modelli “inventati” dal cervello umano sono in grado di funzionare ed adattarsi (fitting, ma non matching (18)), in termini di comprensione, spiegazione e modifica, al mondo – alla cui evoluzione lo stesso cervello era partecipe – attraverso un processo di dematerializzazione (19), mediato da sistemi di rappresentazione sempre più simbolici e codificati. Il fine ultimo di questo processo sembrerebbe essere la costruzione di un oggetto complesso dotato di memoria e percezione, che ricorda quel vertiginoso concentrato magico del mondo che e’ la monade leibniziana. Dire questo pero’ non vuol significare che questa congerie di materia e spirito risulti in armonia col Creato, viste le infinite strade percorribili ad ogni stadio,implicanti continue scelte (“se hace camino al andar…. Caminante, no hay camino, sino estelas en la mar” A. Machado (20)). Solo rivalutando la causa finalis, che evoca e riassume le tendenze profonde della nostra umanità – e non col solo apporto del nostro pensiero “causale uni-direzionale” (causa efficiens) – e’ probabile trovare una soluzione. Vi sembra che i prodotti della ragione siano in armonia col creato? La ragione semplifica, separa e distingue, il Creato è “il Complesso”; qualsiasi sentiero la ragione vi tracci, apporterà disturbo!

ALCUNE CONSIDERAZIONI EDUCATIVE

L’uomo di oggi, l’uomo simbolico, l’uomo che manda navicelle per esplorare pianeti e lo spazio, che rende coltivabili i deserti, ma che puo’ fare anche il contrario, data l’adattabilità e la flessibilità del suo potente cervello, come gettare bombe all’idrogeno o al neutrone, rischiare esplosioni di centrali nucleari, inquinare fiumi e sorgenti, desertificare intere aree tropicali e subtropicali… quell’uomo ha dentro il capo lo stesso cervello, in qualità e quantità, del piccolo cacciatore-raccoglitore nostro lontano progenitore, con le stesse pulsioni profondamente impresse, la stessa tendenza al rispetto del gruppo, lo stesso affetto per i piccoli, la stessa profonda reverenza magica per il pianeta che lo ospita e per l’energia che utilizza (i famigerati istinti atavici!). Nessun istinto negativo quindi, ma una potenziale predisposizione alla piena consapevolezza critica che, nonostante tutto, facciamo parte essenziale dei grandi equilibri naturali. Questa propensione umana alla cooperazione spontanea e partecipata di gruppo non dovrà essere più utilizzata per “radunarsi intorno alle bandiere”; questa spinta primordiale, questo profondo archetipo del rispetto dell’Altro da noi e dell’Oggetto esterno, e’ giusto che venga incanalato in uno sforzo universale per il riscatto dell’umanità, prima che sia troppo tardi. Non solo siamo un unico genere e un’unica specie, ma siamo anche un’unica sottospecie, per alcuni ricercatori, Homo sapiens sapiens, siamo un unico popolo; le varie mille culture diverse e pittoresche non devono essere interpretate nel senso della divisione e classificazione, perché sono l’indice preciso ed inequivocabile dell’appartenenza completa di quei popoli alla specie umana. Ogni gruppo non deve considerare se stesso diverso dagli altri in virtù delle diverse infrastrutture culturali artificiali piu’ o meno imponenti, ne’ tanto meno assumere queste differenziazioni ad alibi per superare l’istinto originario del rispetto degli individui della stessa specie, fino a considerare gli altri non-umani e quindi sopprimerli con la guerra (12). Dove c’e’ Cultura li’ c’è l’Uomo. Il rapporto sintonico, armonico e umile col pianeta, ancora preziosa e lontana eredita’ biologica del nostro piccolo antenato, cacciatore, raccoglitore e artefice di utensili su ciottolo, e’ la nostra seconda carta da giocare; il tempo per giocarla sta scadendo: dobbiamo fare in fretta e senza fare sbagli! Sbagli in effetti vengono commessi continuamente anche a bassi livelli, legati all’intervento o al non intervento di fattori umani: ora perché si ignorano certe situazioni, ora perché se ne indicano altre che sono solo marginali. Basta guardarci intorno. Cosi’ nei cicli perversi che presiedono ai processi di desertificazione progressiva di aree subtropicali, oltre alle coordinate di natura climatica, incidono fortemente le decisioni umane relative ad a) uno sfruttamento agricolo sbagliato (monoculture, mancanza di rotazione agricola…), b) un incremento non controllato della pastorizia, c) azioni di deforestazione legate al commercio, all’apertura di strade ed autostrade, ai processi di espansione dei campi lavorati, all’eliminazione dei fossi di alberi e arbusti che separano i campi…. Siamo arrivati addirittura a voler proibire quelle uniche attività (caccia e raccolta), radicate profondamente nella memoria biologica umana, la cui pratica, nella condivisibilità e nella partecipazione ai suoi riti (divisione del cibo…), potrebbe favorire quei processi educativi atti a comprendere i suggerimenti profondamente impressi nell’animo umano dal processo evolutivo. Le ragioni sostenute per l’abolizione di tali attività non sono forse dovute ad aver disconosciuto per troppo tempo i contenuti educativi archetipici di queste stesse attività? E neppure e’ pensabile sostituire caccia e raccolta con esperienze fortemente mediate come simulazioni in rappresentazioni teatrali o al computer (giochi di simulazione sulla caccia): le caratteristiche rilevanti di questi riti non sono mai trasferibili in modelli simbolici, lontani dal contatto diretto con la Natura. Queste importanti attività naturali rivisitate e inserite in un discorso educativo, anche a livello dell’Educazione Permanente, potrebbero neutralizzare gli effetti delle tendenze estranianti del vivere in un mondo innaturale (megalopoli, “società anonime” dove immense moltitudini di persone non si conoscono e quindi non si amano), indirizzando i giovani ad una formazione più consona alla loro natura profonda, forse contribuendo a risolvere, insieme ad altri interventi (P. Pistoia (21)), anche il grave problema della crisi dei Valori. Le attività del Cercatore-Raccoglitore e del Cacciatore insomma dovranno far parte essenziale, per i loro contenuti archetipici catalizzanti, del sistema di atteggiamenti e progetti (il nuovo sistema di riferimento, che dovranno essere messi in atto in breve tempo per salvare il Mondo. Sembrerà assurdo – e ciò che sembra assurdo va guardato con estrema attenzione, perché qui forse sta la via giusta per uscire dalla trappola (22) – ma saranno proprio gli ISTINTI e la CACCIA, oggi rifiutati come aspetti negativi e attività riprovevoli da limitare e soffocare, a darci un barlume di speranza: ricordiamoci che nessuno sa quanto bene esista ancora in ciò che viene indicato come male (23) e quanto male ha commesso il bene e non solo nel passato (enantiodromia eraclitea)! Purtroppo l’Uomo simbolico ha la presunzione, in un prossimo futuro, di sostituirsi alla cieca forza della selezione naturale (ingegneria genetica), secondo direttrici fondate sui suoi presunti “valori” e sulla sua presunta conoscenza della natura. Alla luce dei dati che oggi abbiamo pero’ rimane aperto il dubbio se la specie umana possa assumersi tale incarico, a meno che non si provveda in termini educativi opportuni; in effetti “c’è un abisso fra i valori e gli ideali di cui tutti parlano e la maniera in cui tutti vivono (11). Uno dei piu’ grandi antropologi oggi vivente, R. Leakey, terminava il suo stimolante libro, “Origini” (24), con questa amara considerazione: “Essere arrivati su questa terra, come risultato di un accidente biologico, solo per doverla lasciare a causa dell’arroganza umana, sarebbe il massimo dell’ironia“.

BIBLIOGRAFIA

1 – N. CACACE “Quarto capo di imputazione” da ‘Processo alla Scuola’, Atti Convegno, 1986.
2 – K. R. POPPER “Conoscenza Oggettiva” Armando, 1975.
3 – LASCK “La Cultura del Narcisismo” Bompiani, 1983.
4 – A. VISALBERGHI “Educare alla complessita’ del reale” da SCUOLA E CITTA’ 31-Gennaio-1987, Nuova Italia.
5 – F. JACOB “La logica del Vivente” Einaudi, 1971.
6 – E. EIBESFELDT “Etologia dell guerra” Boringhieri, 1983.
7 – E. FROMM “Anatomia della distruttivita’ umana” Mondadori, 1975.
8 – F. de WAAL “Far la pace fra le Scimmie” Rizzoli, 1990.
9 – R. TRIVERS “Social Evolution” Benjamin/Cummings, 1985.
10- A PAGNINI “Psicanalisi ed Estetica” Sansoni, 1975.
11- T. DOBZHANSKY et al “L’Evoluzione e la specie umana” da SCIENTIFIC AMERICAN, Zanichelli, 1968.
12- R. GUIDUCCI “Divieto genetico e licenza di uccidere” e P. CLASTRESS “La guerra nelle societa’ primitive” da ‘UOMINI E LUPI’, Volonta’, 1990.
13- P. e A. ANGELA “La straordinaria storia dell’Uomo” Mondadori, 1989.
14- T. DOBZHANSKY “Evoluzione della specie umana” Einaudi, 1965. 15- J. FORESTER “Principi dei Sistemi” Etas Libri, 1974.
16- R. RIEDL “Le conseguenze del pensiero casuale” da A. V. “La realta’ inventata” Feltrinelli, 1989.
17- E. MORIN “La Conoscenza della Conoscenza” Feltrinelli, 1989. 18- E. von GLASERSFELD “Introduzione al costruttivismo radicale” da A. V. “La realta’ inventata” Feltrinelli, 1989, pag. 17-35.
19- O. MARZOCCA “Filosofia dell’Incommensurabile” Franco Angeli,1989.
20- M. CERUTI “La danza che crea.Evoluzione cognizione nell’epistemologia genetica” Feltrinelli, 1989 pag. 11.
21- PIERO PISTOIA “Il mondo della Scuola e il mondo del Lavoro: un rapporto difficile” da LA RICERCA 15 Ott. 1987, Loescher.
22- A. V. “La realtà inventata” Feltrinelli, 1989.
23- P. FEYERABEND “Addio alla Ragione” Armando, 1990. 24- R. E. LEAKEY e R. LEWIN “Origini” Laterza, 1979.

(Dott. Piero Pistoia)

____________________________________________

3-Piero Pistoia_EVOLUZIONE: UN IPOTETICO SCHEMA EVOLUTIVO

 

 EVOLUZIONE: UN IPOTETICO SCHEMA EVOLUTIVO UMANO   a cura del dott. Piero Pistoia

(RUMINAZIONI RIMASTICAZIONI MODIFICHE AGGIORNAMENTI)

La bibliografia verrà fornita in itinere o aggiunta al termine del lavoro

RIASSUNTO

Senza entrare nel dibattito sulle teorie relative all’Evoluzione (1) e sui loro paradigmi (Darwinismo, Neodarwinismo e Teoria Sintetica, Teoria Anti-evoluzionista di Sermonti e Fondi, Teoria degli equilibri punteggiati di Eldredge e Gould, ecc.), nè sulle interpretazioni multiformi della filetica umana (2), abbiamo all’inizio tracciato uno dei possibili percorsi evolutivi dell’uomo, che risponde, insieme ad altri, alle richieste dei fossili e strumenti umani attualmente conosciuti, focalizzando, in qualche punto cruciale di questa trattazione standard, alcuni problemi e punti interrogativi aperti del processo, formulando ogni tanto ipotesi alternative.

PRECISAZIONI INTRODUTTIVE

-La Natura è soggetta spesso a esplosioni rapide di carattere fisico-geologico improvvise che possono determinare cambiamenti  nelle popolazione di flora e fauna in “brevi intervalli di tempo” se confrontati ai tempi medi coinvolti in quei fenomeni. Per es., eruzioni vulcaniche, terremoti (elastic rebound theory) con movimenti o spostamenti verticali di placche territoriali, caduta di meteoriti… e in particolare modificazioni climatiche rapide.

-Quando le strutture biologiche in evoluzione vengono a trovarsi in situazioni di tensione improvvise di natura casuale si possono avere, per es., rapidi invecchiamenti ovvero loro eccezionale e rapida evoluzione. In particolare i cambiamenti climatici possono frammentare  rapidamente le popolazioni degli Ominini, creando piccoli gruppi in cui le novità genetiche in prima istanza e le culturali in seconda, potevano rapidamente consolidarsi, accelerando la speciazione, o b) attivare diffusioni delle popolazioni degli Ominini secondo direttrici spesso condizionate da quei fenomeni, c) ovvero la loro estinzione.

-La ricerca di queste correlazioni iniziano ora ad essere possibili con lo svilupparsi  di nuovi metodi e processi tecnico-scientifici, in particolare attraverso rapporti isotopici su opportuni composti mirati. (LE SCIENZE it., novembre 2014,; art. “Shock climatici”, P. b. dMenocal)

-Per quanto riguarda i “Predecessori chiave” dell’albero filetico dell’Homo, vedere la figura a pag.55 del’art. nominato sopra, dove sono evidenziate per gli antichi progenitori del sapiens due strisce critiche per “esplosioni” evolutive, fra (3 e 3 .8)ma, e fra  (2.0 e 1.6)ma; per lo stesso scopo, vedere anche la FIG. 4 RIVISITATA di questo articolo.

EVOLUZIONE RECENTE PER FATTORI BIOLOGICI E CULTURALI (cenni)

in via di sviluppo

evul_mutazioni4        ->     link esterno

ALCUNE CONSIDERAZIONI  SULL’ORIGINE DEGLI HOMINIDI (3)

La fase antichissima dell’evoluzione umana è da ricercarsi nell’Africa Orientale, da forme di Primati  con strutture non ben definite o miste, con possibilità di evolversi verso la brachiazione o verso la bipedia a seconda dell’ambiente.

Consideriamo Ominidi (famiglia: Hominidae) l’uomo, le scimmie antropomorfe africane e rispettivi antenati (mentre l’uomo ed i nostri parenti estinti di tipo umano sono inclusi nella sottofamiglia degli Ominini).

La storia evolutiva dell’uomo si inserisce così in quella lontana dei Primati (proscimmie, scimmie s.l. e scimmie antropomorfe). Alla fine del Mesozoico (circa 65 MAF), qualche evento catastrofico che arricchi di iridio i sedimenti del tempo, insieme all’estinzione dei dinosauri, ridusse fortemente  anche  le altre forme  viventi sulla terra. Piccoli mammiferi arboricoli e insettivori riuscirono a sopravvivere, dando inizio alla radiazione adattiva dei Primati (esplosione di forme scimmiesche da una medesimo antenato comune).

L’Aegiptopiteco (Fig.2) dell’Oligocene Sup. ( intorno a 30 MAF) o gruppi vicini potrebbero essere considerate le forme  ancestrali dei vari primati miocenici (Driopitecine e successivamente  Ramapitecine), forme antropomorfe (le cui radici apparirono 14-15  MAF, a cavallo fra Oligocene e Miocene)  che esplodono appunto a partire dal Miocene medio (20 MAF), raggiungendo il massimo a 15 MAF per ridursi drasticamente  nel Miocene sup, intorno agli 8 MAF (Fig.2).  Fra queste forme dovremmo individuare i precursori, fra l’altro dei Pongidi (scimmie antropomorfe asiatiche: Orangoo Orangutang), dei Panidi (scimmie antropomorfe africane: Pan o Scimpanzè e Gorilla), e degli Ilobatidi e forse degli Ominidi in Africa.

Le trasformazioni evolutive delle diverse linee dei Primati non umani e degli Ominidi sono, come accennato, da mettere in relazione con l’Habitat e possono essere interpretati come risposte alle mutate esigenze alimentari e alle condizioni di vita diverse.

Infatti sull’intero pianeta nel periodo Miocene medio-Pliocene, continua il grande corrugamento alpino, si verificano movimenti di zolle di crosta , si chiude il bacino del Mediterraneo  (l’antico mare Tetide), si forma la grande fossa tettonica del Rift-Valley in Africa orientale (Dall’Eritrea al Malawi).  e, contemporaneamente, si verifica un notevole cambiamento climatico, con diminuzione della temperatura, clima secco e riduzione dell’area forestale in specie nelle zone temperate attuali, che dopo un lungo periodo di clima equatoriale, rientrano nella fascia tropicale e sub-tropicale.

In particolare  anche nelle regioni dell’Africa (teatro del nostro interesse) , a oriente, nel Rift-Valley,  fossa lungo la quale si estendeva l’areale più importante degli Ominidi,  durante gli sconvolgimenti geomorfologici e quando il monsone atlantico portava  umidità nelle regioni occidentali dell’Africa, ma non nelle orientali,  si riduce, a partire da 17 milioni di anni fa  la foresta e si forma un paesaggio aperto, mentre ad ovest l’ambiente continua ad essere umido ed alberato.  La foresta ad est del Rift gradualmente così si trasforma  in savana e poi in prateria, in cui possono trasferirsi i Primati arboricoli che hanno qualche capacità di adattamento ad un ambiente aperto, pieno di pericoli, con possibilità di alimentazione più povera e di natura frugivera (semi, bulbi, radici, insetti). Potevano essere favorite così forme in grado di realizzare, fra l’altro, anche se temporaneamente, un raddrizzamento del corpo (tendenza evolutiva verso il bipedismo), una riduzione dei canini e un aumento delle dimensioni dei molari (tendenza evolutiva alla modifica dell’apparato dentario), mentre altre antropomorfe potevano continuare ad abitare la foresta ed altre ancora estinguersi.

IPOTESI  ‘TENTATIVE’ (TT DI POPPER) SUI POSSIBILI PROGENITORI ANTROPOMORFE-OMINIDI (a partire da una trentina di milioni di anni fa) in via di aggiornamento.

Qualche decina di anni fa sembrò plausibile che da un gruppo di queste antropomorfe mioceniche (Driopitecinae), in un’epoca non ben precisata, si sarebbero evoluti poi gli Hominidi. I Driopiteci abitatori della foresta, che avevano invaso il continente europeo ed asiatico, iniziarono a declinare verso 12 MAF ovunque, mentre i ramapiteci (con un apparato dentario sulla base del quale Leakey assegnò anche un’andatura tendenzialmente bipede), si espansero in ambiente meno forestale in Asia ed in Europa tra 14 e 8 MAF, mentre in Africa a partire da 16.5 MAF.

I rapporti filetici fra Ramapiteci, Driopiteci, altre forme ipotizzate di antropomorfe meno specializzate, il ramo delle Antropomorfe viventi ed il philum umano non sono ben conosciuti, a causa di lacune temporali e geografiche e della frammentarietà nei fossili, per cui gli specialisti sono spesso in dissenso sul probabile comportamento e sui rapporti delle specie fossili.

Alcune decine di anni fa Leakey (13) e Coppens (2) ritenevano che la separazione degli Ominidi dalle Antropomorfe fosse avvenuta in Africa Orientale e risalisse al Miocene Medio (almeno 12-14 MAF). Da quel momento si sarebbe formata una linea evolutiva, a partire da qualche forma ramapitecina ( es., Keniapithecus wicheri, il più scaltro (?) fra i Ramapiteci) tendente verso la forma umana, parallelamente alle altre forme allora viventi. Rimaneva così un intervallo vuoto di milioni di anni prima dell’apparizione di forme a stazione eretta simili all’uomo. E ancora, escludendo dalla linea dell’Uomo i Ramapiteci più specializzati e accettando con Lumley (3) che  nel”Miocene l’evoluzione delle Antropomorfe è praticamente conclusa con l’adattamento perfezionato alla vita arboricola”, la popolazione origine del phylum umano, dello stesso ceppo dei Panidi, doveva essere ricercata prima della specializzazione delle Driopicine, quindi più di 20 MAF (Fig.2), in forme periferiche e poco numerose che vivevano al limite della foresta, forse vicine ai Proconsoli.

Alcuni dissero che il punto della questione non era tanto la presenza di una lacuna di fossili di Ominidi fra 6 e 4 MAF, quanto la loro mancanza totale (al tempo dello scritto) prima di 4 MAF!

Il fatto che nessun fossile Ominide (del tipo degli Australopiteci) sia stato rinvenuto, al tempo dello scrivente, prima di 4 MAF, può indicare che la linea degli Ominidi  non sia molto più vecchia di questa data”  affermava Strickberger (1).

Da tempo era stata già formulato l’ipotesi che la linea dell’uomo era  più vicina a quella dello Scimpanzè   degli  altri antropomorfi (una buona intuizione). Dati genetici e biomolecolari lo hanno confermato: queste due specie hanno in comune ben il 98% di DNA. Da questi studi deriva  anche che il loro antenato comune doveva vivere in Africa intorno a  6 MAF (per il Gorilla, intorno a 7-8  MAF; per l’Orangutang, intorno 14 MAF).  Da 8 a 4 MAF  sembrava vi fosse  un vuoto di forme fossili in particolare quelle antropomorfe. Negli ultimi 10 anni sono state scoperte anche due a tre forme di antropomorfe fossili che coprirebbero questo intervallo di tempo. Fra queste o fra le altre che scopriremo forse potremo trovare l’antenato comune cercato fra lo Scimpanze e l’Australopiteco, prima forma con la stazione eretta (tale radice dovrebbe aggirarsi fra 6-8 MAF), dopo cioè la scomparsa dei Ramapiteci.

evufil0002 modified

BREVI CONSIDERAZIONI SULLA TEORIA DEGLI EQUILIBRI PUNTEGGIATI  (un esempio simulato).

Ma la individuazione del phylum umano implica necessariamente una biforcazione? In effetti, in generale,  nei passaggi evolutivi fra popolazioni  si danno almeno tre possibilità di seguito accennate.

1 – Una parte della popolazione, per esempio, periferica e marginale, procede evolvendo in una direzione diversa dal resto; dopo un certo tempo potremo avere due gruppi contemporanei diversi, imparentati da un progenitore comune; si ha così una diramazione col successo probabile di uno solo dei rami (Fig.1a).

2 – Una popolazione evolve completamente in un’altra in maniera graduale (Fig.1b).

3 – Una parte della popolazione evolve, mentre l’altra, esempio, la periferica, continua a rimanere in forme indifferenziate anche per molto tempo; improvvisamente  esplode in forme con piani strutturali completamente diversi (Fig.1c).

Fig.1

evolu0001

L’ALBERO DELL’ EVOLUZIONE UMANA: RAPIDE CONSIDERAZIONI ED ARGOMENTAZIONI E MOLTI INTERROGATIVI Al MARGINE IN CORSO DI AGGIORNAMENTO PERMANENTE (lo schema viene infatti continuamente modificato, anche in tempi brevi, dalle nuove scoperte di fossili)

(Seguire il cammino sulla Fig.4 e Fig. 4 rivisitata)

ATTENZIONE! da correggere!

PROBLEMA;  H.ergaster, H. antecessor, H. Heidelbergensis: rapporti in Europa

Nella evoluzione umana invece di invocare per lo più un lento ed inesorabile cambiamento di una specie longeva e ubiquitaria (albero con pochi rami), subentrò la convinzione di una convivenza di specie diverse (cespuglio evolutivo), che nel corso della loro vita sarebbero rimaste per la maggior parte del tempo immutate (albero filetico ramoso). Oggi si tende di nuovo a ‘potare’ di qualche ramo l’albero filetico del genere Homo. Per sapere più in profondità di quello che abbiamo scritto e di queste tendenze leggere “Il codice Darwin” di G. Biondi e O. Rickards, Codice Edizioni, Torino, 2005 e “Le origini dell’uomo” A. V., Le Scienze, 2005. – Nominando solo le specie più comunemente accettate, l’albero filetico dell’Homo, con  radici africane (vedere figura sotto PROPOSTA DI SCHEMA DEL GENERE HOMO,  di Gould), alla base è costituito plausibilmente  da H. habilis, che visse in Africa e la colonizzò fra quasi 2.5 e 1.6 MAF.

Fig.3 (schema riportato da Gf. Biondi e O. Richards)

 

cespuglio Homo

– Dall’habilis prese vita, circa 2 MAF, il ramo di H. ergaster, specie madre africana per tutte le forme che si sarebbero disperse in tutto il continente africano, europeo e asiatico. Due rami  sfasati nel tempo diffusero, da radici su H. ergaster, infatti verso l’Europa: uno  circa o.7-0.8 MAF  e l’altro molto tempo prima circa 1.7-1.8 MAF (vedere Fig.4).  Nel momento del ‘distacco’ il secondo (H. antecessor) possedeva la primitiva Cultura Oldowaiana (choppers e chopping tools, MODO 1) e l’altro (H. heidelbergensis), la Cultura Acheuleana, MODO 2 (attrezzo emblematico l’amigdala), che fu acquisita in tempi più recenti in Africa e si evolse fino a ‘partorire’ un figlio 200mila-150mila anni fa, in Africa Orientale (Etiopia), chiamato Homo sapiens arcaico (sembra termine oggi obsoleto). Il sua areale diffuse poi verso nord-est in Medio Oriente circa 100mila anni fa, in particolare in Israele e dintorni. Qui apparvero i primi ‘nuovi’ sapiens che uscirono dall’Africa, gli avi dell’intero genere umano, se escludiamo l’ipotesi di Multiregionalismo (più centri di evoluzione per l’Homo sapiens), oggi, sembra, non così obsoleta. Un’altra accreditata ipotesi, alternativa (?), sull’origine dell’uomo moderno (H. sapiens), considera il ramo dell’heidelbergensis nel tratto africano: intorno a 0.6 MAF popolazioni diffusero verso l’Africa Orientale ripetendo il racconto fatto prima, mentre l’ergaster, pur linea longeva, si estinse.  Uno può vedere uno schema illuminante in G. Manzi “L’Evoluzione umana”, Il Mulino, 2007;  Fig. 9 pag. 80, da confrontare con FIG. 4 RIVISITATA.

evufil0001 modified

,

Dopo i  ritrovamenti in Europa di fossili  molto più vecchi di 700ka-800ka, venne pensata una diffusione verso l’Europa di un ramo da una radice di l’H. ergaster forse più antica di quella dell’erectus; quelle popolazioni di Homo furono nominate H. antecessor. La figura sotto è la Fig4 rivisitata.

FIG.4 RIVISITATA con ramo dell’antecessor

evul_albero_homo0002

FIG. 5

SCHEMA DEL PROF. G. MANZI da ‘L’evoluzione umana’, Il Mulino
manzi albero uomo0001

NB – Il curatore di questo post si è preoccupato di interpellare più volte tramite e-mail la redazione della rivista Le Scienze per avere la possibilità di far riferimento a grafici,  foto e  dati durante l’aggiornamento di questo intervento.

SULLA PRIMA E SECONDA  ‘ESPLOSIONE’  DEGLI OMININI: UNA NUOVA IPOTESI

Peter B. deMENOCAL “SHOCK CLIMATICI”, Le Scienze, novembre 2014

A cura del dott. Piero Pistoia

Evul_shock_climatici3.odt in via di ampliamento

IL GRAFICO CHE SEGUE CON LA RELATIVA DIDASCALIA E’ TRASFERITO DALLA PAG. 55 de LE SCIENZE, NOV. 2014. RIPORTATO NELL’ARTICOLO del Prof. deMenocal

FIG: 6

evul_ rapporti_isotopici0001

 

 

OGGI (2015) SEMBRA DISPONIBILE  QUALCHE DATO ‘DURO’ SULLA FILOGENESI DELL’UOMO, CIOE’ VIENE INDIVIDUATA UNA ‘SPECIE CHIAVE DELL’EVOLUZIONE UMANA’ – Appunti ripresi dalla lettura dell’articolo del paleontologo  G. Manzi << I nostri antenati di “mezzo”>>riportato ne “Le Scienze”, novembre 2014.

L’articolo <<REQUISCAT IN PACE’ (RIP) for a key Human Species?>>, pubblicato in “Science”, che raccoglie il dibattito congressuale a Tautavel, sui Pirenei francesi e nominato dal prof. Manzi nel suo articolo (vedere sopra), viene interpretato come: ” C’è ancora tanto da precisare nell’albero umano, ma un punto ormai sembra sicuro! infatti…

In Africa ed in Eurasia sono stati rinvenuti  fossili di ominini con caratteristiche ed età simili al fossile di Mauer  (trovato a Heidelberg, Germania; di circa 500 ka) certamente con tratti morfologici diversi per la grande variabilità delle specie umane e per il vasto areale. I caratteri comuni a questo insieme di individui, oltre ad individuare un’unica specie di Homo, detto H. Heidelbergensis, escludono l’appartenenza a questa specie della maggior parte delle specie seguenti (Vedere FIG. 4 RIVISITATA):

 

H. sapiens; africano

H. erectus; estremo Oriente

H. ergaster; in particolare l’ultimo tratto del philum africano

H. antecessor; europeo

H. floresiensis; ‘hobbit’ dell’isola di flores, Indonesia

 

L’heidelbergensis sopravvisse in Eurasia ed Africa da circa 600 a 200ka.

Si conclude nell’articolo citato che questa specie viene a situarsi  in ‘mezzo’ fra gli ominini più arcaici (quasi tutti quelli nominati) e le specie successive:  il Neandhertal e l’Homo sapiens; tanto che è plausibile che l’Homo heidelbergensis si ponga, a mezza costa, come progenie delle specie arcaiche e come antenato per le due specie successive (Neandhertal e Homo sapiens). E  l’uomo di Ceprano di circa 430 ka ? (vedere anche discussione successiva da modificare). In effetti potrebbe essere una forma dopo Mauer, sulla linea evolutiva dell’heidelbergensis al tempo di 430 ka  (vicino alla separazione col Neandhertal o subito dopo)?

– Dapprima si pensava che i più antichi fossili degli ominini scoperti  in Europa avessero un’età intorno ai 7-800mila anni (ancora prima solo di circa 500ka). Ora, con le nuove scoperte di fossili e loro datazioni, si sono moltiplicati i casi di una popolazione molto più antica (1.2-1.3 Maf), in particolare in Spagna nel sito di Atuaperca. Seguire sulla FIG. 4 RIVISITATA. Così sembra che in Europa ci siano state almeno due diffusioni dall’Africa a partire dall’ergaster africano sfasate nel tempo: una, più antica, dell’antecessor (radice: 1.5 MAF o più antica) e l’altra successiva dell’heidelbergensis (radice: intorno a 700ka), ambedue appunto dal ‘tronco’  dell’ergaster africano, ma, nel secondo caso, ormai già evoluto al modo 2. Gli ominidi europei del ramo più antico, es.,  della Spagna, H. antecessor,  di Cultura Oldowaiana, (MODO 1), di lontana radice africana sul ‘tronco’ dell’ergaster antico, (es., strumenti litici di Bibbona, Tuscany, Italia, circa 730ka), nel procedere della loro evoluzione e diffusione verso est, potrebbero aver prodotto alcuni gruppi successivi, per es., anche al centro e nel sud Italia, (del tipo, per es., uomo di Ceprano, Argil, di almeno circa 400-450mila anni fa), e quindi contemporanei  agli heidelbengensis diffusi dall’Africa, presenti in Europa a partire da 0.5-0.6 MAF. Tali gruppi, posti  come  discendenti sulla antica linea filetica dell’ergaster dell’Oldowaiano (cioè H. antecessor europeo) di radice lontana africana (diffuso verso l’Europa circa 1.5-1.6 MAF),  per ipotesi, potrebbero essere precursori di qualche comunità o popolazione dell’altra linea dell’ heidelbergensis di MODO 2 (già nominata come diffusa dalla radice africana sull’ergaster, circa 0.7 MAF; presente in Europa a partire da circa 0.5-0.6 MAF), vista la grande variabilità all’interno delle specie umane (si pensi che un Pigmeo ed un Masai sono ambedue sapiens)? (Ma nel ‘quattrocentomila anni fa’, al tempo delle popolazioni simili al fossile di Ceprano, esisteva in Italia  l’heidelbergensis di origine africana in evoluzione! Quindi, meglio, questi gruppi potrebbero essere i precursori di una forma italiana dell’heidelbergensis? Segue argomentazione sull’ipotesi. Da chiarire. (da rivedere!)

(Nel fossile di Ceprano (430ka) i caratteri fini sembrano rimandare ai contemporanei europei, cioè agli heidelbergensis e  invece “non c’è nulla in lui che parli del Neandhertal”  (National Geographics, Italia. agosto 2011). Ma la sua struttura piuttosto pesante è molto più antica e ‘guarda’ indietro ad Atapuerca in Spagna (H. antecessor, 1.2-1.3 MAF). Così il fossile detto Argil (rinvenuto in argilla) di Ceprano diviene candidato per essere un ipotetico antenato di una possibile popolazione di heidelbergensis italiani, d’altronde specie molto variabile, sulla linea evolutiva del popolo di Atapuerca?

Così intorno a 400ka in Ceprano sembra convivere il prodotto evolutivo delle popolazioni di H. antecessor di Atapuerca in circa (1.2-0.4)ka, insieme a popolazioni di H.Heidelbergensis, diffuse dall’Africa da una radice dell’ergaster vicina a quella dell’erectus.) da rivedere

– In Africa intorno a 600-700 mila anni fa apparve il ramo dell’Homo heidelbergensis, che si ritrova in Europa da 500-600mila a 250mila anni fa. Esso appena apparve già possedeva la Cultura delle asce a mano (le amigdale o asce senza manico), che portò con sé nella diffusione in l’Europa, dove questi utensili della Cultura Acheleuana MODO 2),  associati a fossili di H. heidelbergensis, si ritrovano, per es., ad Arago in Francia, a Stheineim e Heidelberger in Germania ed a Swanscombe in Inghilterra (forse in successione temporale? Diffusero da occidente verso oriente?). Questa specie  250mila anni fa si estinse non prima di aver dato i natali al Neandhertal. Infatti dall’heidelbergensis ebbe origine, sembra,  l’Homo neandertalensis di cultura Musteriana MODO 3, specie europea e dell’Asia occidentale, che visse fra 200mila e 30mila anni fa, coprendo l’intero Paleolitico Medio, .  Quest’ultimi furono  contemporanei del sapiens e abitarono gli stessi posti in qualche periodo, certamente intorno a 150mila anni fa in Israele e dintorni.

– Il ramo dell’Homo erectus derivò dal ramo dell’ ergaster nel range 1.5 – 1.7 MAF (intorno al tempo della diffusione verso l’Europa anche dell’ergaster antico).   L’areale dell’erectus poco dopo diffuse verso il lontano Oriente per poi estinguersi qui circa 100mila anni fa, non prima di aver generato, in Idonesia, un ramo particolare, l’Homo floresiensis, forse vicino ad un sapiens  nano e microcefalo, costruttore di utensili simili a quelli evoluti dei nostri antenati della stessa epoca. Il floresiensis visse isolato nell’isola di Flores  (Indonesia) da circa 90mila a 15mila anni fa.

– Sembrerebbe così che potessero esistere almeno tre possibilità ipotetiche alternative (?) per l’apparire del sapiens: l’una vede il sapiens come figlio africano diretto di ergaster evoluto in Africa o dell’heidelbergensis a partire da un ramo di radice circa 0.6 MAF sempre in area africana; l’altra vede il sapiens sorgere in Europa al termine della linea evolutiva degli ominidi ergaster antichi europei (H. antecessor) a partire da 1,2 MAF attraverso popolazioni intermedie (MODO 1) e  l’ heidelbergensis dopo la comparsa del Neanderthal;  la terza possibilità è un sapiens proveniente da un ramo dell’erectus nel lontano Oriente. Ma queste ipotesi non sono escluse dalle ricerche sul DNA che vedono il sapiens emergere solo in Africa fra 200mila e 100mila anni fa?  Multiregionalismo falsificato?

Continua la revisione

Dal ceppo del famoso Hominide femmina Lucy, nella lontana Africa, a partire da almeno 2.5 MAF, seguì, fra le altre, una particolare tendenza  verso la ‘costruzione’ del genere Homo, capace di cultura , l’Homo abilis. Furono piccoli esseri con la scintilla dell’intelligenza nello sguardo, che si muovevano eretti e attenti presso laghi e praterie, fermandosi lungo i greti dei fiumi a raccogliere ciottoli di selce con i quali fabbricare choppers (ciottoli scheggiati da una parte) e chopping-tools (da ambedue le parti) o ad organizzare accampamenti base per la caccia rispondendo ad un cervello più sviluppato di quello del ceppo di provenienza (forse l’Australopithecus afarense). Fu una cultura povera ed i choppers erano controllati probabilmente dalla forma del pezzo di pietra grezza iniziale piuttosto che da una sagoma mentale. Restarono in Africa e la colonizzarono almeno fino a 1.6 MAF. Oggi proprio nella Formazione di Bibbona [1], in eteropia, dalla parte della costa, dove si formarono depositi fluviali, è stata ritrovata una Pebble Culture con i suoi choppers e chopping-tools senza però presenza di fossili umani antichi, almeno secondo le nostre informazioni.  Forse  allora da un ramo più antico di H. ergaster,  in Africa da circa 2 MAF fino a circa 200mila anni fa,  dalla zona vicina alla divergenza con l’erectus, un gruppo di ergaster diffuse   appunto verso l’Europa intorno a 1.5 MAF (antecessor). All’epoca della separazione l’ergaster possedeva ancora la Cultura su ciottolo, ma continuò ad evolvere e colonizzare l’Africa  progredendo culturalmente  fino a ‘partorire’ (una delle ipotesi) forse un sapiens nella sua forma primigenia in Africa Orientale  intorno a 200mila anni fa. Approfittò magari dell’abbassamento del livello del mare della glaciazione Gunz (età della glaciazione) attraverso anguste strisce di terra e facili guadi  ad Occidente ( o più probabilmente passando da Oriente?), fino a raggiungere anche Bibbona ed i Monti Livornesi. In effetti tracce di questa Cultura Oldowaiana si ritrovano in Europa, in un percorso segnato dal tempo, a partire dalla Spagna (1.2 MAF), alla Francia, Nizza e Massiccio Centrale (circa 1 MAF), forse in Italia centrale (730ka) e forse anche in Italia più a sud a Ceprano (430ka), attraverso la Germania (Karlic) fino a Praga. In Italia sarebbero giunti appunto circa 0.73 MAF in particolare sulla costa a Bibbona e quindi associati alla Formazione di Bibbona (1.2-0.781 MAF). Anche un’altra specie più evoluta del genere Homo (l’Homo erectus a cultura Aculeana) si staccò in Africa, da un ‘cespuglio’ di ergaster,  a partire da 1.5 MAF; certamente migrò verso il lontano Oriente, in alcuni casi anche passando prima verso nord (forse da aree ad est) fino in Georgia e zona del Caucaso (H. georgicus), piegando poi verso il lontano oriente. La Cultura dell’erectus detta Acheuleano, aveva superato in Africa lo del ciottolo rozzamente scolpito e era rappresentata da un magico oggetto simbolico di selce a forma di mandorla, grosso come un pugno, ascia a mano (senza manico) a punta con margini taglienti con l’altro estremo più arrotondato per la presa, descritto come un bifacciale simmetrico, l’Amigdala (se uniamo gli indici fra loro e i pollici orizzontalmente e premiamo, otteniamo la sezione longitudinale dell’amigdala). Alcuni non vedendo un uso efficace di questo strumento in relazione alle sue dimensioni (circa un decimetro di lunghezza), pensarono ad un oggetto magico e sacro collegabile all’intimo femminile. Allora, se l’erectus si fosse diffuso anche in Europa, la Cultura Oldowaiana europea potrebbe essere attribuita (anche) a lui? Ci fu allora uno sfasamento culturale dall’Acheuleano  all’ Oldowaiano? come da qualche studioso suggerito. Ma sembra plausibile che una Cultura possa regredire così facilmente, magari per mancanza di materiali grezzi opportuni o diversi? Le difficoltà non servono forse ad acuire l’ingegno, se dato? A meno che non si applichi l’ingegno a materiali diversi ugualmente efficaci per la sopravvivenza, ma difficilmente fossilizzabili, come, per esempio, il bambù od altro incontrati dall’erectus nel Lontano Oriente, dove, sembra, non furono trovate amigdale. Queste diffusioni dall’Africa non implicarono però un impoverimento evolutivo di questo continente (infatti solo in esso sembra sia apparso l’uomo nuovo!). Se l’ergaster  rimase il centro principale dell’evoluzione umana in Africa fino all’emerge dello stesso uomo moderno, questo potrebbe significare che a lasciare l’Africa  furono le popolazioni evolutivamente più povere? Il genoma dell’erectus, staccatosi dal ramo dell’ergaster precocemente (1.5 MAF), era potenzialmente più predisposto a generare sapiens (Homo di Flores, un sapiens nano) dell’hedelbergensis separatosi dall’ergaster quasi un milione di anni dopo (generò infatti solo il Neandhertal)? La molla del ‘migrare’ non è forse, insieme ad altro, la curiosità? La curiosità quindi nell’evoluzione non paga? Il sapiens è sorto solo in Africa? Perchè in Europa si rinvengono crani umani che hanno una natura duplice, con una architettura che guarda all’antico, mentre i caratteri fini guardano ai contemporanei europei come H. heidelbergensis? quasi che l’H.heidelbergensis sia sorto dall’ergaster in Italia (o anche in Italia), da popolazioni con crani come l’H. cepranensis ARGIL. Perchè allora l’uomo nuovo non è sorto in Italia?

Sempre nella zona di Bibbona, topograficamente al di sopra del sito Oldowaiano, in età almeno di 120mila anni, sempre in sabbie di costa, in eteropia con la parte alta dei Conglomerati di Bolgheri (), si trova un sito a Cultura Acheuleana. E’ proprio sulle sponde di fiumi antichi del Riss nella bassa Val di Cecina che sono state rinvenute le amigdale, gli oggetti quasi sacri dell’erectus o dell’ergaster evoluto ovvero forse ultima coda dell’H. heidelbergesis, la forma di radice africana (600mila anni fa era in Etiopia) che circa 200mila anni fa, prima di estinguersi, dette i natali al Neandhertal (in Europa ed in Africa?)

(dott. Piero Pistoia)

4-NOTE-FOTOSINTESI CLOROFILLIANA

NOTE

I disegni sotto riportati, replicati più volte su Internet in svariati altri interventi e appunti di diversi autori di altri blogs, sono stati ritrasferiti rivisitati anche su questo.

CENNI ALLA FOTOSINTESI CLOROFILLIANA  (Letture e pensieri così come vengono, ripresi a spirale)

 

PREMESSA

La fotosintesi clorofilliana è un meccanismo che fornisce nutrimento ed energia e quindi è condizione necessaria e spesso sufficiente per mantenere in vita la pianta e la vita sulla terra. Infatti dalla sua efficienza dipendono la garanzia della riproduzione di tutti i viventi e la continuità stessa della vita.

Le piante verdi sono organismi autotrofi, cioè riescono, a partire da composti inorganici (sali minerali del terreno, acqua e anidride carbonica), a formare composti organici che servono a mantenere e costruire il loro corpo (organicazione): da H2O+CO2 si arriva ad un composto del gruppo degli zuccheri che può condensarsi in amido e insieme a sostanze nitriche e ammoniacali darà composti azotati. Gli animali in genere sono invece eterotrofi, cioè riescono solo a organizzare il materiale costruito dagli autotrofi. Il processo di organicazione del materiale inorganico è permesso da un insieme complesso di reazioni chimiche non ancora completamente capite che si chiama fotosintesi clorofilliana. La fotosintesi perciò è il processo mediante il quale la materia organica, immersa in una atmosfera di ossigeno, si oppone alla sua completa e veloce “combustione” in CO2 + H2O. La respirazione stessa è una specie di “combustione controllata” che l’organismo è riuscito a ‘progettare’ durante la sua evoluzione e utilizzare per i suoi fini.

Ma per passare da materiali semplici (inorganici) a quelli complessi, che si configurano come “mattoni” per costruire la materia vivente, c’è bisogno di un grosso quantitativo di energia, ma anche un “meccanismo strutturato”  progettato e costruito dall’evoluzione per utilizzarla in un processo mirato a tale lavoro.  La pianta cattura tale energia da una sorgente storicamente inesauribile: il sole. La cosa sembra semplice, ma in effetti, in generale, scaldare più molecole semplici (quelle inorganiche) al sole non provoca nessuna reazione utile, come nessun oggetto si muove se ci limitiamo a trasformare acqua in vapore (vedere il 2° principio della termodinamica)!

RACCONTO A LIVELLO ZERO

E’ necessario così prima capire che cosa si intende per ossidazione e riduzione, perché la maggior parte dei passaggi nel processo fotosintetico sono reazioni di ossido-riduzione. E’ inoltre richiesta una minima conoscenza della chimica elementare. Una molecola chimica si ossida quando cede elettroni e si riduce quando ne acquista; nelle reazioni dove entrano in gioco ossigeno e idrogeno, una combinazione con ossigeno significa ossidazione e con idrogeno riduzione (infatti, per es., se l’elemento Ca (neutro,  ossidazione 0) si combina con l’elemento ossigeno (neutro) a dare CaO, cioè Ca(2+) O(2-), si vede che si è ossidato cedendo due elettroni negativi; si dice anche che è aumentato il suo numero di ossidazione da 0 a 2, mentre O si riduce. L’ossidazione è una specie di piccola combustione e libera energia nei dintorni; la riduzione invece ne assorbe. Una molecola che si riduce acquista dentro di sé  energia chimica. Così l’energia solare può essere catturata da molecole che si riducono e trasportata da una molecola all’altra in una catena di ossido-riduzioni con salti energetici in discesa (vedere schemi dei due sistemi fotosintetici). Cerchiamo di capire. la luce spacca una molecola di acqua (fase luminosa della fotosintesi) liberando ossigeno molecolare ( da H2O – i due idrogeno del composto hanno numero di ossidazione 2+ – si formano 2H+ (cioè due protoni, atomi di idrogeno senza elettroni); mentre l’ossigeno passa da -2 a zero 1/2*O2). Durante la fase al buio della fotosintesi avrò disponibili varie molecole di ATP e NADPH ad alta energia chimica costruite durante la fase luminosa (vedere schema Z) che saranno capaci di operare le reazioni chimiche di riduzione ad alto assorbimento energetico richiesto dal  passaggio dall’inorganico all’organico. Rimane comunque il problema sul modo in cui la luce  del sole riesca a spaccare la molecola d’acqua; sembra che l’energia luminosa ecciti una molecola di clorofilla, contenuta nelle parti verdi della pianta (fase luminosa), portandola ad uno stato altamente energetico (salto di elettroni su livelli elevati) così da determinare la scissione dell’acqua, bombardata da quanti di ‘luce’ opportuni, quando ritorna al suo stato iniziale, con il conseguente passaggio dell’energia  anche ai trasportatori di elettroni liberati fino alla zona dove sarà utilizzato per i processi di organicazione del carbonio (ciclo di Calvin). Così all’interno di cellule opportune delle parti verdi della pianta (cloroplasti), che contengono vari tipi di clorofille,  avvengono complicate reazioni di ossido-riduzione in due sistemi fotosintetici, vedere dopo foto (fase luminosa), che conducono alla formazione di molecole di trasporto ricche di energia nei loro legami chimici (ATP e NADPH, vedere dopo) che, nella fase oscura (ciclo di CALVIN), serviranno a costruire le molecole carboniose (organicazione della CO2) utili a produrre poi protidi, lipidi…

Nella scissione dell’acqua si libera ossigeno nell’atmosfera. Un riassunto sulle tappe principali del processo fotosintetico è dato  nel così detto “SCHEMA H” di fig. 11 della T. sinottica e ‘SCHEMA ZETA’ che cercheremo di illustrare meglio. Vedremo meglio anche introducendo la distinzione fra  la fotosintesi delle piante di tipo C3 e di tipo C4 ed accennando ai vari  passaggi ipotetici che, per ora, non sono completamente conosciuti.

Come già accennato le piante verdi sono autotrofe, cioè riescono a produrre molecole organiche complesse (con alta energia nei loro legami) a partire da semplici composti inorganici ed acqua (poveri di energia) con in  più energia luminosa che bilanci almeno la differenza.

Per far questo utilizzano un meccanismo chimico a struttura complessa ancora non completamente compreso, la fotosintesi clorofilliana, che avviene all’interno delle cellule delle foglie verdi dette cloroplasti o plastidi entro cui è contenuta la clorofilla nelle sue diverse forme. Attraverso complicate reazioni durante la fase luminosa, in particolare di ossido-riduzione nel trasferimento energetico, che avvengono in due fotosistemi collegati, vengono prodotte molecole energetiche come l’ATP e NADPH, che serviranno poi alle altre cellule del cloroplasto per sintetizzare nel Ciclo di Calvin, le molecole carboniose, zuccheri, cioè i mattoni di partenza per produrre proteine, lipidi, ….

Il processo globale sembra essere sintetizzato con la reazione:

nCO2 + nH2O + nNhn (?) → (CH2O)n + nO2

Energia per ogni mole = Nh

N=numero di Avogadro=6*10^23 molecole/mole; h=costante di Plank=6.62*10^(-34) joule*sec; ν=frequenza del fotone

IL CLOROPLATO


fotosintesi2_plastidi0001

Questo processo avviene appunto nei cloroplasti o plastidi (simili a mitocondri, gli organuli_fabbrica dell’energia cellulare). Un cloroplasto è un organello all’interno delle cellule delle foglie o delle parti verdi, circondate da una doppia membrana che racchiude un mezzo semifluido, lo stroma. Nello stroma vi è un sistema di membrane ripiegate a formare dischetti, detti tilacoidi (vedi fig. IL CLOROPLASTO ). Un gruppo di tilacoidi sovrapposti formano delle pile in cilindretti detti grana (plurale di granum). Nello spessore della membrana dei tilacoidi ci sono tutti i pigmenti: dalle clorofille nelle loro diverse forme (verdi), ai carotenoidi (gialli rossi porpora) …. Nella parte della membrana dei tilacoidi che contiene anche i trasportatori di elettroni, gruppi di pigmenti formano, insieme ad una sequenza di molecole (catena fotosintetica), i due SISTEMI FOTOSINTETICI II e I.

RACCONTO DI PRIMO LIVELLO

Il racconto è in via di costruzione e correzione.

Questo primo livello precisa brevemente i diversi stadi della fotosintesi clorofilliana. Cerca di esplicitare alcuni passaggi delle reazioni, a partire dalla foto-scissione dell’acqua, che avvengono nei due  fotosistemi durante la fase luminosa (vedere schema Z) e precisa alcuni processi  del ciclo di CALVIN. Nelle ore diurne sulla superficie dei tilacoidi (vedere schema relativo) si attivano molti pigmenti, costituiti da clorofilla-a e l’insieme dei  pigmenti-antenna  in particolare la clorofilla b.  La clorofilla-a assorbe direttamente dalla luce del sole una data lunghezza d’onda che le compete, e dai pigmenti-antenna, dopo che sono stati attivati dall’energia solare, una lunghezza d’onda analoga. Essa si ossida liberando 2 elettroni che passano ad un accettore primario di elettroni che riducendosi acquisisce un alto livello energetico di partenza per il processo. Sotto questi due impulsi energetici,  la clorofilla-a riuscirà a ‘rompere’ anche una molecola d’acqua  in 1 atomo di ossigeno, in due ioni H+(protoni) e  due elettroni che ricaricheranno di energia al momento giusto la molecola di clorofilla-a. Si formerà anche una molecola di ossigeno che andrà a contribuire al 21% di ossigeno nell’aria. I due protoni dell’acqua completeranno infine la riduzione dell’ ADP in ATP e dell’NADP in NADPH, che si troveranno carichi di energia alla fine del processo. Nel contempo dall’accettore primario ad alta energia si distacca una catena di ossido-riduzione con il passaggio in una successione dei due elettroni ricevuti ad una serie di molecole, ognuna delle quali  si ossida (una specie di ‘sbruciacchiamento’) riducendo la successiva che a sua volta si carica di energia, ma ad un livello ancora inferiore e così via, mentre la maggior parte dell’energia liberata ad ogni passaggio va a ridurre trasversalmente una mole di ATP che immagazzina energia per gli altri scopi della pianta. (da rivedere)

UNO SGUARDO FUNZIONALE  ALL’INTERNO DI UN CLOROPLASTO

I DUE SISTEMI FOTOSINTETICI: SCHEMA ZETA

cloroplasto a2

cloroplato b2

LA FOTOLISI DELL’ACQUA, LA ‘POMPA PROTONICA’ E il ‘MECCANISMO CHEMIOSMOTICO’ DEGLI IONI IDROGENO (Ipotesi chemiosmotica di Mitchell). 

Seguire lo scritto sui disegni molto approssimati, ‘INTERNO DI UN CLOROPLATO  a e b, sopra riportati

L’energia luminosa assorbita direttamente e, di riflesso indirettamente convogliata ad imbuto, dalla clorofilla-a (diventata una specie di trappola per l’energia), tramite i pigmenti antenna, provoca salti di alcuni suoi elettroni (per es. 4 se la fotolisi interessa 2 molecole di acqua ossidate a O2) a livelli energetici superiori e subito dopo si ossida trasferendo tali elettroni eccitati  ad un accettore primario che si riduce caricandosi a sua volta di energia. Definiamo risonanza induttiva un percorso per cui una molecola eccitata può trasferire la sua energia ad un’altra molecola adiacente che resta anch’essa eccitata. Così, anche se la clorofilla-a del fotosistema II non può assorbire direttamente quelle frequenze assorbite invece dai pigmenti antenna, quest’ultimi tramite fluorescenza e risonanza induttiva riemettono quanti luce con una lunghezza d’onda conforme alla clorofilla-a (680 nanometri). Il fotosistema II è siglato appunto P680. Nel contempo 4 fotoni sprigionati dal ‘cuore’, centro di reazione del P680  (?), colpiscono 2 molecole di acqua ossidandole a O2  (che si perderanno in atmosfera) con liberazione, nell’intorno, di  4 protoni (ioni H+), man mano trascinati nel lume del tilacoide,  e 4 elettroni che andranno a ricoprire i 4 vuoti interni aperti nella clorofilla-a, che aveva perso 4 elettroni.

La corrente di elettroni lungo i trasportatori sulla membrana del tilacoide ‘pompa’  gli ioni H+, liberati dai quanti di luce nell’ossidazione dell’acqua, nello spazio interno (lume) del tilacoide. Così la densità degli H+ aumenta ed il PH diminuisce nel lume del tilacoide rendendo più acido l’ambiente rispetto allo STROMA del cloroplasto. Gli H+, spinti poi dal gradiente elettrochimico, possono uscire nello stroma fino ad incontrare, uscendo attraverso un canale proteico dove è attivo un enzima per la sintesi  di ATP e NADPH, le molecole da ridurre ADP e NADP+ di ritorno dal Ciclo di Calvin, venendo a favorire questa sintesi.


DA CONTINUARE

 

fotosintesi_plastidi10001IL RACCONTO DI SECONDO LIVELLO: la ‘piccola’ evoluzione fotosintetica

Durante l’evoluzione delle piante, ad un certo punto del loro albero filetico, la vita che evolve riesce ad attivare un primo processo fotosintetico a clorofilla detto C3. La pianta C3 è una fotosintetica di primo ‘tentativo’, nel senso che, forse per una leggera modifica ambientale, si troverà, almeno in alcune zone, in difficoltà. L’evoluzione del processo fotosintetico può essere considerata nell’ambito delle ‘piccole’ evoluzioni o a corto raggio, rispetto alla generale evoluzione delle piante, anche se ‘sommatorie integrate’ di eventi evolutivi a corta raggio ‘indirizzeranno’ la grande evoluzione. La pianta C3 è una fotosintetica che fornisce come primo prodotto organicato un composto a tre atomi di carbonio (triosio). In effetti questa pianta, in funzione della disponibilità  di CO2, che diminuisce aumentando la temperatura ambientale, insieme al loro rapporto CO2/O2, può incepparsi in corrispondenza del funzionamento di un enzima (il rubisco, RuBP), che invece di legarsi  alla CO2 , si lega a O2 bloccando il ciclo di Calvin al buio e quindi non ‘organica’ la CO2, entra in foto-respirazione invece di foto-sintetizzare, ‘bruciando’ molecole energetiche invece di costruirle. In effetti l’enzima Rubisco (RuBP) è poco efficiente nel discriminare fra CO2 e O2 , per cui, quando la temperatura dell’aria raggiunge per es., 27-30 °C a salire,  la CO2 in atmosfera diventa sempre più rarefatta, il rapporto CO2/O2 diminuisce, il Rubisco tende sempre più a legarsi con l’O2 e sempre meno con la CO2. E’ allora che l’enzima entra in difficoltà nell’iniziare l’ “organicazione” (cioè trasformare la molecola inorganica  CO2 in una molecola organica più complessa ricca di energia) – es., emblematico: per ottenere un esoso come il glucosio alla fine del ciclo – si rafforza la fase di foto-respirazione, tendendo ad esaurire la riserva di molecole energetiche, invece di costruirle, bloccando o indebolendo, nel migliore dei casi, il ciclo di Calvin. Se la situazione non cambiasse, la pianta soffrirebbe fino a morire. L’evoluzione, a temperatura ambientale elevata (clima caldo-arido), tenderà allora ad intervenire cercando di rafforzare la concentrazione di CO2  dove sta agendo l’enzima, onde impedire il blocco del ciclo di Calvin. Appariranno così le prime ‘piante intermedie C3-C4’ e poi le C4, inventando un meccanismo che permetta durante la fase oscura, a stomi aperti, la raccolta di molecole CO2 (attraverso l’aggancio con un composto chimico) anche nelle cellule parenchimatiche del mesofillo, trasferendole alle cellule dei cloroplasti,  per poi convogliarle alle cellule fotosintetiche, per rendere la CO2  disponibile all’enzima Rubisco (dopo una una reazione di idrolisi sul composto precedentemente accennato) e continuare il percorso C3 fino alla ‘organicazione’ della CO2. Le piante C4 sono una correzione evolutiva (ancora in trasformazione?) delle piante C3. E’ nelle piante CAM (di clima caldo e secco)  che il processo si perfeziona in un meccanismo che risparmia acqua, diviso in due tempi; nel primo, al buio a stomi aperti (bassa traspirazione), si raccoglie e si accumula la CO2 nei vacuoli delle cellule dei cloroplasti; nel secondo tempo, alla luce ma a stomi chiusi (risparmio acqua), continua il vecchio processo C3, col l’enzima Rubisco che aggancia le molecole, questa volta, di CO2 dai vacuoli, ora in concentrazione giusta e procede al buio col ciclo di Calvin. Insomma, la pianta C3, perfettamente funzionante quando la composizione atmosferica era quella di una volta, ora con il mutare delle temperature medie e delle concentrazioni di CO2 e O2 nell’aria e con la diminuzione del loro rapporto dovuti all’inquinamento, si trova fortemente disadattata per cui si è riattivato il processo evolutivo.

DA INTEGRARE E CONTINUARE associando i  grafici.

L’INTERAZIONE GRAVITAZIONALE, UNA DELLE FORZE PIU’ INTRIGANTI DELL’UNIVERSO: post aperto a vari interventi; del dott. Piero Pistoia

Curriculum di piero pistoia:

al termine del post

 

::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::

Testo rivisitato da il ‘Sillabario’ n. 3 1997 e da ‘Didattica delle scienze’, Brescia, n. 200 1999

UN POSSIBILE “RACCONTO” SULL’ATTRAZIONE GRAVITAZIONALE
Appunti per una lezione fondata sulla epistemologia di Popper
  del dott. Piero Pistoia

L’Autore propone una <<narrazione>> inusitata, non conforme alla storia, fruibile didatticamente, utilizzando il processo di acquisizione di conoscenza dell’epistemologo Karl Popper

Introduzione

Nell’Universo le forze che gli oggetti scambievolmente sprigionano gli uni sugli altri sono essenzialmente di due tipi: a) forze di contatto, quando l’uno spinge l’altro o lo tira attraverso una zona di contatto; b) forze a distanza, quando due oggetti separati (anche nel vuoto) interagiscono fra loro. Le forze a contatto sono anch’esse forze a distanza, ma a livello molecolare o atomico.
Per spiegare come sia possibile una trasmissione di forze a distanza, si immagina che i due corpi si scambino continuamente particelle opportune come due bambini che sono legati dallo scambio continuo della palla che si lanciano durante il gioco e più alta è la frequenza di scambio e più sono legati.

Individuazione di un percorso

Consideriamo il Sistema Solare. Ammettiamo in prima approssimazione che i pianeti ruotino di moto circolare uniforme intorno ad un centro comune che è occupato dal sole, pressappoco su di un piano. Per ruotare di tale moto i pianeti hanno bisogno di una accelerazione? Se non c’è accelerazione, non c’è cambiamento di velocità nè in direzione nè in intensità, per cui il moto sarebbe rettilineo uniforme! Quindi deve esistere un’accelerazione che determini il cambiamento in direzione del vettore velocità, ovvero l’accelerazione centripeta:

ac = V2/R = 4*π2*R/T2

La dimostrazione di questa formula si trova in tutti i testi di Fisica: si inizia disegnando due vettori velocità sulla tangente all’orbita in punti ‘vicini’ (∂t piccolo); si sottraggono come applicati allo stesso punto; l’angolo fra i due vettori è uguale all’angolo al centro (α=dS/R) e …così via.

Se c’è un’accelerazione, per il secondo principio della dinamica deve esistere anche una forza applicata a ciascun pianeta tale da sviluppare un cambiamento opportuno nella direzione del vettore velocità (il modulo della velocità non cambia), cioè da ‘costruire’ questa accelerazione centripeta, rivolta come la forza verso il centro. Concludendo, un pianeta potrà ruotare perchè c’è una forza opportuna che lo tira verso il centro. Perchè allora non cade nel centro? Domanda mal posta! Cade in effetti continuamente verso il centro rimanendo però sulla traiettoria circolare. Infatti la velocità periferica del pianeta se agisse da sola lo sposterebbe, nel tempuscolo ∂t, di v*t lungo la tangente, allontanandolo dal centro di un tratto ∂R (segui sulla Fig.1); la presenza dell’accelerazione centripeta fa contemporaneamente cadere il pianeta verso il centro di ∂R (dove ∂R =1/2*ac*∂t2), per cui il pianeta muovendosi si troverà sempre su una circonferenza. Ma guardiamo perchè accade proprio questo. Sempre osservando la Fig.1., è: ∂y = S*sen(α/2) e ∂x/∂y =tgα; al tendere a zero di α, da un certo punto in poi, in termini fisici, il seno e la tangente si confondono con i relativi archi, cioè ∂y = S*(α/2),  ∂x = ∂y*α e ∂x = S*(α2/2). Così, per α che tende a zero, ∂x va a zero più velocemente di ∂y, per cui ∂R, da un certo punto in poi (sempre dal punto di vista  fisico, e non matematico) coinciderà con ∂y e quindi con l’arco che insiste su α/2, mentre  v*∂t coinciderà con S e, infine, ∂R = v*∂t*α/2. Da quest’ultima, con semplici passaggi, tenendo conto che α=S/R (gli angoli sono misurati in radianti) si perviene a: ∂R = 1/2*ac*∂t2  (Fig.1, disegnata dall’autore). Il moto di caduta verso il centro nel percorrere ∂R è uniformemente accelerato per ∂t abbastanza piccolo.

GRAVITAZIONE_forza centripeta

Si tratta di uno schema razionale fisico nel senso che le diverse coincidenze, al diminuire di α, sono nei limiti degli errori delle misure che intendiamo possibili sul fenomeno stesso; nel contesto, l’analisi matematica si pone solo come una specie di strumento regolativo, anche se potente.

In effetti i pianeti sono come enormi <<sassi>> che ‘cadono’ sul sole mentre ruotano e le accelerazioni centripete dei pianeti non sono altro che le accelerazioni di gravità verso il sole a quella distanza. Senza entrare nel merito del come e del perchè, non conviene mai rispondere <<il pianeta non cade perchè la forza di attrazione è bilanciata dalla forza centrifuga di ugual direzione intensità e verso opposto pure applicata al pianeta>>. Se fosse così la resultante delle forze sarebbe zero e il moto non potrebbe essere circolare uniforme ma solamente rettilineo uniforme! I pianeti fuggirebbero lungo la tangente alla traiettoria perdendosi nello spazio. La ‘vera’ forza centrifuga, uguale alla centripeta per il 3° principio della dinamica,  è di fatto applicata sul sole, che sotto essa, ruoterà anch’esso, ma intorno al centro di massa Terra-Sole, situato a pochi centimetri dal centro dell’astro! L’uso spesso poco oculato del concetto di forza centrifuga  e delle altre forze apparenti nella scuola italiana sarebbe da investigare; casi analoghi si ritrovano nella ricerca di spiegazioni relative, per es., alla forza di marea  ecc.. Pesanti dimostrazioni basate sul nulla?

Ma tornando al nostro obbiettivo, perchè i pianeti ruotino, hanno bisogno di una forza centrale che sviluppi un’accelerazione tale da far cambiare direzione al vettore velocità, costringendo l’oggetto a descrivere una circonferenza (in prima approssimazione). Queste forze e le loro accelerazioni <<guardano>> verso il centro di rotazione, dov’è situato il Sole. E’ allora facile pensare al Sole come responsabile di tutte queste forze. Cerchiamo ora di ‘scoprire ‘ la legge che le regola.

Per risolvere questo problema utilizzeremo la sequenza , sotto forma di schema, proposta da K. Popper nell’acquisizione di conoscenza:

Problema1 → Tentativi di soluzione, ipotesi provvisorie (Tentative Theory, TT) → Eliminazione critica dell’errore (Error’s Elimination, EE) → Problema2

Nella fase EE si risolve il processo di falsificazione, che <<necessariamente tocca>> il Reale, il mondo, la Natura, come privazione, tramite l’argomentazione critica o il laboratorio, sia esso standard oppure offerto dalla Natura. Per ulteriori approfondimenti vedere, per es., K. R. Popper, Epistemologia, razionalità e libertà, Armando, 1972,pp.23 e seguenti;, pp 107-108; K. R. Popper, Tutta la vita è risolvere problemi, Rusconi, 1996, cap. I; Per l’applicazione della sequenza proposta alla didattica, P. Pistoia, La teoria dell’errore e l’uso del computer in laboratorio, in <<Didattica delle Scienze>> n. 132, novembre 1987.

Tentative Theory (TT) di K. Popper

Trattandosi di forze a distanza, come già accennato, immaginiamo che il Sole emetta N particelle al secondo intorno a sè, particelle speciali che si propagano per es., con velocità della luce, c, nelle diverse direzioni dello spazio ‘senza perdersi per la strada’. Immaginiamo altresì che la potenza di emissione, N, sia legata ad una proprietà posseduta in maggiore o minore grado da tutti gli oggetti dell’Universo, la proprietà di attrarre e farsi attrarre, detta massa gravitazionale nel caso del Sole N=K*Mgs, da non confondere con la massa inerziale (proprietà degli oggetti dell’Universo di opporsi a farsi accelerare); queste masse, concettualmente profondamente diverse, sono  stranamente proporzionali nel nostro mondo fisico noto (come richiesto anche dalle nostre ipotesi). Se ciò è vero, in ogni oggetto il rapporto fra queste due proprietà è costante  e se scelgo per la loro misura uno stesso oggetto (scelgo cioè come massa gravitazionale Mg unitaria quella dell’oggetto (che considero campione e lo conserva da qualche parte) che ha pure massa inerziale Mi unitaria, le due grandezze in ogni oggetto saranno anche numericamente uguali (da rivedere).

Ammettiamo ora che la densità di queste particelle, indipendente dagli oggetti che ne risentono, possa misurare, in un certo luogo, l’intensità della forza per unità di massa gravitazionale (F/Mg=g=campo gravitazionale) che avrebbe anche dimensioni e significato di un’accelerazione di natura simile a quella di gravità g.
Per il modo in cui le nostre ipotesi sono formulate, queste accelerazioni di caduta, come i corrispondenti campi, non risentono delle caratteristiche degli oggetti che le subiscono (proprio come l’accelerazione di gravità in un dato punto della superficie della terra, che è la stessa per tutti gli oggetti con un errore relativo di 3*10^-10, secondo le misure di Eotvos). E’ questo fatto a determinare la già accennata proporzionalità diretta fra massa gravitazionale e massa inerziale. L’equivalenza fra le due masse è uno degli aspetti fondanti della Relatività Generale.

Siamo pronti a proporre due ipotesi ‘tentative’ che potrebbero risolvere il problema.
– Se l’emissione avviene su un piano (ipotesi suggerita dall’esistenza del piano dell’eclittica), le particelle emesse in un tempuscolo ∂t (in numero uguale a N*∂t) si troverebbero incluse, dopo un certo tempo t, in una stretta corona circolare di area 2*π*R*∂R e di altezza ∂R=c*∂t, approssimativamente distante R=c*t da Sole, dove c è la velocità della luce; per cui considerando N*∂t il numero di particelle emesse in ∂t, esse presenterebbero alla distanza R una densità superficiale pari a N*∂t/( 2*π*R*c*∂t). L’intensità della ac sarebbe allora proporzionale a N/(2*π*R*c); così, poiché nel nostro caso N, 2, π e c sono costanti, ac sarebbe inversamente proporzionale alla distanza delle particelle dal Sole (PRIMA IPOTESI).

– Se l’emissione avviene in tutte le direzioni dello spazio, lungo tutti i raggi della sfera costituente il Sole, le particelle emesse in un corpuscolo ∂t (uguali a N*∂t) sarebbero incluse, dopo un certo tempo t, in una corona sferica di volume 4*π*R2*∂R distante approssimativamente R da Sole, per cui l’ac sarebbe proporzionale a N/(4*π*R2*c) che è appunto la densità di volume.
Come si vede, ac sarebbe inversamente proporzionale a R2 (SECONDA IPOTESI), cioè: ac=K°*Mgs/(4*π*R2*c), dove K° riassume: 1) la costante nella relazione fra potenza di emissione del corpo che genera il campo e la sua massa gravitazionale; 2) la costante che lega il campo alla densità di particelle emesse. Il valore di K° è una caratteristica dell’Universo conosciuto, per cui andrà misurato sperimentalmente.

Poichè pianeti e Sole hanno le stessa caratteristiche di qualsiasi altro oggetto dell’Universo ( a differenza di quello che si pensava nel Medioevo), le due ipotesi valgono per l’interazione di due oggetti planetari qualsiasi, e per qualsiasi altra coppia di oggetti.

grav1

Error’s Elimination (EE) di K. Popper

Un modo per mettere alla prova le due ipotesi è misurare, per es., varie aci (ac1. ac2…) a diverse distanze Ri (R1,R2…) dal Sole corrispondenti alle posizioni dei pianeti e controllare le inverse proporzionalità con gli Ri e Ri2. Il calcolo delle aci è ricavabile da altre grandezze astronomiche conosciute come velocità orbitali medie, distanze e tempi di rivoluzione (Tab.1)

– Un primo tentativo di controllo è confrontare l’ac alla superficie della Terra (R1=RT)  (per l’emissione gravitazionale, un oggetto pressochè sferico si immagina come un punto-massa concentrato nel centro) e, per es., alla distanza della Luna (R2=RL=60*RT). Se un corpo potesse ruotare alla superficie della Terra, l’unica possibilità sarebbe che la sua accelerazione centripeta acT fosse uguale a g=9.81 m/s2. Ma data la natura dell’ac. centripeta dei pianeti, vera e propria accelerazione di gravità, era inutile immaginare una rotazione alla superficie della Terra!

Faccio acquisire intanto alle due ipotesi le seguenti forme:

PRIMA IPOTESI

g*RT=acL*RL;                  g/acL=RL/RT=60;

Quindi:

acL=9.81/60=0.1635 m/s2;

SECONDA IPOTESI

g/acL=RL2/RT2=3600

quindi:

acL=9.81/3600=0.00273 m/s2;

Per il controllo, calcolo il valore  di acL con RL= 384000 Km e il periodo di rivoluzione T=27.3 giorni. Se un giorno equivale a 86400 s, il risultato è:

acL=4*π2*R/T2=0.00272 m/s2

Si falsifica la prima ipotesi e si corrabora e si rafforza la seconda.

– Come secondo intervento EE posso ora calcolare le aci di tutti i pianeti e registrarle con le loro distanze da Sole (tab.1); ripetiamo i controlli aci*Ri e aci*Ri^2 annotando i valori per ogni pianeta (per calcolare le aci*Ri basta elevare al quadrato le rispettive velocità orbitali medie: aci*Ri=V^2/Ri*Ri; dalla tab.1 si corrobora ancora la seconda ipotesi.

Discussione sui risultati

I risultati convalidati sono riassunti nell’espressione media seguente: ac*R2 = K’=1.33*10^11 Km3/s2  con un Errore Assoluto Accidentale (da non confondere con lo strumentale) εa=0.02 Km3/s2   (εa = semidifferenza dei valori estremi). Per cui:

ac*R2 = K’=(1.33 +/- 0.02)*10^11  Km3/s2

La costanza dei prodotti ac*R2 (tab.1, quinta colonna), calcolati variando pianeti e distanze, rimanda a qualche grandezza che è importante nel processo e che non sia cambiata. E’ plausibile pensare che la costante di proporzionalità ed il suo valore siano attribuibili proprio alla potenza di emissione del Sole e quindi alla sua massa gravitazionale. Per cui potremo scrivere che K’=K*Ms, da cui è possibile ricavare  il valore di K, conoscendo la massa del Sole che è: Ms=1.9891*1030 Kg.

Si riporti K’ nel sistema MKS:

K’=1.33*1011*(103 m)3/s2=1.33*1020 m3/s2.

Così:

K=K’/MS=1.33*1020/1,9891*1030= (6.7 +/-  0.1)*10-11 Kg-1 m3/s2;

Poichè 1 Kg * m/s2 = 1 N, l’unità di misura di K è Nm2/Kg2.

Tale costante, ottenuta ad alta precisione in laboratori specializzati, è pari a (6.668 +/- 0.005)*10-11 Mm2/Kg2, con due cifre significative in più del nostro valore.

Nonostante le varie approssimazioni, il nostro risultato  ottenuto usando come laboratorio il sistema solare è soddisfacente  (con un errore relativo massimo dell’1.5%)

E’ da notare che la costanza dei prodotti ac*R2 è un modo alternativo di enunciare la terza legge di Keplero, poiché ac*R2 è uguale simbolicamente a 4*π2*R3/Te quindi risulta corroborata anche la terza legge di Keplero.

In conclusione, se ac corrisponde, come abbiamo già accennato, alla forza nell’unità di massa, avremo:

F/m=K*Ms/R2                                                         (2)

che è il modulo del campo gravitazionale che agisce in ogni punto del Cosmo.

Fra parentesi,  nei dintorni di ogni punto geometrico dell’Universo (punto fisico) esisterà un campo di marea, inversamente proporzionale al cubo della distanza dai centri massa, che deforma lo spazio fisico. Il campo gravitazionale (forza riferita all’unità di massa) deforma, cioè,  i punti fisici del Cosmo tramite il campo di marea. Come procede tale deformazione? In che modo si deformano i punti materiali? Tale ‘campo di marea’ avrà plausibilmente a che fare col tensore gravitazionale di Einstein (Relatività Generale) e la deformazione della geometria dello spazio. Si lascia per ora al lettore l’onere di calcolarsi tale campo e la sua deformazione.

Se infine vogliamo far figurare nella costante di proporzionalità la velocità della luce, come suggerito dall’ipotesi corroborata, basta confrontare la (1) con la (2) per ottenere:

K=K°/(4* π*c),

dove K°=0.2514 Nm3s-1Kg-2.

Conclusioni

La F=K*Ms*mp/R2, se è estendibile a qualsiasi coppia di oggetti, assume la forma:

F1,2=F2,1=K*M1*M2/d2

che calcola il modulo della forza; K non dipendendo dalla natura e dalle condizioni fisiche degli oggetti-massa, dal posto che occupano, dalla velocità ecc., ma solo dalle unità di misura scelte, è una costante dell’Universo conosciuto, il cui valore, calcolato precedentemente è stato messo a confronto con quello ottenuto con metodi e strumenti sofisticati (bilancia di torsione di Cavendish). Si tratta della legge gravitazionale di Newton che controlla l’interazione di due qualsiasi oggetti dell’Universo puntiformi o sferici. E se non lo sono? Si trova il modo di applicare la legge spezzettando i due oggetti in piccoli volumi puntiformi ecc.. Allora due oggetti di qualsiasi natura fisica o chimica si attraggono scambievolmente mediante forze con la stessa direzione e verso opposto (si tratta sempre di forze di attrazione) e identiche in modulo (in caso contrario il fenomeno contraddirebbe il 3° Principio della Dinamica; infatti posti a contatto in quiete  si metterebbero in moto sotto la sola azione di forze interne).

Fino ad oggi non mi risulta che si possa schermare efficacemente l’azione della gravità come invece accade per forze elettriche e magnetiche, per cui non sembra facile stabilire sperimentalmente se la velocità di propagazione  dell’attrazione newtoniana sia finita o infinita, nonostante le nostre ‘fantasiose’ ammissioni per la formulazione delle ipotesi, che, pur corroborate, non corrispondono necessariamente al mondo, come lo sono, d’altronde, tutte le ipotesi verificate (K. Popper docet!); anche se comunque interessanti, rimarranno nel nostro contesto mera supposizione. Secondo Goodman più teorie fanno “attrito” con il mondo! Permangono in ambiti accademici ancora grandi incertezze sulle onde gravitazionali (“radiazione” emessa  da oggetti_massa con accelerazione variabile e, diciamo, ‘vettori’ dell’effetto gravitazionale) previste, sul piano teorico dalla Relatività Generale, come piccole grinze del campo che si propagano con la velocità della luce. Ricordo che sono stati fatti forti investimenti di risorse per la loro ricerca sul piano sperimentale (per es., progetti di costruzione di sofisticati interferometri, come LIGO negli Stati Uniti e Virgo in Italia, a Cascina, Pisa) e che alcuni ricercatori proclamavano di averle individuate direttamente e di aver misurato la loro velocità, ma non conosco la fine della loro ricerca.

(dott. Piero Pistoia)

PER OVVIARE A MODIFICHE NON CONSENTITE DEL TESTO RIPORTIAMO ANCHE  LE FOTO DELLE PAGINE DELL’ARTICOLO ORIGINALE dello stesso autore

gravitazione0001

i

gravitazione0003

i

gravitazione0004

i

gravitazione10001