EVOLUZIONISMO, CAOS, ENTROPIA.

PAOLO DE BERNARDI

CONTAMINAZIONE TECNOCRATICA DELLA SCIENZA E MISTIFICAZIONE STOCASTICA DELLA NATURA.

La Natura argina le risonanze come

La Vita si difende dalle mutazioni;

Allo Spirito tocca arrestar le menzogne

Come generazioni di filosofi e scienziati hanno lavorato a favore della Grande Menzogna

Pubblicato in “Sapienza”, Parte I, 58 (2005) 1, pp. 69-115;

Parte II, 59 (2006) 1, pp.63-97

INTRODUZIONE. L’evento più significativo dell’ultimo secolo sul piano epistemologico-culturale è stato l’affermarsi di un nuovo modello di natura (Universo). Si è passati dal modello deterministico classico (galileano-newtoniano) ad un modello anche definito “post-moderno”, caratterizzato da una visione indeterministica, evolutiva, caotica della natura. Questo passaggio si è attuato con l’imporsi di due paradigmi scientifici prevalenti, che presuppongono e veicolano un tale modello di natura: l’evoluzionismo e il II principio della termodinamica (=principio entropia).

Compito di questo lavoro è indagare: a) Il nesso esistente tra questi due paradigmi e il nuovo modello di natura indicato. b) Il rapporto tra i due paradigmi (evoluzionismo ed entropia), evidenziandone l’apparente opposizione. c) Smascherare la funzione ideologica e politica di questi tre elementi.

I risultati cui perviene la seguente indagine sono così sintetizzabili. Il modello di natura che viene a sostituirsi a quello classico lo definiremo evolutivo-entropico. Tuttavia, ciò che ha condotto a tale mutazione di paradigma non è semplicemente una serie di fattori irrazionali, psicologici, sociologici, ovvero altre depistanti motivazioni, quali sono addotte dagli epistemologi più in voga, bensì un preciso progetto politico, che solo una evoluta tecnocrazia poteva concepire e attuare. Esso si concretizza in due fasi fondamentali: a) produzione della Grande Incertezza; operazione culturale ed epistemologica del secolo scorso che è servita a cancellare nei popoli, progressivamente, le certezze di tipo naturalistico-rurale e scientifico-culturali. In entrambi i casi, si trattava di certezze fondate sulla regolarità e prevedibilità dei fenomeni e dei cicli naturali, direttamente sperimentabili dal singolo, codificati nelle tradizioni dei popoli e nei sistemi scientifici deterministici propri della scienza moderna. b) Nella seconda fase, una volta scardinato questo modello di natura, fondato su una percezione circolare e stabile del tempo, si è sostituito un modello fondato su un’idea lineare del tempo, che conduce a un modello evolutivo-entropico, come tale squilibrato e caotico, della natura. E’ infatti solo quest’ultimo modello che consente il pieno avvento tecnocratico, perché è solo un’idea di natura caotica, instabile, squilibrata, aleatoria. ma evolutiva a far apparire salvifica (messianica) la tecnica e la finanza che la sorregge. Agendo secondo un classico modello di psicologia di massa, che consiste nel: “creare un’emergenza per costringere ad adottare un determinato rimedio”, si propone un insicuro e minaccioso modello di natura, perennemente insidiato dal caos, però in grado di giustificare un massiccio ricorso a manipolazioni tecnologiche (dal clima, al genoma) che dovrebbe salvare l’umanità dal “disastro incombente”. E’ in una sorta di schema teorico a modello biunivoco, che tanto insiste sulla (presunta) crisi del modello deterministico-meccanicistico, quanto ripropone un modello aleatorio e statistico della natura, a partire da un ormai logoro modello meteorologico, che viene a compimento tutta l’operazione, volta a preparare il terreno all’ imposizione delle certezze tecnocratiche.

Sul piano teorico, ciò che ha per tempo preparato il terreno all’avvento dei nuovi paradigmi è stato il convenzionalismo scientifico; che, una volta invalidati i riferimenti all’esperienza (come base di fondatezza delle teorie), o addirittura le primarie evidenze intuitive degli assiomi, ha favorito la degenerazione della scienza verso la pseudoscientificità e la razionalità debole, il cui impegno non è più nel dimostrare e provare (o tentare di smentire), ma in un aleatorio e post-moderno dar a credere, ricorrendo a strumenti ormai retorici. L’importante è convincere, con ogni mezzo, in una sorta di deregulation probatoria, che sposta la scientificità dal razionale al ragionevole, dal dimostrato e fondato al meramente convincente, come tale soggiacente a categorie solo retoriche, anzi, forse a strategie solo mediatiche, virtuali e propagandistiche.

Per l’uomo contemporaneo la scienza diventa sempre più inaccessibile e incontrollabile, non solo perché il suo luogo è divenuto l’ipertecnologico e costoso laboratorio di ricerca, ma anche perché essa, per effetto della dissoluzione convenzionalista, non pare più rispondere al classico tripode (1. evidenze intuitive, 2. rigore logico, 3. aderenza all’esperienza), che la rendeva, di principio, universalmente accessibile e controllabile, anche grazie alla ripetibilità dell’esperimento.

Il modello di natura che, funzionale alla nuova forma di potere (tecnocrazia), è stato ed è imposto con intensi supporti mediatici, e che abbiamo definito “evolutivo-entropico”, presenta, ad una ancor più profonda analisi, caratteri acutamente decadenti, nel senso che, alla vita, alla natura tutta viene attribuito un radicale conatus mortis, una intrinseca vocazione alla patologia e alla devianza. Tutto il contrario insomma di quanto intendevano significare classiche espressioni quali: “natura nutrice”, “vis medicatrix naturae” , retaggio di epoche passate. Tale operazione, profondamente nichilista, deve scardinare nelle masse la fiducia nell’operare ordinato, risanante e provvidenziale della natura, per sostituirla con un cieco terrore nei suoi confronti, suscitato dal propagandato modello entropico-caotico, e così consentire la supina accettazione della “gestione dei processi evolutivi” (=manipolazione globale), da realizzarsi anche mediante il biochip di controllo elettronico del vivente.

I. EVOLUZIONISMO. Per capire la struttura teorica dell’evoluzionismo darwinista, ricorriamo a un esempio classico, quello di palline bianche e nere nella brocca di vetro. Indichiamo con “stato di ordine” la loro rigorosa separazione (tutte le palline bianche sotto e tutte le palline nere sopra), mentre chiamiamo “stato di caos” la mescolanza casuale di palline nere e bianche, che si ottiene agitando la brocca. Per l’evoluzionismo, che conformemente al credo materialista [1] si premura di escludere dalla natura ogni principio intelligente, tanto trascendente (come nel teismo cristiano), quanto immanente (come nelle visioni della natura proprie, ad es., di G. Bruno e G. C. Vanini), il divenire della natura procederebbe dal Caos verso l’Ordine. Ossia, da una mescolanza caotica iniziale, in maniera del tutto casuale (ossia senza che vi sia alcuna finalità o progetto), si verrebbero a produrre, in un determinato momento, specificità viventi, come tali ad elevatissima complessità. Queste avrebbero un loro cammino evolutivo, basato sulla produzione casuale di variazioni genetiche, delle quali si salverebbero, trasmettendosi in eredità, quelle necessarie alla sopravvivenza (Caso e necessità,1970, dirà J. Monod). Il modello teorico dell’evoluzionismo, riportato al nostro esempio, afferma che, partendo da uno stato di mescolanza delle palline bianche e nere (paragonabile alla mescolanza casuale degli elementi chimici), se ci si mette ad agitare la brocca, dopo molto tempo, dovrebbe accadere che tutte le palline bianche si dispongano sotto e tutte le palline nere si dispongano sopra; ossia, in campo biochimico, si verificherebbe una formazione specifica (informazione) ad elevata complessità, cioè il vivente. E da qui si andrebbe poi in discesa, perché, se prima a lavorare era solo il caso, ora in aiuto arriva la necessità di sopravvivere, a sospingere il vivente a conservare ereditariamente le mutazioni vantaggiose, verso forme di sempre più elevata complessità, fino all’essere umano.

L’obiezione più sensata e corretta da avanzare a questo modello teorico [2] non è certo l’affermazione che è impossibile che palline nere e bianche si separino e ordinino da sole, a seguito dell’agitazione della brocca. Ciò non è impossibile; almeno nel senso logico e forte del termine, ossia non è contraddittorio, semmai è di elevatissima improbabilità. Con che non si nega che la natura possa, agitata dal caso, arrivare a tanto, quanto si deve negare che possa farlo in un tempo determinato. E allora non basterebbero neppure i cinque miliardi di anni (tanti ne avrebbe la terra) di agitazione casuale degli elementi, per trarne fuori anche il più semplice organismo vivente, che è pur sempre di straordinaria complessità, anzi toto genere diverso da semplici e morti elementi chimici.

Il nostro scopo, tuttavia, non è tanto quello di confutare dal punto di vista logico e teorico questo modello di interpretazione della natura. Il farlo sarebbe tanto facile quanto inutile, perché la forza dell’evoluzionismo non sta nelle cogenze logiche e/o paleontologiche (anzi, in entrambe fa molta acqua), piuttosto la sua forza è politica ed editoriale e questo perché esso gioca un enorme ruolo ideologico nella attuale civiltà tecnocratica, che è quanto ci proponiamo di scoprire.Che esso con disinvoltura compaia nei testi scolastici, dei licei e delle università, così come nelle divulgazioni scientifiche, accanto al II principio della termodinamica, senza che tale associazione appaia contraddittoria, è ulteriore prova della funzione ideologica di entrambi i principi, che non devono tanto rivelare qualcosa della natura, piuttosto dell’altro.

II. ENTROPIA. Il II principio della termodinamica afferma che in natura l’energia, pur conservandosi costante (I principio della termodinamica), procede irreversibilmente verso forme “degradate”, dove con questa impropria espressione si intende: “non più utilizzabili per compiere un lavoro”. Un classico esempio per indicare questo stato di cose può essere la legna che arde: la sua energia viene sfruttata nel processo di combustione per riscaldare (e sotto forma di calore si conserva: I principio); tuttavia non ci è possibile, partendo dal calore, ritornare alla legna. Quell’energia in cui consisteva la legna, una volta trasformatasi in calore, si è come degradata ed è difficile o impossibile riutilizzarla per una nuova funzione. E’ questo il concetto termodinamico di entropia. Questo nuovo stato dell’energia viene detto “entropico” (che dal greco vuol dire “convertito” e anche “confuso”). Il calore è la condizione per eccellenza entropica dell’energia: le particelle di materia subiscono trasformazione e movimento confuso. Sicché il termine “entropia” è divenuto sinonimo di energia nel suo stato di inutilizzabilità, ma anche sinonimo di “andare verso una condizione di riscaldamento progressivo”, nonché di “disordine” (Helmholtz ,1882); e infine, come vedremo, di “caos” .

Questo principio è stato ricavato dallo studio delle macchine e precisamente dallo studio dei rendimenti energetici delle macchine termiche[3]. Proprio nel corso dell’ ‘800 il pensiero tecnico-scientifico si è trovato fortemente impegnato, a fronte delle esigenze industriali e belliche, nel tentare di ridurre il più possibile la funzione termodinamica entropia (indicata con “S”) nelle macchine; la quale significa maggior dispendio di energia, che si manifesta nella forma calore. Detto in soldoni: tanto meno una macchina si surriscalda, quanto meno spreca energia, così, riducendone “S”, garantisco risparmio energetico, durata ed efficienza della macchina stessa.

Senonché , la principale legge del funzionamento delle macchine termiche viene utilizzata per interpretare il divenire dei prodotti dell’umana techne. E allora si dice che un castello di sabbia e una capanna di legno tendono naturalmente verso uno stato entropico irreversibile; e cioè: la sabbia e le assi di legno, da quella situazione ordinata di partenza (che fonda la specificità di tali enti, come castello e capanna), tendono naturalmente verso uno stato caotico della materia. Col tempo, col disgregarsi, troverete, al posto del castello e della capanna, sabbia e tavole sparse casualmente, disposte caoticamente. La gomma di una automobile, col tempo e l’usura, procede irreversibilmente dall’ordine al caos, nel senso che sull’asfalto si disperdono le innumerevoli particelle di gomma e da questa caotica dispersione di particelle non accade (come per la sabbia del castello e le tavole della capanna) che vi sia una spontanea ricostituzione di quegli oggetti. Siamo al concetto statistico di entropia: il divenire dei fenomeni procede da uno stato di ordine (iniziale e poco probabile ad aversi), verso uno stato caotico finale (molto più probabile ad ottenersi).

Si noti come questo modello teorico sia l’esatto contrario di quello evoluzionista; quest’ultimo ipotizza un andamento dei fenomeni vitali dal caos verso l’ordine, ammettendo (Climbing the Mount Improbable, di R. Dawkins) che proprio il meno probabile verrebbe a realizzarsi, a seguito della agitazione caotica delle particelle chimiche. Per il principio entropia, al contrario, l’andamento va dall’ordine al caos; quest’ultimo essendo ciò che ha più probabilità di realizzarsi [4].

Si arriva così a quello che, dal punto di vista della storia delle idee, possiamo far corrispondere alla formulazione del IV principio della termodinamica [5] ; l’idea che il divenire proceda dall’ordine al caos viene estesa alla natura tutta, ecco come si concretizza il “grande favore reso dagli ingegneri alla scienza” (A.S.Eddington). Operazione salutata come “epocale” dagli scienziati postmoderni.

III. INSUFFICIENZE DEL PRINCIPIO EVOLUZIONE [6]. Dal punto di vista logico-argomentativo le cose così stanno: se si affermasse che una cattedrale gotica non è il prodotto di un progetto intelligente e finalizzato, bensì il risultato del comporsi casuale di calce e pietre, che a seguito di millenari rivolgimenti geologici, sommati a fenomeni atmosferici, si sarebbero squadrate e levigate e poi, per urti tellurici (magari sussultori), si sarebbero sovrapposte, fino a formare, con guglie e vetrate, volte a vela, sculture, copertura del tetto ecc, una cattedrale gotica; se si proponesse quindi di trattare la cattedrale gotica non nei manuali di storia dell’arte, ma in quelli di geologia, si sarebbe presi per pazzi. Se un docente dicesse a scuola una cosa del genere verrebbe rinviato a qualche commissione disciplinare del Ministero competente.

Tuttavia, l’affermazione che qualcosa di molto, ma molto più complesso di una cattedrale gotica, come una cellula vivente, si sia prodotto per ripetute e casuali combinazioni di elementi chimici, non solo non è censurata, ma è ritenuta plausibile; anzi, passa per verità scientifica. Per avere un’idea della complessità della cellula vivente basti dire che le più avanzate tecnologie attuali, mentre riescono ad esempio a costruire dei computer di IV generazione con capacità mnemoniche e operative strabilianti, tuttavia non sono in grado di produrre la più elementare cellula vivente. La vita, anche nelle sue forme apparentemente più semplici[7], resta qualcosa di enormemente superiore alle capacità della umana tecnologia, che non è in grado di produrre un umile filo d’erba, ancorché possa manipolarlo. L’evoluzionismo materialista può sostenere, con presunta scientificità, che quanto la più avanzata tecnologia non è in grado di produrre né descrivere si sarebbe prodotto per l’accozzarsi casuale di elementi chimici; mentre se qualcuno dissotterrasse la più rudimentale delle asce in una grotta paleolitica e ipotizzasse essere quella un prodotto geologico (anziché antropico), sostenendo che un bastone si è infilato casualmente, ma stabilmente, in una pietra, che casualmente si è bucata, affilata e levigata; se insomma sostenesse che qualcosa di infinitamente meno complesso di una cellula vivente si fosse prodotto a caso, verrebbe ritenuto folle. Tant’è per l’aspetto teorico.

Per quanto riguarda l’aspetto documentale e paleontologico questa teoria non fa meno acqua, per almeno tre motivi fondamentali. Darwin, il padre dell’evoluzionismo materialista, ha sostenuto che le specie sarebbero comparse a seguito di un processo evolutivo, da forme di vita più arcaiche, le quali, nel corso delle generazioni, conoscerebbero piccole, graduali e casuali variazioni. Quindi, in questa messe di variazioni accidentali prodottesi, si selezionerebbero e si trasmetterebbero in eredità quei caratteri che risultino più adatti alla sopravvivenza. Da questo meccanismo di variazioni casuali e loro selezione nella lotta per la vita, nascerebbero le innumerevoli specie che caratterizzano il mondo animale, fino all’uomo.

Senonché: 1) Mancano all’appello nel repertorio dei ritrovamenti paleontologici gli “anelli di congiunzione” o specie di transizione. Per intenderci: manca quell’orso con le pinne che sta per trasformarsi in balena, oppure il pesce con le zampe, la cui vescica natatoria sta acquisendo la struttura di un polmone, ecc. Non stiamo qui a ripercorrere in dettaglio la serie di patacche[8] con cui nell’ultimo secolo si è tentato di far credere al grande pubblico che tali anelli di congiunzione sarebbero stati veramente trovati. Non essendo perciò facilmente mistificabile – almeno negli ambienti scientifici – la mancanza di quella che avrebbe dovuto essere la prova principe del darwinismo, si è passati ad altri tipi di tentativo, ancorché disperati, come la teoria degli “equilibri punteggiati” (N. Eldredge, S. J. Gould,1972); espressione oscura, ma il cui sostanziale significato è che periodi lunghi di stasi evolutiva vedrebbero all’improvviso la comparsa di nuove specie, per effetto di mutazioni genetiche, conseguenti a qualche catastrofe naturale, che colpisca qualche gruppo isolato di una certa popolazione. Ecco che dall’uovo di un rettile sarebbe venuto fuori…un uccello, e altre amenità del genere, che servirebbero a giustificare l’assenza di ritrovamenti di congiunzione. Così dice la Fast-transition Theory, snobbando il principio: Natura non facit saltum.

2) C’è un fatto macroscopico, fondamentale e quanto mai probante, che viene sempre meno considerato: le specie non sono tra loro interfecondabili, ovvero gli ibridi sono sterili. E questo isolamento riproduttivo, che serve anche a definire ciascuna specie, smentisce, anziché confermare, la derivazione di una specie da un’altra[9].

3) Lo studio del DNA ha rivelato che esso tutto prevede e tollera tranne le variazioni casuali, che starebbero alla base delle chances evolutive. Il DNA è una struttura conservativa che riproduce il messaggio informativo della vita, escludendo rigorosamente le casualità[10]. Esso è conservatore (omeostasi genetica). Se fosse stravagante e casuale come i neodarwinisti e altri lo vorrebbero, al posto delle unghie tagliate potrebbe far crescere capelli o denti, da un uovo di oca farebbe nascere un gatto, come prospettato dalla pop science. Quando il DNA non replica il messaggio suo fondamentale e presenta variazioni, ciò accade perché è stato danneggiato, e questa non è una chance evolutiva, ma un handicap che riduce sempre le possibilità di sopravvivenza, rispetto a chi quel danno genetico non ha avuto. Vogliamo credere che tra i bambini di Chernobyl, dopo il danno subito, ve ne saranno alcuni con più possibilità di vivere di quelli che non sono stati irradiati? Il DNA ha una struttura fortemente conservativa, volta a impedire proprio ciò che i darwinisti indicano come condizione dell’evoluzione: la variazione casuale (quelle illimitate, ossia le mutazioni non comprese nel “pool genetico”); quando, a seguito di violenta sollecitazione esterna, dovesse prodursi la variazione illimitata, questa non offrirebbe la benché minima possibilità in più di sopravvivenza, ma proprio il contrario, ossia la menomazione, che la natura puntualmente mette da parte ed elimina[11] Altro che potenzialità evolutiva!

IV. INSUFFICIENZE DEL PRINCIPIO ENTROPIA. E’ evidente come la natura inorganica, in molti casi, paia rispondere al principio entropia, mentre la biosfera risponde al principio contrario, di sintropia[12]. Senza andare a compromettersi col dogma evoluzionista, noi possiamo, attraverso osservazioni che sono a portata di mano, notare che la vita ha una capacità intrinseca di passare dall’apparente disordine (discrasia, malattia, ecc) all’ordine, cioè al risanamento (vi sono tanti e complessi meccanismi, morfogenetici e morfostatici, che riportano la vita alla sua impronta fondamentale, quando si produca un danno o un disordine). Le ferite rimarginano; dove si tagliano unghie ricrescono tessuti conformi; la coda troncata di una lucertola ricresce; da una foresta bruciata, ne risorge una ancor più rigogliosa. La morte non è un aspetto dell’entropia, perché in natura la vitalità non collassa, ma passa da una forma all’altra. Vedere come entropica la fine di una forma è dimenticare che, dalla destrutturazione di una, se ne ricostituiscono altre. La natura non risponde alla logica del tempo lineare, bensì scandisce un tempo ciclico.

Disdegnano la filosofia gli scienziati post-moderni perché temono di cadere nella metafisica, ed è ormai consuetudine che la scienza per essere scienza se ne tenga separata; altrimenti si disporrebbe di qualche strumento teorico in più, per distinguere meglio, se possibile, una pietra da un vivente e quindi per desistere da improbabili esperimenti di biopoiesi, che riduzionisticamente pretendono lo scaturire della vita da un miscuglio di morti elementi chimici[13]. Mentre una pietra o un tronco dispongono di una potenzialità solo passiva, nel senso che qualcosa o qualcuno (=un agente esterno) li fa diventare vaso o persiana, o altre forme, come ascia e sedia; un vivente dispone fondamentalmente di una potenzialità attiva, in base alla quale, da se stesso (=senza intervento di agenti esterni), diviene una sola forma, e cioè compiutamente se stesso. Questo è il finalismo intrinseco della vita e il suo andamento è sintropico; un seme che diventa albero, un embrione che diventa uomo si arricchiscono e complessificano; tutto il contrario dell’andamento entropico, che implica livellamento energetico e caos morfologico. In laboratorio, si possono perciò accozzare tutti gli elementi chimici che si vuole, ma non si riuscirà a trasformare la loro potenzialità passiva in potenzialità attiva, con un proprio finalismo intrinseco. C’è un salto ontologico! Confondere e scambiare una proprietà della materia a (auto) ordinarsi, secondo certe leggi di preferenzialità, con l’autorganizzarsi proprio della vita è appunto non aver chiara la differenza tra una pietra e un vivente, tra potenzialità passiva e potenzialità attiva, tra meccanicismo e finalismo, tra entropia e sintropia.

V. LA COLLUSIONE Abbiamo visto come la scienza attuale sia caratterizzata dalla forte presenza di due modelli teorici nell’interpretazione della natura; due modelli che a tutta prima paiono opposti e inconciliabili; perché l’uno afferma un divenire che procede dal caos all’ordine (informazione); l’altro afferma un divenire dall’ordine al caos (andamento entropico).Senonché –e siamo alla tesi di questo lavoro– le due visioni solo apparentemente confliggono; in realtà esse colludono attorno ad un elemento centrale, che è loro obiettivo veicolare come paradigma fondamentale della natura, e cioè: il Caos. Il Caos sarebbe ciò che a parte ante oppure a parte post assedierebbe la natura; di questo vuol convincere il pubblico la scienza post-moderna. L’ordine (l’informazione, la complessità) sarebbe un epifenomeno del disordine intrinseco e strutturale della natura. L’ordine e il mirabilmente complesso (come la vita) sarebbero l’elemento contingente e secondario; episodico, rapsodico, labile e leggero (termini chiave presso autori postmoderni). Solo attraverso questo lavorìo ideologico si prepara il terreno affinché si accetti la manipolazione globale della natura: dal controllo dei fenomeni meteorologici, al controllo della genetica riproduttiva di animali e uomini. Vediamo concretamente come ciò accada, ponendoci prima dal punto di vista del modello evoluzionista e poi dal punto di vista termodinamico, dopo aver chiarito le nozioni di “caso” e “caos”.

VI. CASO E CAOS. L’affermazione della caoticità della natura è la pretesa di dare consistenza ontologica a una nozione puramente soggettiva, ossia la casualità (di cui accidentalità e fortuità sono sinonimi). Esaminiamo i significati possibili di “casuale”, nell’uso corrente per indicarne infine il concetto proprio.

1) “Casuale” può significare: “non intenzionale”. Così, si dice che l’offendere

qualcuno è stato casuale-accidentale, cioè inintenzionale. La mela cade sulla testa di Newton “casualmente”, cioè non intenzionalmente (fortuitamente).

2) “Casuale” può significare: “ciò che non avrebbe alcuna funzione”, qualcosa che

non avrebbe ratio sufficiens, come si potrebbe ritenere il disegno delle ali di una farfalla o la lunghezza dello stelo di un fiore, al punto da ritenere tali fattori fungibili.

3) “Casuale” può significare: “ciò che devia dalla abituale regolarità”. Se nasce un leone senza criniera, diciamo che è stato il “caso” (l’”accidentalità”) a determinare tale deviazione dalla regolarità[14] , tale da non consentirci prevedibilità; sicché l’accadere o no del fenomeno resta per noi equiprobabile con le restanti possibilità.

4) Il significato fondamentale e proprio di “caso” è il seguente: ”ciò che non è prevedibile”; ossia: casuale è ciò di cui non è possibile una completa ricognizione causale (anche per la complessità delle condizioni di contorno), sicché non ci è consentita prevedibilità; l’accadere o no del fenomeno resta per noi equiprobabile con le restanti possibilità, come nel gioco dei dadi.

E’ evidente che, in base al primo significato, tutta la natura è inintenzionale, e così casuale. Ma se per “intenzionale” si intende “intelligentemente mirato, ancorché inconscio”, allora è chiaro che la natura opera con tale intenzionalità, dal momento che sviluppa nella giraffa e non nel formichiere la stupefacente capacità di trangugiare impunemente le lunghe e acuminate spine, con le quali l’acacia tenta di difendere i propri teneri germogli. La natura lamarckianamente opera con intelligenza inconscia (che è più efficace di quella conscia, perché non soggetta a errore).

Il secondo significato di casuale, come ciò che non avrebbe alcuna funzione, è evidentemente estraneo alla natura. A noi appare casuale e inutile ciò di cui non comprendiamo la funzione, ma arriverà il momento, come fu per quel centinaio di organi rudimentali[15] elencati a fine Ottocento ( dall’anatomista tedesco R.Wiedersheim), in cui si farà chiara la loro funzione. Come altrettanto si spera che accada alla pop-science, che dice di aver scoperto nel genoma umano un 8% di “geni spazzatura”, “geni che non servono a niente” (l’evoluzione li avrebbe messi da parte).

Anche il terzo significato non è attribuibile alla natura. Se nasce un leone albino ci sono ragioni precise genetiche e/o ambientali del fenomeno. Si dice che “è il caso a farlo nascere bianco”, ma in realtà si intende che “è una serie di cause che ci sfuggono a determinare l’albinismo”. Ecco allora che siamo al significato vero e proprio di “caso”, quale il punto “4” indica. Ed è allora chiaro che non esiste in natura.

L’equiprobabilità, con cui, diciamo, può uscire la faccia 3 o la faccia 6 del dado che lanciamo, sta solo a indicare la nostra ignoranza e la nostra incapacità a ponderare la serie di cause e concause che determinano l’uscita del 3 anziché quella del 6. Ma, in natura, tale equipollenza causale non esiste, altrimenti i fenomeni non accadrebbero; tant’è che esce il 3, anziché il 6, perché il primo ha maggiore determinazione causale (e concausale, vista la complessità delle condizioni di contorno). L’hazard (caso) in natura non esiste; essa non opera a casaccio come prospettato da darwinismo e neodarwinismo. Due gocce d’acqua sono identiche per noi uomini, ma in natura non sono affatto identiche, altrimenti sarebbero una (omne ens habet rationem)[16]. Giustamente perciò, un’intelligenza chiara e rigorosa come quella di Kant scriveva che l’idea che non esiste il caso in natura (casus non datur in mundo) è una legge a priori della natura[17].Se poi c’è qualcuno[18] che ritiene che il caso esista in natura (e diverrebbe così il caos), beh, non è detto che si debba discutere con tutti[19], specie con chi afferma nei fatti quel che nega a parole.

VII. IL FENOMENO ANOMICO NELLA TEORIA DELLE VARIAZIONI CASUALI. Affermare che in natura esisterebbe il caos è la pretesa di dare valore ontologico alla casualità (tichismo). Perché la tecnocrazia e i suoi (spesso ignari) collaboratori hanno bisogno di convincere il pubblico che la natura sia caotica? Perché così si ammette l’esistenza di un campo dell’anomico (=ciò che non sarebbe regolato da sicure leggi, ovvero: che devia dalla abituale regolarità), nel quale la manipolazione tecnica può fare ciò che vuole, senza che si possa parlare di violazione di un ordine, senza che si possa invitare a lasciare i fenomeni a se stessi, in quanto dotati di un proprio corso naturale. Solo rivendicando l’esistenza di fenomeni anomici si legittima l’interventismo totale in natura.

E’ chiaro come il darwinismo sia la prima e fondamentale teoria scientifica che serve alla tecnocrazia. Perché? Perché là dove si sostiene il principio della variazione casuale si ammette un campo della fenomenicità anomica, e quindi un campo aperto alla manipolazione tecnologica. Perché la tecnocrazia propaganda Darwin e non Lamarck? Perché quest’ultimo non ammette spreco né casualità nella natura, allorché afferma che essa agisce con intelligenza ed economia nel far sì che la giraffa sviluppi solo ciò che le serve effettivamente in quel momento, per giungere a cogliere le alte foglie d’acacia. Nell’idea di Lamarck non può accadere che la giraffa sviluppi, invece del collo, una lunga e pesante coda, del tutto a casaccio con fare sprecone, per poi scoprire che è controproduttiva quando i leoni la raggiungessero prima! Nell’idea di Lamarck la natura non produce variazioni casuali, non pastrocchia e non spreca, non procede per azzecchi e garbugli, non fa quella specie di bricolage, che i darwinisti le attribuiscono: “da una vecchia ruota di bicicletta costruisce una carrucola, da una seggiola rotta ottiene la scatola per la radio. Allo stesso modo, l’evoluzione costruisce un’ala da una zampa, o un pezzo d’orecchio con un frammento di mascella. Naturalmente ci vuole tempo” (questa sarebbe La logica del vivente,1970, F. Jacob). Probabilmente nemmeno Darwin avrebbe sottoscritto questo frammento di pop-science, visto che nell’ultima fase del suo pensiero si è avvicinato a Lamarck, nel ritenere che possa essere la funzione a sviluppare l’organo, cosa che esclude l’operare a casaccio e il miserando bricoler[20].

Per Lamarck, insomma, la natura opera con inconsapevole intelligenza e va lasciata a se stessa, perché sa trovare il meglio in ogni circostanza. Egli afferma tutto il contrario di quello che la tecnocrazia ha bisogno di far credere. Perciò bisogna propagandare il Darwin del principio delle variazioni casuali; solo questo riuscirà a far apparire i progetti biotecnologici di laboratorio come preferibili a quelli naturali, in quanto i primi risponderebbero ad un progetto intelligente e finalizzato che evita sprechi, mentre l’altro, quello naturale, produrrebbe (con fare simile ad un orologiaio cieco[21]) tante e tali variazioni casuali non adatte allo scopo, che ci vorrebbe molto più tempo (senza dire lo spreco). In sostanza, solo propagandando Darwin e non Lamarck[22] si potrà far passare un prodotto agricolo geneticamente modificato come migliore di uno naturale (quello naturale potendo contenere tali e tante variazioni casuali che potrebbero essere nocive alla salute; mentre il prodotto biotech conterrebbe solo l’aspetto migliorativo che l’ingegnere avrebbe voluto dargli). Bisogna che il pubblico smetta di pensare che la natura, in ogni momento e situazione, faccia sempre la scelta migliore tra le possibili, perché questa idea delegittima le manipolazioni tecnologiche.

VII.1. ESCLUSIONE DELL’INDAGINE EZIOLOGICA. E’ ovvio che la teoria delle variazioni casuali è infondata, smentita proprio dalla struttura fortemente conservativa e difensiva del DNA. Tuttavia, anche se false, (in questa sorta di borsa mercato dei titoli scientifici) le azioni delle variazioni casuali vanno sostenute e acquistate, vediamo ancora perché.

A) Come si è detto, ciò che si dichiara prodotto casualmente è ciò che appare anomico e come tale manipolabile di diritto. Ma, attenzione, qualcosa appare anomico (variazione casuale) solo se deliberatamente e metodicamente si rinuncia all’indagine eziologica (=si rinuncia a indagare la causa per cui il fenomeno si è prodotto). Perché è ovvio che, se si ricercassero accuratamente le cause, si scoprirebbe che tal fenomeno ha le sue piene ragioni per essere così e non diversamente. A meno che non si voglia sostenere che un bambino nasce focomelico senza una ragione (causa). Quindi, quando si dice che un fenomeno è accaduto casualmente (variazione casuale), si sta compiendo una deliberata e metodica rinuncia all’indagine eziologica.

B) La teoria delle variazioni casuali, proprio perché significa ipso facto esclusione dell’indagine eziologica, è di fondamentale importanza per la tecnocrazia, perché? Prendiamo esempi dal campo medico e ambientale e consideriamo il parkinson, l’alzheimer e il cancro come fenomeni anomici, cioè come risultato di variazioni casuali. L’unico approccio che, a questo punto, apparirà legittimo sarà quello tecnologico, ossia quello chirurgico-farmacologico, che vuol cancellare la malattia dopo che essa si è affermata, e interpreta la terapia come una vera e propria guerra contro un nemico. Essendo queste tre malattie interpretate come variazioni casuali, come tali significanti la deliberata e metodica esclusione dell’indagine eziologica, contro di esse è necessario tutto l’apparato tecnologico e finanziario, per un tempo indefinito, perché non essendo stata individuata e rimossa la causa, gli effetti sono destinate a durare indefinitivamente.

Rendere diffusa e accettabile l’idea che possano darsi variazioni casuali serve a non far apparire assurdi interventi tecnologici volti a sanare una situazione senza aver rimosso la causa. Il curare il cancro a un individuo, che coltivi un hobby in cui si faccia uso di molta formaldeide, senza premurarsi di individuare la causa ed eventualmente rimuoverla, è come minimo privo di senso, o se si vuole palliativo, se palliativo può dirsi il sommarsi del danno della malattia con quello, non piccolo e non sempre minore, di chirurgia, chemioterapia e radioterapia. Questo non vuol dire che non esistano medici coscienziosi che facciano tale ricognizione; solo che nei cosiddetti “protocolli” terapeutici, stabiliti dalla “Comunità Scientifica Internazionale” e imposti ai/dai Servizi Sanitari Nazionali, non è prevista l’indagine eziologica volta a rimuovere la causa. E questo perché il presupposto epistemologico (meglio sarebbe dire ideologico-pragmatico) che ispira la Comunità Scientifica Internazionale è appunto il fenomeno anomico, la variazione casuale, come tale esente da ricognizione eziologica, e quindi come tale oggetto di soli interventi tecnologico-terapeutici, mai definitivi, tali da condurre alla medicalizzazione del paziente per il resto della vita. Perché? Perché è evidente: finché la causa non è rimossa gli effetti permangono. Ma proprio questo consente la medicalizzazione permanente e l’indebitamento delle genti. Ecco perché le variazioni casuali sono “lo scientificamente corretto”.

C) La presunta anomicità del fenomeno, il suo indeterministico isolamento da ciò che lo produce, anche consente di occultare opportunamente i dissesti, sull’ambiente e sulla salute, dell’impatto tecno-economico. Questa assunzione del fenomeno nella sua presunta anomicità è quasi una costante della medicina tecnocratica, che sempre più spesso vi si riferisce con la supposta “sindrome”: una sintomatologia unitaria e costante, descrivibile senza riferirla a una causa. E così viene indicata come SIDS (Sudden Infant Death Syndrome) la morte in culla del neonato, intorno al terzo mese, quando si impone il primo ciclo di vaccinazioni. Per quanti sforzi abbiano fatto le commissioni mediche del Servizio Sanitario Nazionale nel negare sistematicamente un rapporto tra vaccinazioni e fenomeni come autismo, dislessia, diabete o polio e anche morte, alla fine, le associazioni di genitori, raccolte evidenze scientifiche e statistiche, sono riuscite a ottenere una legge dello Stato,[23] che risarcisce i danneggiati da vaccino. Ed è merito di queste associazioni e non della “Comunità Scientifica Internazionale”, se si sta arrivando (oltre ai risarcimenti) all’utilizzo di vaccini che non contengano metalli pesanti pericolosi come mercurio (thimerosal) e alluminio.

Che cosa è accaduto? Per ciò che riguarda la SIDS, l’impostazione ufficiale, conformemente all’assunzione anomica del fenomeno, nega un rapporto causale tra patologia e grave alterazione del terreno (=con quest’espressione si intende l’organismo nel suo stato di equilibrio dinamico, che, quando non è gravemente alterato e compromesso, dispone di sorprendenti capacità di autoguarigione), dovuta all’azione dei metalli pesanti e/o all’azione dei materiali genetici ricombinanti, o al virus stesso, ancorché attenuato.

VII.2. NEGAZIONE DELLA VIS MEDICATRIX NATURAE. Presumere l’anomicità del fenomeno consente di aprire lo spazio della manipolazione tecnologica, consente di occultare i dissesti dell’azione tecnologica e insieme, altro aspetto fondamentale, consente di occultare il luogo dove si insedia la vera scienza della natura, elemento che abbiamo indicato per ora col termine “terreno”. Prendiamo un esempio dalla zootecnia. Il fenomeno della Bse (encefalopatia bovina spongiforme), nota come sindrome della “mucca pazza”, viene affrontata dallo “scientificamente corretto” secondo la classica impostazione della germ theory (ci si consenta di mantenere l’espressione inglese per indicare un’impostazione che riconduce a batteri o virus la causa della patologia). E’ evidente a chiunque abbia un po’ di buon senso che la patologia aveva come sua causa determinante una grave alterazione del terreno, dovuta alla pretesa di nutrire i bovini con farine animali (forse “per sopperire al loro bisogno di proteine” ed evidentemente correggere un darwiniano errore della natura, che non ha dotato questi animali dei necessari canini). Senonché, l’approccio scientifico-tecnocratico non intende mutare le condizioni alimentari e di allevamento delle mucche, ma cerca di intervenire su quella che è una delle conseguenze della condizione degenerativa[24] complessiva, ossia la presenza –ammesso che davvero vi sia- del prione. Quest’ultimo, fatto passare per causa prossima della “sindrome”, consente di trattare anomicamente il fenomeno, ossia astrattamente dalla sua vera causa, con tecnologie che devono colpire il nuovo “nemico”.

Questo approccio, che anomizza il fenomeno con la germ theory del prione, nasconde il vero approccio scientifico, che consiste nell’intervento riequilibratore del terreno, dopo aver studiato e colto le leggi che ne regolano la dinamica (ma allora si vedrebbe la zootecnia operare in continuità con le tradizioni dell’allevamento rurale locale, secondo la specificità delle varie razze, e non più contro i loro metodi e principi).Lì il prione, qui il retrovirus, come per l’aids, va cercando lo scientificamente corretto e si guarda bene dal dare rilevanza al terreno[25]. La (improbabile) soluzione deve consistere in qualche costoso vaccino, nella cui presunta efficacia ed innocuità la gente è talmente riversata a credere, al punto che v’è chi ne approfitta, promettendo un vaccino contro lo shopping compulsivo, o, addirittura, contro la morte (vedi infra).

Si continua a occultare quello che Béchamp, contro Pasteur, voleva restasse prioritario e manifesto (ciò che avrebbe salvato la medicina dalla sua riduzione a sola medicina di pronto intervento). Béchamp sosteneva che l’essenza della patologia consiste nella alterazione del “terreno” e che quindi l’essenza della medicina consiste nel mettere in atto tutte quelle strategie che favoriscano il riequilibrio del terreno, per far operare la vis medicatrix naturae, il vero potere risanante[26]. Il medico è solo coadiutore del processo di risanamento e l’eccessivo proliferare di colonie di virus e batteri è ritenuto effetto della malattia e non sua causa[27]. Se dovesse imboccare questa via la medicina tecnocratica cesserebbe di essere espressione di un potere economico-finanziario che nella devastazione ambientale trova uno dei suoi punti qualificanti e che può continuare in questa devastazione proprio perché essa, con la germ theory, occulta il legame tra ambiente e malattia, tra squilibrio del terreno e malattia; e anziché promuovere il ristabilimento dell’ambiente, propone antibiotici e vaccini per combattere virus e batteri, come se fossero questi la causa.

Nell’impostazione di Béchamp, è assurdo un protocollo di “cura” del cancro a base di cocktail di veleni che devastino il terreno, come se il cancro fosse un nemico esterno e intruso, anziché l’espressione di un grave squilibrio dell’organismo, che ha condotto alla degenerazione genetica e cellulare. Il cancro, come i virus e i batteri, è espressione della malattia, sua conseguenza, non la causa.

La germ theory, il cancro visto come nemico esterno (quando non si tenti di fare di questo il risultato di azione batterico-virale, come è stato nel caso dell’helicobacter pylori), il prione e i retrovirus, il nino, nel caso dei fenomeni ambientali, visto come prodotto di una natura darwinianamente capricciosa; sono queste altrettante strategie per far valere l’anomicità (presunta) del fenomeno, rescindendone il legame col suo vero sostrato causale e legittimando così ogni sorta di aggressione e/o manipolazione dell’ambiente e della salute (umana e animale), facendo apparire tutto come risultato di una variazione casuale, improvvisa quanto minacciosa, di fronte alla quale solo una provvidenziale e messianica tecnologia (coi suoi aspetti inesorabilmente indebitanti) potrà salvarci!

VII.3. INDETERMINISMO E TECNICA. E’ ora chiaro perché le punte teoriche della tecnocrazia manipolatoria insistono tanto sull’indeterminismo? Perché consente loro di dare legittimità teorica al fenomeno anomico, alle variazioni casuali. Non potendosi dare certezza del nesso causale, si è disincentivati da indagini eziologiche, che condurrebbero a intervenire modificando il terreno. Fin dove è riconosciuto il nesso eziologico, si opera come nelle società tradizionali: se la causa del moltiplicarsi delle lumache su un dato terreno è la sua eccessiva acidità, si correggerà il ph, una volta per tutte, cospargendolo con della cenere; visto invece indeterministicamente, come fenomeno anomico, l’invasione di lumache viene trattata chimicamente, ogni anno, con certi costi Il fenomeno dell’abnorme moltiplicarsi di mosche e zanzare, in estate, non è ricondotto alla sua causa prossima, cioè alla riduzione fin quasi a scomparsa di rondini e pipistrelli; il fenomeno è invece visto in maniera anomica e indeterministica (una variazione casuale) e trattato con irrorazione chimica (non certo favorendo il riequilibrio faunistico). Con la conseguenza, non solo di un aumento della spesa pubblica, ma anche delle malattie degenerative legate alla polluzione chimica.

Il sistematico occultamento del legame eziologico tra i fenomeni, a favore di una visione indeterministica e anomica, è attuato dallo “scientificamente corretto” anche quando un determinato risultato la natura lo darebbe da sé. Tra partoriente e neonato c’è una simbiosi che prolunga quella intrauterina. Se immediatamente dopo la nascita il neonato è attaccato al seno della madre accade (lamarckianamente) che ciascuno ne ottenga quello di cui ha bisogno in quel momento: alla madre la suzione del seno provoca l’avvio della ricontrazione dell’utero, mentre il neonato, suggendo quel colostro giallo, altamente energetico (che precede nella madre la calata lattea), riceve un potente contributo alla costituzione del sistema immunitario, un ricostituente dopo la sforzo della nascita e, per l’immediato, anche un purgativo, che lo libera del nero meconio che gli occupa da mesi l’intestino. Tutto questo esprime una simbiosi e simmetrie che dire “meravigliose” è poco e che smentisce palesemente quanti insinuano una spontanea tendenza della natura verso il disordine. Tuttavia nella pratica ostetrica comune, la medicina tecnocratica impone il farmaco che fa contrarre l’utero, mentre al neonato, al posto del colostro, tocca acqua e zucchero come primo rifocillamento, e molto probabilmente queste meraviglie della natura non vengono più illustrate nei corsi di medicina, allo stesso modo che nelle scuole inferiori non si nominano più le meraviglie della fotosintesi clorofilliana. Infatti, la fiducia (lamarckiana) nell’operare della natura è inversamente proporzionale alla fiducia che si può riporre nell’intervento tecnico. Se, invece, alla visione di Lamarck si sostituisce quella di Darwin, allora apparirà certo giustificato somministrare il farmaco per far ritrarre l’utero, infatti la natura sbadata e capricciosa, producendo variazioni casuali, avrebbe quel giorno potuto far sì che alla suzione del pargolo, a ritrarsi possa esser stata una gamba, anziché l’utero….

VII.4. GUARIGIONE DALLA MORTE E MUTAZIONISMO. La crisi del darwinismo, dovuta alla mancanza di ritrovamenti fossili[28] e alla scoperta delle leggi della genetica, non ha significato la sua morte, ma la sua rinascita come neo-darwinismo, sancita da una riunione della Società Geologica Americana del 1941[29].Dall’assise ne uscì una riformulazione delle “variazioni casuali” come “mutazioni casuali”; ossia, ciò il cui avvento Darwin non aveva saputo spiegare[30] (variazione casuale), alla luce delle scoperte della genetica, veniva interpretato come “mutazione casuale” dei geni, tra le quali, anche qui, ve ne dovrebbero essere di vantaggiose per l’evoluzione delle specie. E’ questa la Teoria della evoluzione sintetica[31] (Evolutionary Synthesis, secondo l’espressione coniata da J. Huxley nel 1942) . Dopo questo via a “rinnovate politiche scientifiche”(che ancora nel 1980, per iniziativa di E.Mayr, sono alla base di una ipotizzata biologia unificata) , mancava solo che bravi scienziati “scoprissero” effettivamente questi geni regolatori delle mutazioni…Non è difficile indovinare come andò a finire.

Uno dei collaboratori più in vista della medicina tecnocratica, come L. Montagner[32], dopo aver annunciato, con enfasi messianica, che entro breve potrà essere preparato un vaccino contro la morte – nientemeno–, sponsorizza la generazione controllata dai laboratori di genetica, utilizzando uno degli argomenti più ripetuti del dogma evoluzionista: nella generazione sessuata naturale il neonato riceverebbe (subirebbe) quella serie di modifiche genetiche casuali ed erronee che sarebbero alla base del suo ammalarsi e del vivere limitatamente agli 80 anni. Se invece l’umanità rinunciasse alla generazione sessuata e si affidasse ai laboratori di biotecnologie potrebbe evitare le malattie e potrebbe fruire pienamente dei centoventi anni di vita che gli toccherebbero, secondo la prospettiva biblica. Per la pop-science la morte e la malattia sono un errore della natura che la tecnica – con lo studio dei retrovirus e opportuni vaccini– arriverà a correggere, sempreché l’umanità attuale rinunci alla generazione sessuata e si affidi ai laboratori di genetica.

Cosa c’è dietro a tutto questo? C’è il tentativo di porre sullo stesso piano (con la nozione di “mutazioni casuali”) le variazioni casuali limitate (colore degli occhi e dei capelli) con le variazioni casuali illimitate (un neonato col cancro o focomelico). E’ chiaro che le variazioni casuali limitate sono quelle derivanti dall’interno stesso del DNA (o da un’influenza non nociva dell’ambiente), mentre quelle illimitate, quali le gravi patologie sopra indicate, derivano dall’esterno, ossia da un potente fattore in grado di guastare la corretta trasmissione del messaggio informativo (come possono fare farmaci, radioattività, polluzione chimica). La “mutazione” consiste nel passaggio di un gene da uno stato all’altro (allele) per variazione della struttura chimica, che conduce a una nuova sintesi proteica. Queste mutazioni, che sfuggono agli apparati enzimatici correttivi del genoma, si producono con una frequenza di 1 a 100.000 oppure 1 a 1.000.000. In tale visione dissolutiva e sinistra, si pretende che il mutante possa essere tappa evolutiva per la specie, non ostante che 80 anni di mutazioni indotte sulla Drosophila (a cominciare dal 1927 con H.J.Mueller che usava i raggi x ,per proseguire con l’iprite usata da Auerbach dal 1942, fino ad oggi), non abbiano visto nascere alcuna forma nuova, né più evoluta, ma solo mostri con zampe al posto delle antenne (mutazione omeotica “antennapedia”) e altre amenità del genere; osceno diletto di una scienza fattasi teratofila, che vuol far credere che alla normalità sia preferibile la mostruosità, fatta passare per “hopeful”.

Che cosa implica il tentativo di mettere sullo stesso piano (con la nozione di “mutazioni”) le variazioni limitate provenienti dall’interno (e compatibili con la buona salute e la normalità) con le variazioni illimitate provenienti dall’esterno (che provocano patologia e deformità), come è nella prospettiva del neodarwinismo mutazionista[33]? Tale identificazione consente di attribuire le variazioni illimitate e relative patologie allo stesso DNA (=alla stessa natura), col risultato: 1) di assolvere quelle politiche economiche e militari che non hanno alcuna intenzione di porre un freno alla devastazione ambientale; 2) di attribuire allo stesso DNA (=alla stessa natura) quelle gravi patologie e deformità, in modo da avere un valido pretesto per mettere le mani sul genoma umano, facendo credere che ciò serva a correggere i geni “sbagliati”, che provocherebbero la malattia. Al fine della buona salute la gente è disposta ad accettare interferenze sul proprio codice genetico e su quello dei propri figli, senza badare troppo se tali interventi non siano destinati a portare in ben altre direzioni, rispetto a quelle pubblicizzate. 3) La generazione sessuata effettivamente favorisce un’ampia variabilità genetica (limitata), che va dalla statura, al timbro di voce, alla consistenza delle unghie; ma la scienza tecnocratica vorrebbe far rientrare sotto questa rubrica anche le variazioni dovute a guasti pesanti del DNA (=variazioni illimitate=mutazioni, come malattie gravi e deformità), in modo da poter chiedere al disorientato uomo contemporaneo (ma se possibile cercando di ottener questo anche per la fauna selvatica) di rinunciare alla generazione sessuata, per affidarsi ai laboratori di genetica che – assicurano – faranno nascere bambini esenti da difetti genetici.

Cosa c’è dietro la battaglia sulle variazioni casuali illimitate (mutazioni)? Si decide il destino genetico dell’umanità, di cui una cupola di tecnocrati vuol stabilire le sorti, i caratteri e le attitudini[34]. E tutto questo, sul piano ideologico-teorico si gioca attorno alla nozione di “caos” implicata tanto dall’evoluzionismo, quanto dal principio entropia.

E’ dunque chiaro perché, tanto per restare in campo medico, l’oncologia ha preso la via “molecolare” (la post-genomica), quella che dovrebbe individuare i presunti “geni difettosi”, base molecolare del formarsi dei tumori? Vengono chiesti soldi per finanziare questa ricerca, che dà per scontata l’idea che sarebbe lo stesso DNA ad essere suicida, tale cioè da tirar fuori da sé le mutazioni casuali, che producono malattia e deformità. E la gente paga per vedersi espropriata di un codice genetico a cui lo “scientificamente corretto” ha attribuito la responsabilità della malattia, assolvendo nello stesso tempo le politiche devastatrici dell’ambiente[35]. Detto ancora in altri termini: tentare di porre sullo stesso piano le variazioni casuali limitate con le variazioni casuali illimitate (identificazione che si compie nella nozione di “mutazione casuale”) è tentativo di equiparare e/o confondere la potenzialità passiva con la potenzialità attiva, ossia tentare di porre sullo stesso piano la pietra e il vivente. Così come, in forza della potenzialità passiva, una pietra però assumere molte forme utili a chi la lavora (vaso, mattonella, sedile), altrettanto si pretende di ridurre il vivente alla potenzialità passiva, facendogli subire variazioni illimitate e perciò improprie, in quanto difformi dalla sua finalità intrinseca, quella stabilita nel proprio DNA. Rispettare il vivente nella sua potenzialità attiva, significa riconoscergli intrinseche solo le variazioni limitate. Volergli attribuire anche le illimitate è una strategia ideologico-politica volta a far apparire legittime le manipolazioni genetiche.

Senonché –c’era da aspettarselo–, recentemente[36], scienziati accreditati presso la macchina mediatica annunciano di aver scoperto i “geni controllori” o “geni architetto”, che a partire dallo stesso DNA determinerebbero quei salti evolutivi (attraverso le cosiddette “mutazioni sistemiche” od “omeotiche”) che d’improvviso farebbero comparire nuove specie, come per la teoria degli “equilibri punteggiati”. In sostanza si “starebbe scoprendo” oggi quanto prospettato ieri da R. Goldschmidt con gli hopeful monsters; e cioè –ancora– le mostruosità (l’abnorme, il mutante) non sarebbe risultato di un guasto del DNA, ma una sua intrinseca e normale espressione (come lo sono le variazioni casuali limitate), del tutto vantaggiosa per la specie, al punto che se ne produrrebbero delle nuove. Questi “scienziati”, annunciando “di essere sul punto di scoprire” i geni architetto protagonisti delle “mutazioni sistemiche”, stanno cercando di dar a credere che la devianza, la malattia rientrino nel “pool genetico” (“genico” quando riferito all’intera specie), cioè nel normale progetto di vita del vivente, che sarebbe dunque originariamente progetto di morte e malattia. Per chi non avesse ancora capito essi stanno tentando di convincere che la vita preveda dentro il proprio normale progetto la devianza e il suicidio. A questo punto la medicina si potrà e dovrà impostare esclusivamente come manipolazione del genoma, senza che abbia alcuna rilevanza l’equilibrio del terreno, perché tutto proverrebbe dall’interno, dallo stesso DNA[37]. (E a questo punto anche i “sani” andranno medicalizzati, perché secondo la medicina genomica essi non sono che unpatiens, ossia: ”soggetti non ancora ammalati, ma sul punto di esserlo”! Creando uno stato psicologico di radicale precarietà, la medicina tecnocratica si riveste di un ruolo salvifico e si assicura un enorme potere politico ed economico).

Quella che sembrava scienza, al suo fondo si rivela politica, portatrice di un subdolo quanto radicale progetto nichilista, volto ad attribuire alla vita la vocazione intrinseca alla devianza, al suicidio e al nulla.

VII.5. RECUPERARE DARWIN NEL NEODARWINISMO. Darwin (anche nel recupero neodarwinista) serve perché sostiene l’unità della specie umana (né più né meno di quanto vanno sostenendo i genetisti scientificamente corretti, tipo L .L. Cavalli Sforza), destinata a far apparire le differenze tra le razze come “pregiudiziale” o sostanzialmente estrinseca, dovuta a qualche fattore ambientale. Ciò consente di dare legittimità ‘scientifica’ al melting pot, quel modello sociale multietnico che la tecnocrazia persegue, favorendo i processi migratori, adozioni internazionali, gemellaggi e quant’altro.

Darwin serve, perché, ponendo continuità genetica tra uomo e animale, favorisce la cancellazione della differenza ontologica tra i due e pone la premessa per la riduzione naturalistica degli elementi morali, logici e spirituali. Essi vengono interpretati non come espressioni della vita dello spirito (nozione quest’ultima da bandire), bensì come risultato di processi di selezione naturale, nel corso dell’evoluzione (al pari di una pelliccia più folta o di un naso più lungo). Questo non solo consente di abolire la nozione (cristiana e umanista) di dignità dell’uomo, legata alla differenza ontologica tra questi e l’animale, ma anche di legittimare l’avvento delle correnti utilitariste e pragmatiste, per le quali la ricerca della verità non avrebbe senso, se non come ricerca dell’utile e del dilettevole. Dichiarare sensata e plausibile la rinuncia alla verità è ultimo atto di eutanasia spirituale dell’uomo, e quindi, nichilismo antropologico.

Darwin serve, perché la sua posizione monofiletica[38] (=tutte le specie sarebbero variazioni di una sola forma di vita fondamentale; concezione mantenuta nel neodarwinismo, pur non essendo dimostrata) consente di far apparire come legittimo il lavoro dei genetisti odierni, che incrociano capre e ragni. Se le specie derivano per evoluzione l’una dall’altra, incrociare tra loro anche le più lontane non violerebbe alcuna legge di natura, perché le differenze sarebbero non sostanziali[39]. Ciò consente che non appaia folle il voler impiantare (ancorché modificati) organi di maiale su un essere umano. Ideologicamente appare plausibilissimo; unico inconveniente è l’incoercibile fenomeno di rigetto, così come l’ostinato rifiuto della natura di consentire l’interfecondabilità delle specie. Questi fatti macroscopici, che dicono –anzi gridano- la irriducibilità e incompatibilità delle specie tra loro, non scalfiscono minimamente, la teoria convenzionalista e pragmatista; né la pericolosa pratica che vi si ispira. Essi non desistono dal violentare una natura che, opponendosi agli incroci di scorpioni e riso, opponendosi a mescolanze di organi e tessuti animali con quelli umani, pare non voler sentire la lezione darwiniana.

Darwin serve, perché facendo dipendere in toto il fenotipo dal genotipo (e cioè: totale dipendenza della condizione individuale dal patrimonio genetico) consente di far passare in secondo piano i fattori ambientali, soprattutto per ciò che riguarda le questioni mediche, dove si continua a mascherare o sminuire il rapporto tra ambiente e malattia (consentendo così di assolvere certe politiche economiche, militari e il ruolo della chimica).

Darwin serve, perché introduce una visione probabilistica della natura. L’accadere e lo svilupparsi della vita a partire da variazioni casuali è un questione di probabilità che aumentano col tempo; ciò legittima quelle metodologie di calcolo statistiche proprie di una visione indeterministica ed epicurea della natura (come vedremo più avanti, analizzando l’atomismo einsteiniano e i principi della fisica dei sistemi non lineari, che porteranno a compimento la mistificazione stocastica della natura).

Darwin serve, perché importa in biologia e universalizza i temi del liberismo maltusiano (accuratamente ripresi nel neodarwinismo, col principio secondo il quale nascerebbero molti più individui di quanti ne possano sopravvivere). Mentre T. Moro aveva coraggiosamente denunciato come la povertà in Inghilterra, agli inizi del sec. XVI, fosse causata da precise scelte politiche, favorevoli alla borghesia finanziaria, che avviava una politica di enclosures nelle campagne, riducendo alla fame quelli che fruivano delle terre comuni (tempo in cui, diceva, le pecore hanno iniziato a mangiare gli uomini); R. Malthus, al contrario, a fine sec. XVIII, dirà che la causa della povertà è nei poveri stessi, e che per eliminare la povertà bisognava favorire la sparizione di quelli che ne sarebbero stata la causa, i poveri ! Perciò proponeva di abolire la poor law, l’equivalente, allora, del nostro stato sociale. Oggi, propagandando e facendo passar per scientifiche le teorizzazioni di Malthus e Darwin (quest’ultimo[40], leggendo Malthus, “intuì” che la lotta per la sopravvivenza poteva essere fonte di selezione), si può sostenere che la povertà non è affatto risultato delle politiche di rapina di alcuni a danno dei molti; questi ultimi, in tali prospettive, invece dello stato sociale, avrebbero semmai darwinianamente il diritto a essere “selezionati” (nel senso di “eliminati”) come i meno adatti.

Tutto questo doveva essere mantenuto come neodarwinismo[41], centrato su maggiore gradualità dell’evoluzione (vista come fenomeno di popolazione) e selezione naturale (si rigetta l’idea di ereditarietà dei caratteri acquisiti e resta ferma la rigida dipendenza del fenotipo dal genotipo, ossia: un organismo resta impenetrabile all’influenza ambientale nella sua formazione e tutto deve all’informazione genetica).

VIII. IL FENOMENO ANOMICO NEL PRINCIPIO ENTROPIA. Imporre una visione della natura conforme al II principio della termodinamica garantisce altrettanto –anzi ancor più– che la tecnologia appaia con valenze messianiche. Far credere che l’universo tenda al collasso termodinamico e che ogni sistema particolare, all’interno di tale universo, tenda a sua volta, inesorabilmente e irreversibilmente, verso la degradazione, dell’energia innanzitutto, ma anche dei caratteri morfologici, fa apparire l’intervento tecnologico come necessario al rallentamento dei fenomeni entropici, necessario alla conservazione della vita, degli habitat, contro la minaccia del caos, che qui insidierebbe la natura a parte post. E questo vien detto, spesso, da autori di sincero credo ambientalista; credo che è però modulato sul modello termodinamico, sì che quei ferventi difensori della natura si trovano, in modo del tutto inintenzionale, a difendere il tecnocratismo come unica via che rimarrebbe per difendere quanto resta della natura. Un tale clima psicologico e sociale catastrofista legittima così ogni intervento tecnologico sull’ambiente, che apparentemente fa qualcosa per fermare la catastrofe, ma che immancabilmente torna a fare dell’ambiente una “risorsa”; ossia, le sue innumerevoli potenzialità, dall’acqua alla varietà genetica, devono potersi tradurre in profitto economico. Il catastrofismo ambientalista ispirato alla termodinamica istiga a interventi sulla natura ancora più devastanti di quelli (industriali, chimici, militari, ecc) dei quali crede e fa credere di essere rimedio.

VIII.1. IL “NUOVO” IN NATURA. Per legittimare ogni sorta di intervento tecnologico sulla natura bisogna prospettare un modello di natura che sopporti l’arbitrarietà dell’azione umana, anzi, bisogna far apparire che addirittura se ne giovi, quasi fosse un benefico clinamen. Per cosa? Ma è ovvio: per il solito cammino evolutivo. Bisogna perciò che la novità, il nuovo in natura sia presentato in un certo modo, che vedremo esser quello atomista epicureo.

Il nuovo in natura e nella scienza può essere pensato fondamentalmente in tre modi.

1. Il modello wolffiano (già stoico nelle sue linee fondamentali) della Vernunftlehre, in base alla perfetta sovrapposizione di continuità della natura e razionalità umana riteneva che lo sviluppo logico delle premesse ricalcasse perfettamente la razionale continuità della natura. Questo era sintetizzato nel noto adagio del Maestro, secondo il quale ad ogni prova empirica ne deve corrispondere una razionale (se non si vuol cadere nella doppia verità).Tutto questo nel Settecento ha animato la speranza di una imminente scienza adeguata ed esaustiva della natura, da realizzarsi come Vernunftlehre des Wahrscheinliches; ciò che si tentava di realizzare mediante un algebrico calcolo delle probabilità.

2. Abbiamo la posizione di Hume e di Kant, che criticano il razionalismo mostrando che l’esistenza non è predicato e che quindi la conoscenza sensibile ci pone di fronte a un nuovo che non può esser dedotto dalla logica[42]. Tra essenza ed esistenza si colloca così uno hiatus che però riguarda (sicuramente per Kant) solo l’ordine conoscitivo, non la natura in se stessa, che resta rigorosamente continua. In questo secondo punto vogliamo includere anche Leibniz, il quale, per quanto, da buon razionalista, abbia intellettualizzato la sensibilità (come dice Kant), ha tuttavia rigorosamente tenuto distinte le verità di ragione dalle verità di fatto, riconoscendo che queste ultime, riguardanti l’esperienza, ci pongono di fronte al nuovo (all’elemento sintetico della conoscenza, per dirla con Kant), senza che –almeno per noi uomini- si possa pretendere una deduzione delle verità di fatto dalle verità di ragione (cosa invece possibile dal punto di vista divino, come tale avente una conoscenza adeguata delle sostanze individuali)

3. V’è infine la posizione dell’epicureismo, per la quale il “nuovo” ha valore oggettivo, intrinseco, dal momento che il clinamen rompe la continuità e simmetria e produce quel “caos creativo” da cui nascerebbero i mondi. I quali ovviamente sono fenomeni strutturalmente impredicibili (tanto per gli uomini, quanto per gli dèi), essendo conseguenza di quell’impredicibile e discontinuo per definizione che è il clinamen.

Nella posizione razionalista il “nuovo” non esiste in natura e non esiste de jure nemmeno per la conoscenza umana (anche se ancora esiste di fatto). Nella posizione estremo opposta abbiamo l’epicureismo, per il quale esiste solo il nuovo, in una concezione discontinua della natura. La posizione intermedia, tenendo ferma l’intrinseca continuità della natura, separa, quanto all’umana conoscenza, essenza ed esistenza, qualità primarie e qualità secondarie, verità di ragione e verità di fatto, dimodoché il nuovo certamente esiste, ma solo per noi e non inficia la razionalità e continuità della natura.

VIII.2. L’ ATOMISMO. Il pioniere della Teoria Cinetica dei Gas fu Daniel Bernoulli[43], il quale formulò l’ipotesi che la pressione che un gas esercita sulle pareti di un contenitore sia dovuta all’energia meccanica delle particelle che si urtano. Questa considerazione apre le porte alla teoria cinetica del calore, ossia alla scoperta dell’equivalenza di calore ed energia meccanica. Ma soprattutto essa introduce l’ipotesi atomistica e procedure di calcolo probabilistiche. Che D. Bernoulli, col suo lavoro teorico- statistico, basato sull’ipotesi atomistica, ritrovasse la legge di Boyle (questa, sì, garantita sperimentalmente) fece in seguito vedere in quella atomistica ben più di un ipotesi, se era in grado di ricondurre a risultati fondati sperimentalmente.

Per fare del principio entropia la legge fondamentale della fisica e cioè la legge fondamentale della natura bisognava fondare tale principio sulla meccanica. Ma come faceva notare J. Loschmidt (1876) a L. Boltzmann (quest’ultimo, insieme a J.C. Maxwell, è il fondatore della Teoria Cinetica dei Gas), l’irreversibilità termodinamica non può essere spiegata con la meccanica, che è basata su equazioni completamente reversibili. Gli stessi fenomeni elettromagnetici non sono riconducibili a interpretazioni meccanicistiche, a meno che non si ricorra agli atomi…

L. Boltzmann[44] fu uno strenuo difensore dell’atomismo, anche se prospettato come ipotesi necessaria a supportare il teorema H (o “teorema del minimo”). Egli fu il grande oppositore dell’immaterialismo energetista di W. Ostwald al Congresso di Lubecca del 1895, in una fase in cui -paradossalmente visti gli esiti- ci si avvale ampiamente dell’irreversibilità del II principio della termodinamica per criticare il meccanicismo.

Per realizzare l’operazione (di tanta rilevanza per l’avvento tecnocratico) era necessario (anche se non ancora sufficiente) radicare la termodinamica nella meccanica; tuttavia è solo una meccanica atomista che consente di introdurre l’irreversibilità e la probabilità proprie del II principio. La teoria cinetica del calore è un prototipo già pronto di meccanica statistica (termodinamica statistica), che pensa il calore come direttamente proporzionale alla velocità quadratica media con cui le particelle-molecole si muovono. In generale, la Teoria Cinetica dei Gas riconduce le proprietà meccaniche, termiche e di diffusione dei gas a movimenti molecolari. Una mole di gas o di un liquido, essendo a livello microscopico costituita da un numero immenso di molecole-particelle, che si urtano incessantemente (ciò che fa la differenza tra un gas reale e un gas ideale), rende impossibile il calcolo della velocità istantanea di ciascuna particella; possiamo però indicare quella che è la sua velocità più probabile, che sarà una velocità vicina a quella media (Maxwell). In un gas reale, l’ipotizzata dinamica degli urti, che sta alla base della Teoria Cinetica dei Gas, consente di fondare il processo di irreversibilità della distribuzione delle velocità, descritto dal teorema H di Boltzmann: da difformità delle velocità iniziali delle particelle (o dei microsistemi dinamici), col passare del tempo, si va verso una uniformità delle velocità stesse; si va cioè ad una situazione di equilibrio non modificata dal continuare degli urti, i quali, ancorché persistenti, non riportano il sistema alle difformità iniziali. E’ solo un tale sistema, pensato come particellare-atomistico, a poter obbedire ad un andamento entropico irreversibile (e per avere una rappresentazione intuitiva dell’irreversibilità legata a un fenomeno diffusivo, si immagini una goccia di inchiostro fatta cadere in un bicchier d’acqua…)

Ma non basta ancora. Per dare piena fondazione alla irreversibilità termodinamica e statistica (coniando così quel modello di natura post-moderno, sollecitato dalla tecnocrazia), non basta introdurre gli atomi e i loro caotici urti, perché la dinamica degli urti, per quanto imprevedibile, resta deterministica. Ci vuole un fattore che rompa effettivamente la continuità; quella continuità che è il fondamento della reversibilità e quindi base della ciclicità del tempo in natura. La termodinamica statistica (quindi la meccanica statistica) è sin qui semplicemente la misura della nostra ignoranza e non riflette affatto la struttura intima e microscopica del sistema. Per il demone di Maxwell, un sistema a N particelle Avogadro (6,022×1023), con 1021 collisioni al secondo, resta pur sempre predicibile, per ogni singola particella di esso. Per dare piena fondazione del II principio sulla meccanica (cosa che, tanto per Einstein quanto per Prigogine, Boltzmann non avrebbe realizzato appieno), ci vuole un elemento che, rompendo definitivamente la continuità della natura, dia fondamento oggettivo all’irreversibilità termodinamica, dimodoché l’andamento di un sistema sia intrinsecamente imprevedibile, tanto agli umani quanto ai divini, rendendo giustificata ed intrinseca la statistica e con essa il dilagare delle trasformazioni stocastiche, delle geometrie frattali, delle matematiche dei sistemi non integrabili, delle applicazioni bernoulliane, delle applicazioni cosiddette “del fornaio”, ecc; consentendo, in una parola, il dilagare del vero caos. Dove andare a prendere questo fattore? E’ ovvio, nel clinamen epicureo: il discontinuo, l’inintegrabile, lo stastistico per eccellenza. Esso, che in biologia viaggia sotto le mentite spoglie di “variazione casuale”, oppure “mutazione casuale”, “mutazione omeotica o sistemica”, ecc., viaggia in fisica sotto i seguenti alias: “fluttuazione”, “rumore bianco”, “risonanza”, “forza casuale fluttuante esterna”o “rumore termico”.

L’introduzione del clinamen, nelle scienze della natura, inizia con Einstein, nel 1905, quando si gettano le basi della matematica dei processi (presunti) stocastici e si conclude nel 1996 con Prigogine, cioè con la proclamazione della fine delle certezze e la formulazione statistica delle leggi della natura, conseguenza della inintegrabilità dovuta alle risonanze. Alla linea Boltzmann-Einstein dobbiamo la piena introduzione dell’atomismo; alla linea Poincaré-Prigogine dobbiamo la piena introduzione del clinamen. Vediamo dunque le tappe capitali dell’irruzione del caos in natura, o, come si dice, come avviene la fondazione della termodinamica (II principio) sulla meccanica.

VIII.3. IL PERVERTIMENTO STOCASTICO DELLA NATURA. Mentre la legge delle proporzioni definite nelle composizioni volumetriche dei gas parla di rapporti semplici, tali da mostrare un intrinseco andamento ordinato e continuo dei fenomeni naturali (che insieme alla onnipresenza –come vedremo- della serie di Fibonacci prova tutto il contrario di quanto i caudatari del caos vogliono far credere), ecco che si spingono tutte queste scoperte verso la deriva del caos, a partire dalle osservazioni sul moto browniano, spiegato in termini atomistici, a partire dalla Teoria Cinetica dei Gas. In questo consiste l’importanza storica di un articolo di Einstein del 1905: “Il moto delle particelle in sospensione nei fluidi in quiete, come previsto dalla teoria cinetico-molecolare del calore”[45], uscito nello stesso anno in cui il fisico formula la teoria della relatività ristretta e spiega l’effetto fotoelettrico sempre in termini atomistici, ossia introducendo i quanti-luce o fotoni (come li chiamerà J.W.Compton, 1923).

Per Einstein il pensiero occidentale, dopo duemila anni di sonno[46] (sic!) che va da Leucippo a D. Bernoulli (1738), inizia il risveglio, che si completerebbe proprio con lui, quando l’ipotesi atomista verrebbe pienamente provata, proprio con l’articolo in questione, che avrebbe fornito “una prova tangibile della reale esistenza degli atomi” e quindi la piena fondazione della entropia termodinamica e statistica sulla meccanica, nonché –aggiungiamo noi- esso ha gettato le basi del metodo stocastico.

Si chiama “moto browniano” una agitazione scomposta di particelle, descrita nel 1827 dal botanico inglese R. Brown, quando questi osservò i moti di grani di polline in sospensione in un liquido, moti che aumentavano in proporzione della temperatura e in proporzione inversa alla densità del liquido. Quest’inquietudine cinetica tutto appare tranne che lineare; velocità e direzione di ogni particella sono altamente instabili, secondo un procedimento a zig-zag, anche detto “cammino dell’ubriaco”. Ci è praticamente impossibile dire in che direzione (e a che velocità) procederà una particella a seguito degli urti e/o di una fluttuazione termica. Il moto browniano è il prototipo di un moto in cui il futuro è (pare) indipendente dal passato, esso è il prototipo del moto (che pare) indeterministico e discontinuo, il cui andamento descrive un frattale. Si intuisce subito come il moto browniano possa costituire il prototipo per eccellenza del moto atomistico .

Per Einstein, se il moto browniano di particelle di polline visibili al microscopio lo posso descrivere con le leggi della termodinamica statistica, proprie della Teoria Cinetica dei Gas, ciò vuol dire che questa descrive effettivamente moti di particelle (atomi) che si urtano, le quali sono perciò la effettiva base microscopica dei macroscopici fenomeni diffusivi. Egli ritiene che il moto delle particelle osservate partecipi del moto termico del mezzo e, in accordo col principio di equipartizione dell’energia, esse deriverebbero il loro moto dagli urti con le molecole del fluido in cui sono sospese, acquistando la loro stessa energia cinetica media. Che il moto browniano si sia fatto spiegare con la termodinamica statistica della Teoria Cinetica proverebbe che la termodinamica statistica descrive realmente gli atomi. Einstein conclude quindi che proprio questo tipo di moto aleatorio rifletta e sia diretta conseguenza del moto casuale degli atomi in un sistema di riferimento a N particelle (atomi) Avogadro, dove si impone una descrizione statistica, del tutto simile a quanto avviene in meccanica quantistica con la funzione d’onda: si individuano le distribuzioni di densità in cui è più probabile che si trovi una particella in quel momento. Il cammino della particella browniana viene a corrispondere alla soluzione dell’equazione di diffusione di Einstein (basata sul rapporto costante tra spostamento quadratico medio della particella e tempo, in modo del tutto simile ai processi di diffusione termica), che individua la densità di probabilità che una particella (atomo) si trovi in un dato luogo, in un dato istante.

Già nel 1905 abbiamo le premesse per la universalizzazione dell’atomismo come dinamica di fondo di tutti i fenomeni naturali, inclusi gli stessi fenomeni elettromagnetici; anche di questi ultimi calcolo l’entropia in funzione del volume, come si farebbe per un gas o una soluzione diluita, per cui ne concludo che anche questi (come gas e soluzioni) devono essere di natura discreta, discontinui e fluttuanti; ossia le loro unità fondamentali devono essere i quanti-luce o fotoni. E così, ponendo che la diffusione dei fenomeni luminosi avverrebbe nel puro vuoto, cancellata ogni idea di etere come sostrato del fenomeno radiante, ecco che si prospetta la rottura della continuità della natura (e così la natura giocherebbe a dadi; ecco perché, anni dopo, Einstein, se non voleva contraddirsi, dicendo che Dio non gioca a dadi, doveva finire per riammettere l’esistenza dell’etere, il solo fattore che poteva bandire l’infame gioco). Per la sistematica applicazione dei principi della termodinamica statistica anche ai fenomeni luminosi (spiegazione atomista dell’effetto fotoelettrico), Einstein ottenne nel 1921 il premio Nobel.

L’articolo del 1905 getta le basi per leggere e trasformare tutti i fenomeni naturali secondo equazioni differenziali stocastiche, nella presunzione che proprio queste descriverebbero la realtà e l’andamento dei fenomeni naturali, soggetti a una forza casuale fluttuante esterna (“rumore bianco”, quando aspecifica) che terrebbe la natura in uno stato di costante lontananza dall’equilibrio. La più rappresentativa di queste applicazioni è l’equazione differenziale stocastica di P. Langevin; si tratta di un’equazione differenziale deterministica, resa indeterministica con l’aggiunta di f(t), che è appunto quella forza fluttuante casuale esterna che tradurrebbe matematicamente il clinamen. Essa vuol significare che qualunque sistema dinamico, essendo soggetto a fluttuazioni casuali, è da trattare solo statisticamente, proprio perché, da ultimo, solo statisticamente sono descrivibili le intermittenze del clinamen; la cui regressione di intensità vede l’andamento del sistema come un frattale intorno al cammino termodinamico, mentre un incremento di intensità spinge il sistema (il fenomeno naturale) lungo un percorso antitermodinamico[47] (che come tale porta ad aumenti di temperature, energie cinetiche, pressioni, ecc.). Ecco prospettato, in contesto chimico-fisico, l’analogo delle “variazioni casuali” (“mutazioni casuali” nel neodarwinismo); si tratta di uno stesso clinamen, che travestito da “fluttuazione”, terrebbe la natura in uno stato di lontananza dall’equilibrio, stato che di lì a poco verrà interpretato come tappa di un cammino evolutivo –ovviamente scevro da finalismi e/o intelligenza inconscia- che anche la natura inorganica compirebbe…E il cerchio comincia a chiudersi: con la fondazione (anche se solo presunta) della termodinamica statistica sulla meccanica, si può inserire l’evoluzionismo nella natura inorganica, proiettandola in un tempo non più ciclico, bensì lineare. Lasciamo al lettore intuire quanto questo sia gravido di implicanze culturali, teologiche, financo politiche. I sistemi dinamici, così interpretati, salterebbero da uno stato all’altro (proprio perché esposti ai conati del clinamen), imitando quel processo senza memoria, attribuito al moto browniano. Ecco, per chi voglia far storia, dove si radica, nel Novecento, l’immagine post-moderna della natura, o, fuori dall’eufemismo, il suo pervertimento stocastico. Senonché, questa nuova metodologia, assolutoriamente chiamata “fisica dei principi”, andrebbe più propriamente indicata come “fisica della petitio principii”. Vediamo perché.

Dalla inevitabilità di avvalersi della statistica per descrivere un sistema, ipotizzato a N particelle Avogadro e con ipotizzate 1021 collisioni al secondo, per l’impossibilità di descrivere velocità istantanee e traiettorie di ciascuna particella, si passa a insinuare la intrinseca indeterminazione del sistema stesso. L’ipotizzato atomismo assume la struttura di tesi e si prospetta un sistema dinamico come soggetto a f(t), cioè al clinamen, fornendo un supporto oggettivo-ontologico al modello diffusivo (simile alla conduzione termica) con cui si è inizialmente descritto il sistema. In altri termini: le applicazioni stocastiche, con cui inizialmente descrivo un sistema, fanno ipotizzare che esso sia costituito di vuoto e atomi soggetti al clinamen f(t). Strada facendo, dimenticando che questa è solo un’ipotesi, e dandogli la consistenza di tesi, si utilizza l’atomismo e la sua dinamica per sostenere/giustificare la necessità di applicazioni stocastiche; con la conseguenza che, all’andata, era l’ipotesi atomistica ad appoggiarsi all’applicazione stocastica, mentre al ritorno, chiudendo il cerchio della petitio principii, è l’applicazione stocastica a trovare giustificazione nell’atomismo… Intanto, la costante d’Avogadro N è divenuta il numero d’Avogadro, che indicherebbe il numero assoluto di atomi-particelle contenuto in una mole di una certa sostanza (6,022×1023, per carità, non un atomo in più, né in meno!)

Da Einstein a Perrin[48], l’idea di una natura costituita da atomi che si urtano caoticamente nel vuoto, inferita a partire dallo studio del moto browniano e dal ritrovamento della costante d’Avogadro è effetto del metodo proprio di questa “fisica dei principi”, la quale, nel descrivere il moto browniano si avvale dei principi della termodinamica statistica, propria della Teoria Cinetica dei Gas e quindi presuppone metodologicamente, allorché introduce la costante di Boltzmann (K, data dal rapporto tra la costante, R, dei gas perfetti e il numero d’Avogadro), proprio quel numero d’Avogadro che poi dice di ritrovare sperimentalmente.

In queste “nuove metodologie”, quelle che dovrebbero essere ipotesi da sottoporre a verifica e/o smentita assurgono a presupposti interpretativi, dati per veri (eufemisticamente detti “principi generali e semplici in grado di spiegare una molteplicità di fenomeni”), coi quali si leggono-interpretano una serie di fenomeni e dati d’esperienza, poi a loro volta utilizzati per …confermare l’ipotesi di partenza. Esempio classico e lineare: ipotizzo l’evolutività delle forme viventi; ma anziché sottoporre tale ipotesi a verifica o smentita, con un lieve ritocco, la trasformo in principio euristico, col quale interpreto il fossile di celacanto come anello di transizione tra forme acquatiche e terrestri; una volta esposto il celacanto nel museo paleontologico, lo indico come prova-conferma dell’ipotesi evolutiva. Ancora: ipotizzo il moto browniano come riflesso-conseguenza di un moto atomistico; strada facendo (evitando di sottoporla a verifica o smentita) trasformo l’ipotesi in principio euristico, col quale interpreto e descrivo le convulse oscillazioni di grani di polline o mastice in acqua, utilizzando un’equazione di diffusione di cinetica dei gas; infine dichiaro provata l’ipotesi atomistica proprio a partire dal fatto che ho interpretato il moto browniano conformemente all’ipotesi atomistica. Con l’ipotesi A (anziché confermarla o smentirla) interpreto il fenomeno B (celacanto, moto browniano), per poi utilizzare i fatti così interpretati (B) come (presunta) conferma dell’ipotesi di partenza (A; cioè:evoluzione, oppure atomi che si urtano nel vuoto). Geniale, no? A questo punto è facile procedere sistematicamente: ipotizzo che un fluido o un’emissione di luce siano costituiti da particelle che viaggiano e si urtano nel vuoto; poi, in una sorta di gioco delle tre carte, ciò che avrebbe dovuto esser sottoposto a conferma o smentita diviene principio euristico, mediante il quale interpreto fluido ed emissione di luce a partire dalla Teoria Cinetica dei Gas come fenomeno diffusivo; il fatto che il fenomeno sia così interpretabile proverebbe la validità dell’ipotesi iniziale[49]. La struttura argomentativa con cui si fa apparire provata l’ipotesi atomistica è una petitio principii.

Si ritiene che l’atomismo sia scientificamente provato. Ma J. D.Van der Waals, nel 1875, J.B. Perrin nel 1908, che cosa avrebbero misurato, se non il limite oltre il quale non si spinge la nostra capacità di misurare unità di massa nel piccolo. Esse sono l’ultima unità costitutiva della materia solo nel senso che (se sono davvero molecole) mantengono fino a quel livello le proprietà fisiche e chimiche della sostanza in questione, ma di lì in poi, la cosidetta materia dischiude universi con proprietà talmente differenti…

Qui si vuol far notare quale sia stata la politica scientifica in corso nel Novecento, volta, anche attraverso l’assegnazione puntuale dei Nobel, da A. Einstein (1921) passando per J.B. Perrin (1926) fino a I.Prigogine (1977), a promuovere l’immagine atomistica e discontinua della natura, come tale caotica (non lineare e non integrabile), come tale entropica e statistica, come tale funzionale agli obiettivi della tecnocrazia. Tappa importante di questo processo di atomizzazione (in senso epicureo) è l’adozione nel 1971, da parte della XIV Conferenza Generale dei Pesi e delle Misure, della settima unità di misura del S.I., e cioè la mole, il cui significato fisico è ambiguamente legato alla costante di Avogadro (che trae la sua origine dal concetto degli equivalenti chimici e solo per definizione, non per conta, contiene uno stesso numero di particelle), che sempre più si tende a interpretare come numero d’Avogadro; ossia, la mole di una sostanza sarebbe da identificare con un numero (N=6,022×1023), come se effettivamente una mole fosse composta da quel numero di unità di massa (siano ioni, atomi, molecole, ecc.)

Che la mole, come settima misura, sia anche la misura fondamentale in queste politiche scientifiche atomiste e tecnocratiche, è provato dai tentativi e pressioni recenti (National Institute of Standard and Technology) di esprimere lo stesso kilogrammo a partire dalla mole, atomisticamente intesa. Con la stessa logica, medesima sorte potrebbe toccare alle altre cinque misure, tutte pensate come costituite da atomi o quanti di energia, come tali discreti e implicanti il vuoto in cui si muoverebbero. A quel punto il cerchio si sarà chiuso: atomismo, discontinuità e caos, sottesi dalle sette misure fondamentali, sanciranno la mistificazione e il potere tecnocratico sulla natura.

Che per i chimici la mole sia uno strumento di lavoro fondamentale non lo si mette in discussione, così come non si mette in discussione la validità pratica di procedere in termini di meccanica statistica per descrivere sistemi liquidi o gassosi, diffusivi e non lineari, bistabili, come in certe reazioni chimiche, ecc. Ciò che si mette in discussione è il procedimento teorico e/o l’interpretazione di certe “verifiche” sperimentali, che vogliamo smascherare nel loro utilizzo strumentale per fondare una visione della natura di un certo tipo.

VIII.4. LE RISONANZE E L’IRRUZIONE DEL CAOS NELLA FISICA DELLA COMPLESSITA’. Le ultime rifiniture dell’edificio atomistico della fisica contemporanea toccano a I. Prigogine, sul finire del secolo, con la piena teorizzazione del clinamen. Il terzo millennio è pronto ad accogliere la formulazione statistica delle leggi di natura. Il Novecento non è trascorso invano: siamo finalmente alla fine delle certezze, là dove la tecnocrazia esigeva si arrivasse.

Un sistema dinamico stabile-lineare è caratterizzato da una traiettoria i cui punti su degli assi cartesiani sono i valori che soddisfano la corrispondente equazione di moto. La linearità significa che la risposta del sistema ad una sollecitazione esterna è proporzionale alla sollecitazione stessa. Condizione che consente di affermare che i sistemi stabili per la loro linearità sono pienamente predicibili.

Vi sono poi sistemi instabili non lineari, cosidetti per la loro imprevedibilità, dovuta al fatto che piccole sollecitazioni iniziali producono sproporzionate ed esponenziali modifiche nel corso del tempo, come avviene per il tempo meteorologico. Il sistema è tuttavia ancora deterministico, anche se di più complessa predicibilità.

Vi sono infine sistemi instabili che, secondo la definizione e gli studi di Poincaré, si presentano come non-integrabili. Caratteristica quest’ultima propria dei fenomeni di risonanza. Cos’è una risonanza? Un’azione (di tipo meccanico, elettrico, magnetico, ecc.) esercitata dall’esterno, f(s), su un sistema che ne modifichi la grandezza “a”, in modo che “a” assuma valori “insoliti”(per un intervallo di valori di “s”), si dice che produce una risonanza. Una risonanza si produce quando una forza o uno stimolo esterni a un dato sistema ne alterano, per un certo tempo, in maniera anomala (non propria), la velocità fondamentale o la vibrazione fondamentale, come accade col pedale di risonanza del pianoforte, oppure quando al moto oscillatorio dell’altalena imprimo una spinta suppletiva col piegare repentinamente avanti o indietro il corpo. Questa spinta produce una risonanza, data dal rapporto tra la frequenza oscillatoria dell’altalena e la frequenza della mia spinta.

La risonanza è un fenomeno complesso (anzi, è uno dei principali paradigmi della complessità che stanno alla base della nuova fisica), dal momento che le variazioni apportate dal fattore interferente esterno f(s) modificano i molti parametri fondamentali del sistema , ossia la sua “varianza” o “gradi di libertà”. Ma ciò che ha condotto Poincaré a vedere nelle risonanze “il problema generale della dinamica” non è stata tanto la complessità sic et simpliciter, ma il suo significato matematico, ossia la non-integrabilità. Che significa?

Un sistema meccanico lineare, come un pendolo in oscillazione armonica, disegna una traiettoria, sugli assi cartesiani, che costituisce le soluzioni che soddisfano la corrispondente equazione di moto. Stessa cosa dicasi per una pietra che cade. Linearità e integrabilità sono stati l’ideale e l’obiettivo costante della dinamica classica galileano-newtoniana: ad ogni equazione di moto è associabile una traiettoria ben precisa; il fenomeno naturale è trasferibile nell’ideale matematico-geometrico. Ma se al pendolo in oscillazione sopra indicato appendo un secondo pendolo, ottengo un sistema dinamico (“pendolo doppio” o “pendolo caotico”) in cui si producono risonanze (= interazioni continue delle due frequenze di oscillazione), la cui caratteristica, rispetto al primo sistema, è la non-integrabilità, come impossibilità di associare una traiettoria all’equazione di moto. Non abbiamo cioè semplicemente una traiettoria non lineare (come nel cosiddetto “caos deterministico”), ma si assiste ad un andamento aleatorio (ecco lo stocastico) e sempre differente nello “spazio delle fasi” (J.W.Gibbs, 1901), che rende impossibile individuare le soluzioni per tali equazioni di moto (ostacolo che, matematicamente, è rappresentato dalla presenza dei piccolo divisori)[50]. Questa aleatorietà, questa assenza di ricorrenza (assenza di attrattori) costituiscono ciò che diciamo l’aspetto stocastico o presunto tale della natura, la cui strumentale interpretazione, da parte della scienza tecnocratica, è quanto questo lavoro si impegna a smascherare.

Vi sono dunque fenomeni in natura non traducibili nell’ideale matematico-geometrico. E poiché le collisioni sono in natura fenomeni continui (l’aria che respiriamo e l’acqua che beviamo sono esempi a portata di mano di collisioni continue delle particelle che le compongono, come in biofisica, dinamica dei fluidi, ecc.) e cioè è continua la produzione di risonanze, ecco che la matematizzazione pretesa della natura, nel senso della dinamica classica, sarebbe stata una pia illusione, che si esprimeva nella pretesa di studiare il fenomeno naturale nelle astratte e ideali condizioni del laboratorio, solo nel quale la natura pareva esprimere sicure e lineari leggi. Al contrario, la natura reale sarebbe da dematematizzare, o meglio da rimatematizzare con nuovi strumenti, eminentemente statistici, bernoulliani e frattali, che consentirebbero maggiori successi di calcolo, in un mondo caratterizzato dal più epicureo degli eventi dinamici: la collisione risonante.

Non possiamo né vogliamo entrare nel merito, e cioè se l’avvalersi di trasformazioni caotiche e di domini statistici garantisca o meno maggiori successi computazionali. Spetta a tecnici e scienziati (purché non ingenui) stabilire se effettivamente vi siano maggiori successi o se questi siano solo retorici…Ciò che qui è in discussione non è il fatto che vi siano sistemi non lineari, né il fatto che in molti casi l’applicazione di domini statistici abbia avuto successi, bensì si discute l’interpretazione che viene data a tali fatti e l’improprio loro utilizzo ai fini di una nuova visione della natura, di tipo epicureo-entropico, cioè caratterizzata da intrinseca discontinuità-caoticità, che darebbe una giustificazione, stavolta ontologica e non semplicemente pragmatica, al ricorso alla statistica e alle trasformazioni caotiche, così da consentire il proclama della “fine delle certezze” e la necessità di passare a una “formulazione statistica delle leggi della natura”. Di questo dobbiamo ora occuparci

VIII.5. PARODIA DELLA LIBERTA’ NELLE CONVULSIONI DEL CLINAMEN. Il fatto che nello spazio delle fasi assistiamo a traiettorie aleatorie, non ricorrenti, sarebbe prova che negli onnipresenti fenomeni di risonanza la natura compirebbe salti indeterministici (gli stessi attribuiti al moto browniano), né più né meno di quanto prospettato da Epicuro col clinamen. Sarebbe stata più prudente e più coerente una conclusione agnostico-pragmatica di questo tipo: “Noi non sappiamo come sia in sé la natura, se continua o discontinua, tuttavia, visti i successi ottenuti nelle previsioni di calcolo, ricorriamo, per molti sistemi dinamici, a domini statistici e a trasformazioni caotiche”. Ma pretendere che metodi statistici e traiettorie aleatorie trovino giustificazione nella intrinseca, ontologica discontinuità e caoticità della natura[51] chiama in causa e legittima la presente discussione critica.

La Teoria Cinetica dei Gas, di cui non si può negare l’importanza nella descrizione di fenomeni come la conduttività termica o la diffusione dei gas diluiti; le applicazioni caotiche di J. Bernoulli[52] per descrivere i sistemi instabili; la matematica delle biforcazioni nei punti di catastrofe, la matematica dei frattali[53] sono indubbiamente tutti strumenti utili per la descrizione dei sistemi non lineari, caratterizzati da “caos deterministico” (anche se sarebbe da preferire l’espressione “imprevedibilità deterministica”); ma dal punto di vista filosofico-critico, essi sono la copertura sotto cui viaggia il caos indeterministico che si cerca di insinuare nell’immagine della natura. Si tratta cioè di descrizioni che, oltre all’efficacia di calcolo –vera o presunta, che non sta a noi valutare- implicano una interpretazione del fenomeno naturale di tipo indeterministico, come se esso nei punti di rottura (“biforcazioni” o “punti di folgorazioni”) facesse “scelte”, espresse nei grafici col random walk browniano. Da una fase in cui ci si è avvalsi di una procedura di calcolo indeterministica e probabilistica per motivi di utilità pratica, dovuta, come per gli ensemble di Gibbs-Einstein, a una nostra mancata conoscenza delle condizioni iniziali di un sistema, si è passati ad una fase in cui si pretende che il successo di quella procedura di calcolo sia dovuta all’ intrinseco indeterminismo della natura[54].

La nostra incapacità tecnica di prevedere tutti gli effetti amplificanti delle condizioni di contorno è divenuta la teorizzazione dell’intrinseca caoticità-discontinuità della natura nei fenomeni di risonanza, dei quali con opportunismo si enfatizza l’onnipresenza. Tale discontinuità è sostenuta mostrando la non integrabilità del sistema nel parametro matematico-geometrico; anche qui, ancora, con palese petitio principii, perché è proprio questo che deve esser provato, ossia: che ciò che non si fa descrivere in maniera integrata sia discontinuo. E’ la stessa pretesa di chi concludesse che in casa non c’è nessuno, per il fatto che, dopo aver suonato al citofono, nessuno ha risposto. Che la natura non sempre risulti rispondere con applicazioni lineari, o che non risponda con applicazioni deterministiche non ci autorizza a concludere che la natura “scelga” con discontinuità[55]. Che nei “punti di biforcazione” o “di catastrofe” vi sarebbe una rottura del determinismo, in quanto il sistema sarebbe indifferente alle alternative che si presentano, è proprio ciò che deve essere dimostrato, quando non ci si limiti ad utilizzare la matematica delle biforcazioni, da H. Poincaré a R. Thom, per pura convenienza computazionale, ma per intenti metafisico-epistemologici, che conducano ad un’idea epicureo-entropica di natura

Quando la materia è lontana dall’equilibrio (termodinamico), tanto in certi fenomeni chimici (come la reazione Belusov-Zabotinskij), quanto negli alberi genealogici, i sistemi giungono a “punti critici” o “di biforcazione”, in cui, a seguito di fluttuazioni e turbolenze (intendi sempre “risonanze”), si produce un fenomeno nuovo che non ci appare prevedibile a partire dalle condizioni e traiettorie di partenza. Il sistema, così, nella descrizione matematico-geometrica, ci appare discontinuo, legittimando il ricorso al moto browniano e a domini statistici per potercelo rappresentare. Ma questo può legittimamente condurci ad affermare che la biforcazione, in prossimità del punto critico, introduca la “storia” nella fisica[56] (dal momento che quel che ci appare indeterministico anche ci appare irreversibile)? Possiamo affermare che nel “punto di rottura” il sistema avrebbe potuto “scegliere” diverse alternative[57]? Per il fatto che il grafico dell’acqua che bolle ci costringe a una traiettoria con un punto di biforcazione e rottura nel punto di ebollizione, possiamo concludere che tra l’acqua fredda (in t1 ) e l’acqua in piena ebollizione (in t2), natura facit saltum?

Si deve fare attenzione, perché per questa fisica epicurea la radice dell’irreversibilità non sta nel tempo, che inesorabilmente scorre. Questa irreversibilità temporale di cui erano consapevoli Galileo, Newton e l’Imperatore Giallo non scalfisce e non ha mai scalfito la continuità della natura; infatti, ferma restando la continuità tra causa ed effetto, l’anisotropia del tempo non consente che li si possa invertire. Ma per questa nuova fisica, l’irreversibilità si radicherebbe nella struttura risonante della materia in continua collisione, che come visto non solo introdurrebbe discontinuità e indeterminismo, che giustificherebbero la statistica, ma anche l’irreversibilità termodinamica; poiché le collisioni, così come conducono (in quanto interazioni persistenti) le particelle all’uniformità delle rispettive velocità, secondo il “teorema H” di L.Boltzmann, altrettanto conducono il sistema verso la crescita di entropia, e cioè lo portano al livellamento-collasso energetico. Il cammino della funzione H e della funzione S (entropia), non può che essere irreversibile, unidirezionale, storico e tutto il resto.

Con la presente discussione non si contesta la validità delle funzioni H ed S per descrivere molti fenomeni naturali, bensì si contesta l’interpretazione che viene data dell’irreversibilità dei fenomeni entropici (sia termodinamici, sia statistici), ossia si contesta che quell’irreversibilità possa significare intrinseco indeterminismo della natura.

Ecco allora che, in base a questa tendenziosa interpretazione, il fenomeno dinamico tra la sua fase A (in t1) e la sua fase B (in t2) porterebbe totale novità, nel senso che da A potrebbero seguire C, D, F con pari legittimità; e per converso, una volta emerso B, da quest’ultimo non sarebbe possibile risalire (=reversibilità, retrodicibilità) ad A come suo necessario presupposto! Tutto questo si chiama “caos indeterministico”, che identifica l’accadere fenomenico in natura al lancio dei dadi. Non a caso J.Bernoulli era un teorico del gioco d’azzardo e le sue trasformazioni, delle quali quella del “fornaio” è una variante, introducono descrizioni irregolari e imprevedibili dei fenomeni, del tutto simili al testa o croce[58].

Se c’è da qualche parte regolarità vuol dire che c’è continuità, proprio quella che anche significa determinismo. Ma è difficile credere che la natura per un gruppo di fenomeni sia lineare e deterministica, mentre in fase di risonanza diverrebbe discontinua. Piuttosto a noi appare discontinua in molte situazioni descritte nelle applicazioni caotiche; ma ciò non significa che in sé sia caotica. Che molti fisici non digeriscano l’idea di “freccia del tempo” e “irreversibilità” è perché fiutano –a ragione- che mentre si proclama l’ovvia irreversibilità e anisotropia temporale a cui è sottoposta la natura (sulla quale siamo tutti d’accordo), in realtà si contrabbandano discontinuità e indeterminismo, che sono ben altra cosa. Sarebbe stato più opportuno un atteggiamento di agnosticismo che è una posizione tanto semplice quanto sana. Così come dal fatto che dopo aver bussato nessuno mi abbia risposto, non posso concludere che in casa non vi sia alcuno; altrettanto non posso concludere che la natura sia discontinua per il fatto che le equazioni di moto di certi sistemi dinamici mi danno nello “spazio delle fasi” traiettorie aleatorie.

Qualcuno potrebbe, con relativistica indifferenza, dire che in fondo questa nuova fisica dei sistemi non integrabili (“Grandi Sistemi” di Poincaré, allorché le interazioni sono persistenti) non è che un nuovo “paradigma” (nel senso di Kuhn), come tale fungibile e di pari legittimità di quello classico, galileano-newtoniano deterministico. No. Perché il paradigma classico ha dalla sua parte due elementi di non poca rilevanza, che gli garantiscono molto maggiore legittimità, e cioè 1) l’esperienza (propria del mondo della vita), dalla quale risulta (malgrado tutti i tentativi di mistificazione messi in campo e malgrado la persistente aggressione ai suoi equilibri) una ciclicità costante della natura, dove ogni “nuovo” è inserito e contenuto nella regolarità, in modo da non significare “caos”. E questo, fermo restando la validità dell’atteggiamento agnostico, depone a favore di continuità e determinismo. 2) Altro elemento è la ragione: la quale ci fa intendere il divenire della natura come una via che cammina tra due estremi: da un lato l’immobilismo, che non consente l’emergere del nuovo (immobilismo smentito dagli accadimenti fenomenici); dall’altro lato l’assoluto divenire, che produrrebbe assoluta novità, possibile solo dove vi fossero rottura e discontinuità caotiche (rottura smentita dal fatto che ogni volta che pongo l’acqua sul fuoco essa bolle).

L’interpretazione dei fenomeni di risonanza, alla luce di quanto dicono ragione ed esperienza, può tutt’al più spingersi fino al “caos deterministico”, brutta ma ricorrente espressione per intendere: “ciò che per noi è imprevedibile”. Ecco perché il fondamento dell’interpretazione delle risonanze come “voce” del caos indeterministico, così come l’acuto e diffuso interesse per i sistemi non-integrabili, trova fondamento non tanto nella ragione o nell’esperienza, quanto nella politica, ossia nel preparare il terreno a una visione della natura che si presti agli obiettivi manipolatorii della tecnocrazia[59].

Senza quest’appoggio della ragione e dell’esperienza di cui gode la fisica dei sistemi lineari e non lineari, lo specioso argomentare indeterministico si riduce ad una petitio principii. Quando infatti si chiede quale sia il fondamento di legittimità che dovrebbe condurre ad una formulazione statistica delle leggi della natura, la risposta è che solo queste sarebbero in grado di incorporare le risonanze che si producono nei gradi di libertà del fenomeno. Senonché, la prova che esisterebbe una rottura del determinismo nei fenomeni di risonanza è sostenuta mediante una applicazione discontinua, con cui si descrive il fenomeno di risonanza stesso (e che giustifica il ricorso agli insiemi statistici). Detto ancora in altri termini: giustifico l’utilizzo di un’applicazione discontinua e non integrabile (quindi solo statistica) per descrivere le risonanze, sostenendo che queste operano una rottura dei processi deterministici; e quando mi si chiede quale prova abbia per sostenere che le risonanze significano indeterminismo, ecco che mi appoggio ad una loro descrizione non integrabile (a causa dei piccoli divisori)! Petitio principii, ecco anche qui, ancora, il fondamento argomentativo di questa nuova fisica che proclama la fine delle certezze nella formulazione statistica delle leggi di natura.

VIII.6. L’EVOLUZIONISMO IN FISICA: LA RIDUZIONE DELLA DINAMICA A ENTROPIA. Perché viene data tanta importanza e decisività alle risonanze di Poincaré e al “teorema H” di Boltzmann? Perché, come sopra si è visto, esse consentono di importare l’evoluzionismo in fisica e quindi di universalizzarlo. Ovviamente in una forma diversa da quella tracciata da Darwin, e cioè nel modo proprio del II principio della termodinamica e cioè del principio entropia, la cui crescita indica il futuro. L’entropia, come la funzione H, trovano radicamento nelle collisioni irreversibili della materia (collisioni strumentalmente interpretate come irreversibili), le quali sarebbero irreversibili proprio in quanto e solo in quanto, come risonanze, sono interpretate come oggettiva rottura del determinismo. Operazione che poggia su una petitio principii, ma che comunque, grazie anche alla propaganda mediatica, giova a dare l’apparenza che la natura sia dominata da un tempo bergsoniano, che sia resa creativa da un intrinseco clinamen e che l’azione tecnologica umana non possa che potenziare in maniera benefica tale clinamen, intensificando creatività ed evolutività della natura stessa. Si poteva dare miglior supporto ideologico alla tecnocrazia? Si poteva dare al fenomeno naturale uno statuto più anomico, e quindi più manipolabile, di questo?

VIII.7. TEORIE COSMOLOGICHE AD HOC. Per sostenere questa visione di universo, caratterizzato a parte post da un destino di livellamento-collasso energetico, bisognava, in maniera tanto paritetica, quanto meccanica, postulare un suo minimo entropico o massimo energetico a parte ante. Ecco perché la teoria del Big Bang è la teoria standard[60] circa l’origine dell’universo (=deve essere Belief di massa). Ed è teoria standard nella stessa misura in cui per la tecnocrazia deve essere teoria standard l’idea dell’andamento indeterministico, caotico della natura. Questa teoria è stata ancor meglio messa a punto nel suo ruolo ideologico col modello inflazionario frattale che si autoriprodurrebbe attraverso tanti piccoli big bang. Un modello che dà piena rilevanza al clinamen ed a un universo dal carattere spiccatamente anomico. L’universo avrebbe conosciuto una fase di rapidissima espansione (durata:10-35 secondi); il clinamen che ne anima il divenire è rappresentato da fluttuazioni quantistiche, che provocano variazioni del campo scalare. Poiché queste variazioni, compulsate dal clinamen, assumono valori ritenuti arbitrari, avremmo uno scenario di inflazione caotica, comunque. Anzi il principale sostenitore di questo modello di universo tiene a sottolineare –si noti- l’inderogabilità della nozione di caos: “(…)la teoria inflazionaria stessa cambia rapidamente via via che si evolve anche la fisica delle particelle. L’elenco dei nuovi modelli comprende l’inflazione prolungata, l’inflazione naturale, l’inflazione ibrida e via dicendo. Ciascun modello ha caratteristiche peculiari che possono essere messe alla prova da osservazioni o esperimenti; quasi tutti, però, si basano sull’idea di inflazione caotica”[61]. Chiaro. Questo universo sarebbe strutturalmente anomico, proprio come la mens tecnocratica lo vuole, infatti le sue precise leggi fisiche verrebbero a definirsi solo dopo che il clinamen caotizzante (qui travestito da fluttuazione quantistica, che agita aleatoriamente i campi scalari) ha placato la sua azione convulsivante[62] (sorta di fase deflattiva). Le leggi fisiche sarebbero posticce e comunque figlie del caos, come tali da apparire storiche e fungibili, proprio come le pretende la mens postmoderna. La materia nella sua originaria struttura potrebbe farne a meno; essa sarebbe sostanzialmente anomica.

La termodinamica, col suo primo principio della conservazione costante dell’energia, si mantiene compatibile coi parametri della fisica classica, così centrata sull’idea di legalità dei fenomeni, mirabilmente esprimibile in termini matematici. Il I principio esprime una proprietà della natura. Ma il II principio, della irreversibile degradazione dell’energia in calore, riguarda propriamente l’umana techne, e cioè le macchine termiche, dallo studio delle quali esso è stato scoperto e formulato. Infatti il principio si riferisce ed è valido per un sistema chiuso, quale può essere un’automobile, un treno a vapore, ecc, il cui non scambio con l’esterno consente l’irreversibilità del processo entropico e/o degenerativo. Ma per i viventi, per quell’insieme che definiamo “biosfera”, non si può applicare tout-court il II principio, perché qui i sistemi sono aperti e sintropici. Una foresta che, ad es., venisse bruciata non trova in queste ceneri il suo collasso energetico, quale esito dell’irreversibile trasformazione della legna, perché il sistema ‘foresta bruciata’ interagisce subito (essendo aperto) col sistema ‘suolo’, in cui si riformulano le condizioni per far rinascere una foresta ancora più rigogliosa (andamento sintropico). Che una ferita rimargini, che la coda tagliata di una lucertola ricresca, sono prova che in natura, dove tutti i sistemi sono aperti, non esistono processi irreversibili di degenerazione, perché qui ogni morte è premessa per una nuova vita, ogni calo premessa di un aumento, ogni buio premessa di luce. Ecco perché è mistificatorio voler attribuire alla natura un tempo lineare.

Senonché, per comprendere cosa stia accadendo, dobbiamo porci nell’ottica dei risultati ideologici che si vogliono raggiungere. Ecco allora il grande compromesso della scienza dell’ultimo secolo: pur di salvare un’interpretazione della natura che faccia perno sulla nozione di “Caos” si rinuncia ad un modello interpretativo unitario e, ricorrendo a una sorta di principio di complementarietà, si adottano entropia ed evoluzionismo: il primo, per la natura inorganica, dove si pone il caos a parte post; il secondo, per quanto riguarda la vita, dove si pone il caos a parte ante. Che poi nel punto di congiunzione vi sia contraddizione, perché il caos deve essere insieme terminus a quo e terminus ad quem, è irrilevante; in epoca post-filosofica, così come non c’è l’obbligo per le teorie scientifiche di essere aderenti all’esperienza e ai criteri assiomatico-intuitivi, altrettanto per i filosofemi non v’è più l’obbligo di essere aderenti ai principi logici.

A concludere l’operazione ideologica, mancava un elemento. Per poter applicare il II principio della termodinamica alla natura, bisogna ipotizzare un sistema chiuso; ma la natura tutto appare tranne che un sistema chiuso. Tuttavia si può rimediare, considerando l’intero universo come un tale sistema chiuso. Che potrà mai voler dire? A chi ancora viaggia con la logica, l’affermazione appare incomprensibile, perché se oltre l’universo v’è qualcosa che lo limita e che non è l’universo, vuol dire che quell’universo non è la totalità e quindi non è universo. “Universo” vuol dire che comprende tutto, oltre il quale non v’è nulla. Ma se non può esservi nulla che lo limiti dall’esterno, come fa a essere chiuso? A meno che non si voglia dire che è limitato dal nulla. Ma essere limitati da nulla, vuol dire non essere proprio limitati (e quindi non poter subire la limitazione termodinamica che ne vuol fare un sistema chiuso). A meno che non si voglia reificare il nulla, identificandolo con l’intuizione vuota dello spazio. Ma è una scappatoia che non funziona, perché quello spazio “vuoto” è parte dell’universo e non lo limita, come è parte dell’atomo lo spazio (presunto) vuoto tra il nucleo e gli elettroni, che certo non lo limita facendone un sistema chiuso.

VIII.8.POLITICHE MALTHUSIANE E GRANDE TIRANNIDE. E la vita? E’ naturalmente lungi dal divenire teoria standard il riconoscimento della sua connessione con lo spirito (nozione fatta passare dal neopositivismo come “epistemologicamente inutile e insensata”), connessione che non esclude il supporto della cosiddetta “materia”. Quindi essa deve essere pensata come accadimento episodico nella fiumana entropica dell’universo (risultato di una fluttuazione casuale, che determinerebbe queste isole di non omogneità termodinamica). Compare così la nozione di “auto-organizzazione della materia” da cui originerebbero le cosidette “strutture dissipative”, che esprimerebbero la materia nella sua condizione di lontananza dall’equilibrio termodinamico[63], e che esporterebbero nell’ambiente una quantità maggiore di entropia di quella importata. Come avrebbe fatto la materia a scalare quel cucuzzolo così lontano dal livellamento energetico, è spiegazione affidata alla nozione di “capacità autorganizzativa della materia” (anch’essa figlia della scomposta e paurosa oscillazione del clinamen ). Ed ecco che proprio i più acerrimi nemici della metafisica ricorrono alla metafisica e superstiziosa nozione di “autorganizzazione”, che stavolta non sarebbe epistemologicamente insensata.

Nel processo di decadimento termodinamico dell’universo, la vita è vista come un casuale fenomeno parassitario, che inesorabilmente accelererebbe la corsa entropica dell’universo stesso[64]. Cosa sono i viventi, se non “macchine singolarmente futili che macinano tutta l’energia che ottengono dalle sorgenti per autoalimentarsi e mantenersi” (A.J.Lotka,1956)? Ecco fornito il supporto ideologico al malthusianesimo e alla necessità di “gestire i processi evolutivi” da parte della cupola finanziario-tecnocratica, che potrà far apparire tali interventi tra le priorità politiche, affinché lo sviluppo “incontrollato” delle popolazioni umane, animali (sia selvatiche, che domestiche) non acceleri il collasso energetico di un universo che sarebbe già oberato…

Anche in riferimento alla biosfera il progettato governo cibernetico-elettronico della natura è andato in cerca ed ha trovato (con finanziamenti ed eco mediatico) i necessari supporti ideologici del seguente stampo[65]: la lettura cibernetica del vivente richiede che lo si consideri come ciò che dispone di un flusso di informazioni, in entrata e in uscita, col suo ambiente esterno. Questo lo differenzia da una pietra. Ciò che invece distingue un vivente meno evoluto da uno più evoluto sarebbe la quantità di informazioni che è capace di ricevere e la capacità di elaborazione delle stesse. Questo distinguerebbe una ameba da un uomo e anche segnerebbe la maggiore o minore capacità adattativa ed evolutiva. I cinque sensi dunque cosa sono? Essi sarebbero ciò attraverso cui riceviamo informazioni dal mondo esterno, che ci permettono di introdurre quel nuovo, che, opportunamente elaborato, consentirebbe una retroazione (feedback) negativa, ossia capacità riorganizzativa e adattativa: una vera e propria auto-riprogrammazione, che rappresenterebbe il processo evolutivo verso complessità crescenti. Se il vivente è un programma (che si esprime come informazione genetica contenuta nel DNA), sarà perfettamente conforme alla sua natura l’inserimento in esso del biochip elettronico, che lo terrà connesso all’Elaboratore, preposto “a direzionare i processi evolutivi”, onde evitare che la capacità di auto-riprogrammazione di ogni vivente finisca per significare sviluppo anarchico delle popolazioni (animali, umane, ecc.) o semplicemente per evitare che gli individui prendano direzioni evolutive errate…Ecco che i viventi, pensati secondo il modello cibernetico, dovranno andare, volenti o nolenti, nella “direzione evolutiva” indicata da quelli che si sono candidati a gestire i processi evolutivi, per il bene dei singoli e dell’intero universo, ovviamente. Per cominciare a inchippare tutti i viventi basterà procedere al solito modo: utilizzare i principali media per paventare un’emergenza, tipo: che sono in preoccupante aumento gli smarrimenti, di anziani, bambini, oppure che le morti per attacchi cardiaci si potrebbero enormemente ridurre se si intervenisse immediatamente, utilizzando un chip sottocutaneo…al fine di salvare tante vite. Un’umanità già smarrita sta per invocare su di sé la Grande Tirannide.

VIII.9. LE SMINUITE REGOLARITA’ DELLA NATURA. Che la risonanza indeterministica (oggettivamente caotica) non corrisponda alla vera natura della materia è provato dalle precise leggi di preferenzialità che presiedono, ad esempio, alla formazione dei cristalli[66]. Per non parlare della universale ricorrenza in natura dell’andamento spiraliforme (ciclo Fibonacci), nel quale -si è (ri)scoperto di recente- la natura mostra tutta la propria preferenzialità per l’ordine e la continuità, che si esprimono nella costante matematica con la quale indichiamo la “divina proporzione” della sezione aurea. Questa appare costantemente implicata in tutti i fenomeni viventi, dalla gemmazione degli alberi alla formazione delle conchiglie: una sorta di “firma dell’ordine”

Ecco perché nei punti critici degli alberi genealogici la natura non “sceglie” proprio nulla, non sceglie tra possibilità indifferenti, come vorrebbe l’epicureo indeterminismo. Semmai realizza (in modo per noi quasi mai prevedibile, quindi apparentemente discontinuo) ciò che deve realizzare, e cioè un immodificato messaggio del DNA. E anche nell’apparente indeterminismo del pool genetico di variazioni casuali limitate, essa sottostà alla regola dello sviluppo spiraliforme e di quant’altro di cui l’avvento tecnocratico ha determinato l’occultamento (fattori non ignoti alle civiltà tradizionali). Scrive un noto biochimico:”…l’angolo aureo esprime sempre la regolarità di Fibonacci, indipendentemente dalle condizioni di crescita di volta in volta presenti. Nel caso della crescita su un piano (come ad esempio nella testa del girasole), la spirale si sviluppa a partire da un centro, mentre nello stelo elicoidale la crescita procede lungo un asse longitudinale. In entrambi i casi l’angolo aureo da serie di Fibonacci vengono rispettati, come risulta dal conteggio dei punti nodali delle singole spirali. E questa tendenza allo sviluppo spiraliforme in natura è effettivamente una legge universale”[67].

Sapere con certezza che dopo l’inverno arriverà la primavera; che dopo la notte il giorno; che alle lunazioni seguono maree, che ogni metallo riscaldato dilata; che ogni eccesso di topi causa il moltiplicarsi dei serpenti; che ogni riscaldamento dell’aria crea correnti ascensionali; che ogni acidificazione drena minerali (calcio); che le tortore se ne vanno alla prima pioggia di agosto, come i colombacci arrivano alle idi di ottobre; che ogni deforestazione riscalda il clima; che l’acqua col freddo cristallizza; che l’uva continua a maturare a settembre come il grano a giugno; che l’energia cinetica attraverso una dinamo si trasforma in elettricità; che col procedimento elettrolitico, ogni volta l’acqua si scinde in ossigeno e idrogeno; che le piante regolarmente trasformano l’energia solare in energia chimica,…beh! non è poco quanto a certezze e riferimenti sicuri, con buona pace di chi insinua la spontanea tendenza della natura al caos[68]. Il principio di uniformità della natura fa riferimento proprio a questo, ed è ovvio come la scienza, in quanto individuazione di regole dell’accadimento dei fenomeni, senza di esso non sarebbe possibile.

L’ordine è uno, mentre le forme del disordine sono infinite. In natura accade sempre quello che per l’umana techne è il meno probabile che si realizzi: -accade la vita e non la più probabile accozzaglia di elementi chimici; -accade il puntuale ritorno delle stagioni, anziché il più probabile evento meteorologico casuale; -accade la coincidenza tra suzione del pargolo e ricontrazione dell’utero, anziché una più probabile giustapposizione di fattori. Il principio entropia, nella sua versione statistica, pretende invece che verrebbe a realizzarsi in natura sempre il più probabile, e cioè quello stesso che per l’umana techne è il più probabile, ossia il caotico, il non voluto, il non così progettato, il non sincronizzato. Il principio entropia pretende negare radicalmente intelligenza inconscia, provvidenzialità, ordine intrinseco alla natura. Ma questa, nella misura in cui realizza sempre l’intelligentemente mirato, il sincronizzato e più utile in quel momento, si manifesta come intrinsecamente antistatistica quindi intrinsecamente anti-entropica, smentendo i teorici della degenerazione universale.

L’uomo, ridotto ormai a insetto metropolitano, non sa più nemmeno qual è il tempo della mietitura o delle fragole. Sulla bancarella dell’ imposto mercato globale, pare si siano annullate le stagioni. Ma benché egli viva chiuso in appartamenti, automobili, uffici; benché oramai egli calpesti solo cemento e catrame, la natura continua a governare il suo orologio biologico, secondo i ciclici ritmi delle stagioni. Quando a primavera il suo fegato è più attivo, nascono, non a caso, quelle note erbe amare (dal carciofo al tarassaco) che tonificano e purificano l’organo, prevenendo gli itteri; in tarda estate, quando gli organi interni hanno bisogno di essere rinfrescati e umidificati, maturano, non a caso, i frutti più freschi (assenti, non a caso, in inverno quando lo danneggerebbero); il follicolo femminile matura ogni quattro settimane, secondo la lunghezza del ciclo lunare, non a caso…Che egli viva ancora simbiotico con la natura, tutt’altro che caotica, è un fatto (per quanto ci si adoperi per coprirlo); ma l’insetto è tanto inconsapevole quanto ingrato: gli hanno fatto credere che il cibo non sarebbe un prodotto della terra, ma il risultato della rivoluzione industriale; gli hanno fatto credere che in passato gli uomini soffrivano la fame e vivevano trent’ anni; gli hanno fatto credere che non esisteva la medicina…

. VIII.10. MEDICINA TERMODINAMICA. Sul piano medico, l’idea del “facciamo qualcosa” si traduce nella progressiva medicalizzazione dell’individuo. Come l’ambiente lasciato a se stesso non sarebbe in grado di conservarsi, contro l’irreversibile degenerazione morfologica ed energetica, altrettanto la salute umana avrebbe medesimo destino termodinamico. Perciò si comincia coi vaccini per l’infanzia e si progredisce verso una medicalizzazione costante, nella convinzione che “senza fare nulla” ci si ammalerebbe[69].

Viene così rovesciato il principio fondamentale della medicina naturale, che è quello di lasciare operare indisturbata la vis medicatrix naturae. Questa presuppone una visione sintropica della biosfera e quindi della salute umana; e cioè un organismo, una volta che si sia individuata e rimossa la causa della malattia, tende naturalmente al risanamento (ed è cura della medicina non frapporre ostacoli a questo processo). Individuare e rimuovere la causa della malattia è ciò che perlopiù evita di fare la medicina tecnocratica e termodinamica. Questo le consente di negare speciosamente l’esistenza di una vis medicatrix naturae (cioè di un andamento sintropico, che va dalla malattia alla guarigione) e quindi di legittimare la crescente medicalizzazione dell’individuo. L’operare del modello termodinamico in medicina consente in moltissimi casi di attribuire alla natura stessa gli effetti collaterali della medicina tecnocratica[70]. Ossia, gli effetti collaterali di farmaci e/o esami clinici, fino alle patologie iatrogene, sono attribuiti al presunto andamento entropico dell’organismo malato, come se questo, per natura, autonomamente, tendesse sempre al peggio, come sancito dal principio entropia. Ma è una mistificazione, perché la natura non tende, per sé, al suicidio, al deforme, al patologico come si vorrebbe dar a credere; piuttosto essa tende a guarire, tendendo al meglio, perché è sintropica, purché venga rimosso l’ostacolo o la causa che ha prodotto la malattia. Ma siccome il fenomeno malattia è visto in maniera anomica, ossia escludendo metodicamente l’indagine eziologica, e dunque viene considerato come “variazione casuale” –vedi sopra-, ecco che la non rimozione sistematica della causa è alla base di un reale andamento entropico (=peggioramento), costruito dalla stessa medicina tecnocratica, ma attribuito alla natura, grazie a questa strategia ideologica.

Si noti la profonda solidarietà tra i due paradigmi (evoluzionismo ed entropia) e la loro complementarietà. L’assunzione anomica del fenomeno, che si sarebbe prodotto come una variazione casuale, secondo la teorizzazione darwiniana, implica di principio l’esclusione dell’indagine eziologica; così, gli effetti deleteri (patologici) del permanere operante della causa vengono interpretati come naturale e inevitabile andamento entropico dell’organismo umano. A questo punto solo il “fare qualcosa” e la tecnologia appaiono salvifici. In un modo talmente esasperato, che i danni collaterali vengono supinamente accettati (“tanto, comunque si andrebbe verso il peggio”). Poiché l’organismo avrebbe preso –non si sa come =variazione casuale– la china entropica, che va inesorabilmente al peggio, insorge una fiducia anzi: una fede disperata, nella tecnologia medicale. Fede disposta a sopportare anche i più pesanti effetti collaterali, manifestamente devastanti (essendo il peggio già in vigore). E’ l’organismo stesso che avrebbe iniziato, sponte sua (=variazione casuale o scherzi del pacchetto hox), a correre verso il suicidio e a produrre tutta quegli effetti che si aggiungono alla malattia iniziale, cosicché gli è negata ogni vis medicatrix; anzi, grazie alla sua interpretazione entropica, esso è visto come una macchina impazzita da cui doversi difendere, mentre la tecnologia medicale, ancorché iatrogena, appare indiscutibilmente salutifera e i suoi protocolli sono perfino imposti con sentenze di tribunali in chi li rifiutasse. E’ evidente dunque la profonda solidarietà dei due paradigmi epistemologici (evoluzionismo ed entropia) nel giustificare l’intervento tecnologico, rivestito di aspettative messianiche e veicolante un modello di natura “post-moderno”, che, tradotto, vuol dire: deviante, decadente e suicida.

IX. LA GRANDE INCERTEZZA . Aver mostrato che il modello meccanicista e la geometria euclidea non sono modelli universali non inficia la validità del nesso causale, né la validità di quella geometria nel mondo della vita; avere mostrato che l’induzione non mette capo a una legge universale, ma solo ad una regola dell’accadimento dei fenomeni, non inficia la validità della regola, né il sistema di certezze che su questa riposa. Anche se non può esser stabilito a priori che i metalli, riscaldati, si dilatano, questa certezza non è inficiata dal fatto che invece del termine “legge” sia più opportuno usare il termine “regola”. Resta semmai delusa un’aspettativa di tipo metafisico, che della natura pretendeva avere una conoscenza assoluta.

Nel nostro mondo vissuto[71], come lo percepiamo, troviamo il punto di vista privilegiato, che per orientarsi, da secoli e millenni, suggerisce l’adozione di sistemi di certezze quali consentono geometria euclidea, meccanica newtoniana ed altri sistemi conoscitivi, di culture non occidentali, come Ayurveda, medicina del Nei Ching, comunque basate sulla constatazione della regolarità-uniformità della natura.

Prendiamo l’esempio di questo tavolo: di esso sappiamo che soggiace alla legge di gravità di Newton, a quelle della statica e di relatività di Galilei. Questo tavolo, come gli edifici e i terreni misurati dal geometra, viene considerato secondo i principi della geometria euclidea e della fisica classica; queste ultime non sono affatto in crisi, come si ripete insistentemente nella divulgazione scientifica e parascientifica. Esse non sono in crisi nella stessa misura in cui non è in crisi il nostro mondo della vita quotidiano, quale punto di riferimento privilegiato.

Avere ipotizzato che il tavolo è fatto di atomi e particelle subatomiche, che non possiamo conoscere nei loro parametri principali (o la posizione, o la velocità, in modo che l’accertamento dell’una lasci indeterminata l’altra), oppure ipotizzare che l’energia di queste particelle è discontinua (quantica), dimodoché di queste particelle possiamo avere solo una conoscenza statistica e probabilistica; aver scoperto che esso non è un rettangolo perfetto significa forse che da questo momento non sappiamo più le misure, il peso, il materiale del nostro tavolo? Che se qualcuno ci chiedesse le misure per ricoprirlo di una tovaglia gli diremmo che oramai sono in crisi i fondamenti della fisica e della geometria classiche, quindi del tavolo, in base al principio di indeterminazione, al principio di complementarietà e in base all’avvento delle geometrie non euclidee e della fisica della complessità, possiamo dare una misura solo probabilistica, puramente convenzionale?

Per Grande Incertezza qui si deve intendere quel lavorìo, attuato sul piano epistemologico e culturale, che nel corso della seconda metà del sec. XIX e specialmente nel sec. XX, ha provveduto a cancellare progressivamente nei popoli i punti di riferimento fermi, legati ai ritmi ciclici della natura. Sul piano scientifico, tale lavorìo ha spinto nella direzione dell’indebolire la visione matematica, legale e prevedibile dei fenomeni naturali, inficiando altresì i criteri logici, intuitivi ed empirici che consentivano di cogliere quella legalità stessa; tutto questo al fine di ottenerne la sostituzione con le messianiche promesse della tecnocrazia (che dovrebbe salvarci dal disastro ambientale, da malattie invincibili e dalla morte). Si è prodotta così, con l’avvento del III millennio, la messianizzazione della tecnica e della finanza che la sorregge, che ne ha fatto la blasfema religiosità materialistica di massa che conosciamo. Si tratta di un grande progetto politico, reso inviso ai più creduli grazie alle mentite spoglie di “rivoluzione scientifica”, “dibattito sui fondamenti”, “ripensamento dei fondamenti della scienza”, “avvento della fisica della complessità”, ecc. Vediamo nei punti successivi i momenti fondamentali di questa operazione sul piano epistemologico-filosofico, notando come il filo rosso che li unisce sia di carattere politico.

IX.1. LA RIFLESSIONE EPISTEMOLOGICA. La riflessione epistemologica contemporanea, da Kuhn a Feyerabend, si è impostata in una maniera singolare e ambigua: si è partiti dal come di fatto si sono affermate e succedute le teorie scientifiche per desumerne i principi generali, che stanno alla base dell’”evoluzione scientifica” e quindi del “metodo scientifico”. E’ un procedimento di tipo induttivo, che storicisticamente presuppone come lecito, valido e razionale il fatto compiuto. Siccome nel corso del Novecento si sono di fatto affermate teorie scientifiche di spiccato carattere convenzionalista (dalle geometrie non euclidee, alla relatività, al neodarwinismo) ne vien fuori una riflessione epistemologica che si “accorge” che non sono state “sensate e cruciali esperienze” (come direbbero Galileo e Bacone) ad aver determinato l’abbandono di una teoria a favore di un’altra (più vera, nel senso di più rispondente all’esperienza). Anzi, ci si “accorge” che la scienza non avrebbe per fine la verità (conformità all’esperienza) e forse neppure la verosimiglianza (come almeno cercava di raccomandare Popper), bensì essa sfugge per la tangente dell’assoluto convenzionalismo[72]. Dall’accertamento del “come è avvenuto”, la riflessione epistemologica contemporanea legittima e giustifica come scientifico ogni teoria e paradigma che siano privi di verità o anche solo verosimiglianza; oppure, essa ammette che l’avvicendarsi dei paradigmi (“rivoluzioni scientifiche”, per Kuhn) possa aversi sulla base di fattori del tutto irrazionali, fino a dichiarare legittima la totale assenza di metodo (Feyerabend).

La cosa più paradossale da osservare è che mentre queste teorizzazioni appaiono come le più innovative, se non rivoluzionarie, in realtà esse sono le più conservatrici dello status quo, dal momento che si prestano ampiamente a legalizzare l’asservimento di fatto della scienza alla tecnocrazia. Quest’ultima, non disdegnando di ricorrere a strategie mediatiche e retoriche – ovviamente con ampio uso di “razionalità non istantanee”, “metodi locali”, ecc.–, ha per obiettivo quello di rendere la visione della natura conforme alle esigenze dell’economia e della politica. Ciò che è stato diventa ciò che deve essere[73]. E’ questa la struttura argomentativa che sta alla base delle più recenti e diffuse teorie epistemologiche, che si rivelano così legittimiste della nuova forma di potere. Esse sono teorie “accreditate” proprio da quel sistema mediatico[74], al servizio della tecnocrazia, che tali epistemologi si guardano bene dall’additare tra gli elementi che determinano l’affermarsi di un paradigma a scapito di un altro, preferendo invece additare innumerevoli quanto depistanti fattori: psicologici, sociologici, culturali, antropologici (perfino estetici! Poincaré, Kuhn) che presiederebbero alla mutazione di paradigmi, teorie e metodi scientifici.

La scienza come “programma di ricerca” o come “problem solving” (Lakatos, Laudan) è così assimilata alla politica e alla retorica. Non più conoscenza di leggi di natura (di cui viene persino negata l’esistenza), ma pragmatica soluzione di problemi e capacità di produrre nelle masse un Belief[75], cioè una credenza il cui valore starebbe nei risultati pratici che riesce a produrre, cioè nei comportamenti che riesce a indurre, in una prospettiva che fa dell’umanità una massa manipolabile. Ricondurre la razionalità scientifica al modello della ragionevolezza retorica[76], negare sistematicamente la possibilità di accesso alla verità oggettiva, per sostituirla, dapprima, con deboli verosimiglianze e, infine, con la credenza, è anche il percorso di riduzione dell’uomo a golem; progetto al quale hanno lavorato tanti ignari zappatori culturali, però molto bravi a fiutare, seguire e ripetere la tendenza del momento, ossequiando il presunto “senso storico” con piatto conformismo.

All’uomo spiritualmente morto, che non esiga più la verità[77], mirano da ultimo il convenzionalismo e il pragmatismo sottesi dalla nuova scienza, che si imposta ormai come un dare a credere.

IX.2. CANCELLARE LA SOGGETTIVITA’. A quest’Opera, che definiremo “controiniziatica”, volta cioè a negare all’uomo non solo l’accesso alla verità, ma a delegittimarne la stessa aspirazione, promuovendo così la regressione antropologica[78], hanno collaborato le principali correnti filosofiche del Novecento (dove per “principali” si intende quelle che, grazie a finanziamenti elargiti da fondazioni e banche, hanno prontamente riscosso diffusione mediatico-editoriale e potere accademico). Si tratta di quelle correnti che hanno collaborato alla produzione della “morte dell’uomo”, promossa e sostenuta dalla tecnocrazia, coi proclami di una improbabile morte del soggetto[79], e/o avversando ogni forma di metafisica nella misura in cui questa pareva poggiare su una riconosciuta nozione di “soggetto”, fonte e fondamento delle chiarezze intuitive e di distinto rigore logico, ossia dei criteri universali su cui poggiare il metodo di ricerca della verità e la stessa ricerca di certezze scientifiche.

Dalla vuota (e perciò cattiva) infinità semiotica (Peirce), alla linguistica strutturale (De Saussure), all’ermeneutica, il linguaggio è presentato come struttura anonima e desoggettivizzante per eccellenza[80], che, nella filosofia analitica (Wittgenstein, Ryle), fa espressamente del soggetto (spirito) una nozione epistemologicamente inutile e insensata. Comunque, in tali correnti il soggetto non trascenderebbe, ma subirebbe il linguaggio come orizzonte della comprensibilità possibile (Gadamer); comunque sarebbe l’anonimo linguaggio che parla attraverso la “massa parlante”, che prefigura il golem.

Identica dinamica abbiamo nella psicanalisi, etnologia e nelle correnti strutturaliste vere e proprie, dove è affidato alle strutture il compito di mettere a disposizione dell’uomo, codici, archetipi, possibilità espressive e comportamentali, dimodoché ne venga esclusa a priori ogni possibilità per l’uomo di trovare un qualche valore, un qualche barlume di verità in se stesso (=il senso della soggettività).

Il linguaggio è presentato come dotazione originaria di tutte le possibilità espressive, sì che il soggetto risulti parlato dal linguaggio; oppure il linguaggio è presentato come dotazione originaria di tutte le possibilità comprensive (l’ermeneutica). L’inconscio viene teorizzato come dotazione originaria di tutte le possibilità espressive, comprensive e comportamentali (Lévi-Strauss, Lacan, Deleuze, Guattari, ecc.).

La struttura (vero super-ente metafisico) come insieme di regole anonime (=desoggettivizzate), che deterministicamente e inesorabilmente decidono la vita dell’uomo, assume nel Novecento varie configurazioni e le principali sono: l’economia marxista, il linguaggio (quale concepito da linguistica strutturale, semiotica, ermeneutica, filosofia analitica), l’inconscio. Ma infine anche la natura svolge tale ruolo, dal momento che a suo elemento si vorrebbe ridurre la soggettività[81].

Sono tutte queste teorizzazioni con il compito di impedire all’uomo di riconoscersi soggetto, per chiuderlo nelle dimensioni meramente orizzontali, dove non viva responsabilità e libertà, dove, non riconoscendosi soggetto, neppure riconosca l’elemento (scintilla) dignificante, che non lo destina a questo mondo (come vuole la retorica animalista della genetica scientificamente corretta), bensì ad una dimensione liberatoria e trascendente.

IX.3. NATURALIZZARE SPAZIO E TEMPO. Quale conseguenza del separarsi della scienza dalla filosofia e a corollario del suo percorso convenzionalista, improntato dalla rinuncia alla verità oggettiva, come criterio di validità ultimo di una teoria scientifica; in un processo, se possibile, ancor più radicale di secolarizzazione dei valori spirituali, che si attua come loro “naturalizzazione” (=attribuendo alla natura ciò che è specifico dello spirituale); nell’ambito di un progetto di cancellazione della soggettività -vengono naturalizzati gli elementi trascendentali dell’esperienza, nella prospettiva dell’empirismo assoluto (Mach, Avenarius), facendo di spazio-tempo variabili delle condizioni energetico-cinetiche dei corpi (Einstein).

Tutti i fatti osservabili sono osservati dal Soggetto entro coordinate spazio-temporali. “Trascendentale” significa che: “sempre e comunque un fenomeno è percepito spazialmente e/o temporalmente, e che quindi spazio e tempo sono condizioni del percepire (e non sono mai dei percepiti)”. Questi sono lo spazio e il tempo assoluti di Newton e Kant, a prescindere dal fatto che per l’uno[82] erano oggettivi, mentre per l’altro soggettivi .Lo spazio, in sé, non è curvo né piano, ma contiene entrambe le prospettive su cui poggiano geometrie euclidee e non euclidee. E’ lo spazio (trascendentale e assoluto, quale indicato da Newton e Kant e molti altri, ovviamente) che mi consente di percepire, raffigurare o anche solo pensare superfici curve o superfici lineari. Il tempo, come successione, non è veloce né lento, semmai potrà esserlo la sua misura, compiuta con una spazializzazione dei suoi momenti. Se come unità di base della misura del tempo adottassimo una clessidra, anziché lancette che coprono spazi brevissimi, ecco che avremmo un “tempo più lento”. E’ l’ampiezza dello spazio che deve percorrere lo strumento di misura del tempo a determinare la velocità di quest’ultimo. Ma il tempo in sé, il principio di successione, è, a sua volta, un trascendentale e un assoluto, come tale né veloce né lento. Lo spazio e il tempo (assoluti, trascendentali) non si incurvano né si contraggono, perché non possono essere confusi e ridotti alla loro misura. Non di curvatura dello spazio, semmai di curvatura del campo (elettromagnetico) si tratta, concetto quest’ultimo introdotto da Faraday ed esteso da Einstein per spiegare i fenomeni gravitazionali (campo gravitazionale). A meno che non si voglia sostenere che un terreno “si arrotola e si srotola”, come la fettuccia con cui lo si è appena misurato. Lo spazio e il tempo della fisica classica, in quanto trascendentali, non sono superabili né relativizzabili, perché anche i cosiddetti “spazio e tempo locali” sono individuabili e concepibili al loro interno.

Relativizzare, naturalizzando (=facendone elementi inframondani, dalla natura e quindi percepibili), spazio e tempo è lo stesso tipo di assurdità di chi dicesse che il principio d’identità è una proprietà energetica e locale dei corpi, e che in prossimità dei buchi neri si “indebolisce” ed “entropizza” fino a collassare. Il principio d’identità non si indebolisce, né restringe, né subisce vicende proprie dei corpi fisici, perché non è un elemento infranaturale, come non lo sono spazio e tempo. Il tempo è invece il ponte tra soggetto e natura e non può essere infranaturalizzato, come nella fisica della relatività, senza spalancare il baratro del caos epicureo, come si evidenzia negli epigoni. Detto in altri termini: il tempo desoggettivizzato equivale alla pretesa di introdurre discontinuità, indeterminismo[83] e caos in natura.

L’affermazione che il tempo inizierebbe a scorrere col Big-Bang non appare banale. Il momento prima dell’inizio del tempo non è forse un momento temporale? Quindi nel tempo? Voler segnare un inizio del tempo è impossibile, quanto la pretesa di voler segnare un momento in cui finirebbe il tempo.

IX.4. IL SECOLO DELLE PROCLAMATE INCERTEZZE. I termini chiave, più ripetuti, nel far riferimento alla cultura del Novecento sono quelli di “crisi dei fondamenti”, “crollo delle certezze”, “rottura degli schemi precedenti”, “smarrimento dei punti di riferimento”, “frammentazione della razionalità”, “disgregazione dei valori”, ecc. Dall’arte alla morale, dalla scienza alla politica, alla filosofia, non v’è settore dove non si enfatizzi ogni novità che arrechi incertezza. Anzi ogni novità è interpretata come fattore apportatore di incertezza, sia da parte di autori del secolo scorso, ma soprattutto da parte di chi oggi scrive sul Novecento. Crisi e incertezza sono le parole chiave per il secolo passato. Ma non tanto perché lo sia effettivamente, quanto piuttosto perché lo deve essere, allo stesso modo specioso e strumentale in cui ci dovremmo sentire (in maniera tutta “novecentesca” e post-moderna) incerti circa le misure del nostro tavolo, dopo le scoperte di Heisenberg, Bohr e Riemann. Forse la validità della geometria euclidea nel mondo della vita è stata inficiata dal fatto che in natura non si trovano rette e triangoli perfetti? Forse Pitagora ed Euclide non si erano accorti che l’esperienza è distante dalla perfezione ideale delle figure geometriche? Galileo e Newton non si erano forse resi conto dell’azione di disturbo delle condizioni di contorno, nelle dinamiche di causa-effetto? Ciò ha forse impedito di conseguire conoscenze e certezze nella Lebenswelt? Piuttosto lo scienziato classico si impegnava a guadagnare certezze, mentre nel modello (network) post-moderno pare si faccia a gara per l’obiettivo contrario[84].

Tutto questo non è reale, non solo nel senso che nel Novecento non ogni novità ha significato rottura, non ogni progresso ha portato incertezza, ma anche nel senso che non abbiamo fondati motivi, noi oggi, per sentirci privi di certezze e punti di riferimento, che vi sono in ogni settore dello scibile, persino in campo artistico ed etico (che paiono più colpiti). Ciò che invece è reale è che siamo attanagliati da una storiografia e una critica della crisi, nel senso che queste discipline, che dicono come dovrebbe essere visto il Novecento (artistico, letterario scientifico, filosofico, ecc), lo interpretano immancabilmente, appunto, come secolo delle grandi. crisi. E’ l’effetto di un network operante, una sorta di trend culturale, al quale immancabilmente i deboli di intelletto si accodano.

Una volta fatto passare questo modello di natura -votata al caos entropico-, diventa facile invalidare due metodi tradizionali del riferirsi ad essa, per scoprire le fondamentali leggi-regole dell’accadere dei fenomeni. Lo scardinamento del principio di uniformità, quanto al soggetto conoscente, comporta che il metodo induttivo, fondato sulle evidenze intuitive (empiriche) del saper riconoscere sotteso ai differenti fenomeni il ripetersi di una legge fondamentale, venga invalidato. Altrettanto inficiato è il metodo matematico della fisica classica galileano-newtoniana, con cui si esprimeva la prevedibilità razionale e universale di quanto intuitivamente colto nell’esperimento. Se la natura è contingente e storica nelle sue leggi, soggette all’instabilità evolutiva, ne segue che i criteri classici delle evidenze intuitive e del rigore logico matematico non saranno più validi per conoscerla.

A che cosa bisognerebbe affidarsi allora per conoscerla? Bisognerà affidarsi a complicati calcoli cibernetico-statistici, i soli in grado di esprimere la presunta natura frattale, instabile e squilibrata dell’Universo, cosa che il singolo non potrebbe fare, perché, si dice, vi sarebbero troppe variabili non ponderabili (condizioni di contorno), troppi fattori indeterministici, che sfuggono ai criteri “antiquati” della evidenza intuitiva e del rigore logico matematico. Così la conoscenza della natura viene dichiarata inaccessibile[85] all’uomo comune e la si riserverà ad altrettanto inaccessibili, incontrollabili e monopolizzati istituti statistici, i soli titolati a dire cosa accade in natura, come è la natura, se qualcosa è naturale o no. Una volta fatti passare come non idonei i criteri dell’evidenza e del rigore logico, coi quali ognuno può avere una conoscenza diretta della natura, invalidati dal propagandato modello entropico, nessuno potrà obiettare che quest’intervento o l’altro non si possono fare perché innaturali[86]. A quel punto lo stravolgimento della natura non conoscerà opposizione, perché quegli stessi che ne attuano lo stravolgimento si riservano i criteri (non più controllabili) per stabilire (secondo la scienza ufficiale, secondo quanto stabilito dalla “comunità scientifica internazionale” ecc.) cosa sia naturale e cosa no.

IX.5. CONVENZIONALISMO SCIENTIFICO. Parafrasando Einstein, che ha radicalizzato le posizioni del liberalismo scientifico di fine secolo XIX, si ripete che “le teorie scientifiche sono libera creazione dell’uomo e che le premesse su cui si fondano non sono derivate (derivabili) dall’esperienza”.

Le “premesse” in questione sono assunti dogmatici, in nessun modo corroborati dall’esperienza, ma adottati perché garantirebbero la spiegazione di tanti fenomeni, che altrimenti resterebbero inspiegati. E’ questo il procedimento contrario a quello induttivo, che (per quanto fornito di un apparato ipotetico), struttura, come nelle “sensate esperienze” galileane, l’esperimento in modo che ne risulti confermata o smentita una ipotizzata legge di natura, o meno presuntuosamente, una regola dell’accadimento dei fenomeni. Qui si resta aderenti alla natura e il rapporto è conoscitivo.

L’altro metodo lo diremo ermeneutico-deduttivo (Duhem; “costruttivo”, direbbe Einstein), perché conformemente all’assunto viene prospettata una interpretazione dell’accadimento fenomenico, indipendentemente da una strutturazione dell’esperimento che costringa la natura a confermare o smentire, e la cui reale struttura probatoria abbiamo visto essere la petitio principii. Tale procedimento metodologico, utile per dare rivestimenti ideologici alla natura, anziché per scoprirne le leggi, ritiene di avere solo l’obbligo della coerenza formale al suo interno, per apparire plausibile. E’ il caso dei postulati della relatività: 1) della presunta assolutezza della velocità della luce; 2) della presunta località di spazio-tempo (facendone, da elementi della coscienza, elementi infranaturali, giocando sullo scambio tra tempo e sua misura, come si è visto). E’ il caso delle variazione genetiche, presunte casuali da Darwin e presunte basi della nascita delle specie, per evoluzione, quando inserite in un contesto di selettiva lotta per la sopravvivenza. E’ il caso del complesso di Edipo, posto alla base dell’interpretazione di tutta una serie di fenomeni psichici.

Si dice che la ipoteticità di quei principi scomparirebbe a seguito di conferme che proverrebbero dai fatti stessi, e che quindi gli assunti si dimostrerebbero scientificamente fondati. In realtà, come si è visto, è solo l’illusione data dalla petitio principii, sottesa da tutta l’operazione a far credere questo. Si verifica insomma che ciò che dipende dall’assunto, quanto a configurazione interpretativa, lo si pretende far valere come fondamento della verità dell’assunto stesso. Come dire: “a”, che si appoggia ad “A”, lo utilizzo per sostenere “A”. Si noti la pseudoscientificità delle teorie scientifiche “liberali” (ossia convenzionaliste): mentre vi possono essere fatti che corroberebbero l’assunto dogmatico, si esclude che ve ne possano essere da inficiarlo. L’assunto “liberale” dice che le premesse non sono derivabili dall’esperienza. Questo significa non solo che la premessa non è responso di “sensate esperienze” o “cruciali esperimenti”, ma anche che essa sta al di là di possibili smentite da parte dell’esperienza[87].

Le teorie liberal-convenzionaliste sono non falsificabili direbbe Popper, e come tali, poiché sfuggono al giudizio dell’esperienza possono considerarsi teorie, ma non scientifiche. Esse della natura non dicono proprio nulla. Perciò, mentre il metodo scientifico classico, galileano, resta aderente alla esperienza (natura) e il suo rapporto è conoscitivo, nella scienza post-moderna, il collegamento all’esperienza è reciso e il rapporto (poiché il rapporto c’è) con la natura è manipolatorio (come la tecnocrazia appunto vuole). Allo scienziato post-moderno non interessa coglier le leggi di natura, bensì interessa una teoria operativa (pragmatismo) che gli consenta di fare certi interventi sulla natura, oppure di mutare l’edificio di certezze di massa A questo punto, c’è un grave rovesciamento metodologico: non sono più le teorie a poggiare su delle prove, bensì sono le prove ad esser costruite in maniera conforme agli assunti teorici. Siamo alla pop-science.

IX.6. LA TECNOCRAZIA TENTA DI UNIVERSALIZZARE IL CONVENZIONALISMO. Proprio per realizzare, nelle masse, la sostituzione di un sistema di certezze con un altro, quello voluto dalla forma tecnocratica di potere, nel corso del Novecento hanno trovato rilevanza mediatica-editoriale e quindi storica tutte quelle correnti culturali che presentassero una posizione di convenzionalismo gnoseologico, che storicamente è stato il primo passo verso la Grande Incertezza. Per questa operazione, l’elemento teorico costante che ha accompagnato come ombra teorie scientifiche, filosofiche, linguistiche, ecc., è stata la dissociazione di ogni rapporto di intenzionalità. La teoria scientifica, nata per intenzionare (=in riferimento strutturale a…) l’esperienza, se ne dissocia (con eufemismo: “si considera libera da”), ponendo le premesse per la convenzionalità-arbitrarietà della teoria scientifica stessa. Il linguaggio, come sistema significante di segni, si dissocia dall’oggetto significato, per dichiararsi convenzionale e arbitrario (da De Saussure, attraverso il Circolo di Praga, fino a Lacan), come tale: storicizzabile e plurale. La dissociazione tra pensiero e realtà è premessa per porre convenzionalità-arbitrarietà del pensare, che, tra poco (ma pare già in corso), non rispetterà nemmeno le più elementari leggi della logica; ciò indica maturo il tempo per la rinuncia alla verità, con cui sigillare e rendere compiuta l’opera di annullamento di ogni certezza nell’uomo contemporaneo. Rescindere in campo pratico, etico e politico, il rapporto di intenzionalità significherà, in questo caso, considerare utopia il raggiungimento del bene e del valore, per dichiarare puramente convenzionale e arbitraria l’azione etica e politica, che così sarà ritenuta già buona e valevole per se stessa, qualunque cosa si faccia.

La rescissione del rapporto di intenzionalità con l’oggetto, consente di porre la convenzionalità di qualsiasi sistema intenzionale, di dichiarare storiche e storicizzabili tutte le sfere della cultura e dell’attività umana, spalancando l’abisso dell’arbitrario e del gratuìto, che sono i modi in cui quel medesimo clinamen, che abbiamo conosciuto come “variazione e/o mutazione casuale”, come “fluttuazione termica”, “rumore bianco”, “risonanza”, ecc., fa la sua drammatica comparsa negli atteggiamenti culturali, pratici e di costume. Qui fluttuazioni e risonanze sono invocate e rappresentate (dalla letteratura, al cinema, alla moda) nell’azione gratuìta, discontinua e illogica (terreno preparato dai filoni “culturali” del non-senso), esemplificata nella insistentemente rappresentata esplosione di follia omicida; l’avvento di tale clinamen, nella vita reale, è aiutato dalla crescente diffusione di droghe e oscuri psicofarmaci, nonché dagli ossessivi modelli cinematografici e cibernetici.

I richiami alla storicità[88] e alla situazionalità –chiaramente opportuni, perché è innegabile che ogni attività umana è situazionata e storica- sono stati i cavalli di Troia grazie ai quali far apparire plausibile la rinuncia alla verità, per farsi così paghi delle briciole della insignificanza, della superficialità, dell’inutile e del contingente, ciò che è sintetizzato nel termine “post-modernità”e che in termini filosoficamente rigorosi si dice “morte spirituale”; quella che proprio nella rinuncia alla verità trova il suo sigillo.

Si chiama “riflessione critica sulla scienza” quella che avrebbe reso completamente esplicito il carattere intersoggettivo e linguistico del dato d’esperienza, negando ogni valore assoluto alle proposizioni che si riferiscono ai dati empirici. A questa riflessione critica (Circolo di Vienna) bisogna dare atto quando ci fa notare che il puntino luminoso che vediamo in cielo e che chiamiamo “stella”, viene così chiamato e questo significa per convenzione sociale e storica (o per accordo della cosiddetta “Comunità scientifica internazionale” ). Quelli che chiamiamo “oggetti di esperienza” hanno i loro significati per accordo linguistico, convenzionale, sociale e storico; essi perciò, un bel giorno, potrebbero significare tutt’altra cosa.

Ma attenzione: che A è uguale ad A; che il contraddittorio è insignificante; che la metà è minore del tutto; che la retta è la via più breve tra due punti (anche su una sfera; infatti, la geodetica è il tunnel che li congiunge!); che ogni esperienza è spaziale e temporale (o, almeno, solo temporale) e come tale sarà matematizzabile -sono questi assiomi o protocolli che non hanno bisogno di alcun consenso sociale. Su di essi ogni uomo, autonomamente, asocialmente e astoricamente, può fondare la basi di una scienza. Quegli assiomi-protocolli stanno alle mutevoli condizioni sociali e linguistiche come la struttura sta alla sovrastruttura. Ogni uomo che disponga di razionalità possiede le chiavi strutturali di ogni scienza e in questo non ha bisogno di recarsi presso la “Comunità Scientifica Internazionale”, né presso i fabbricanti di consenso per farsi dire a quali condizioni si abbia della vera scienza. Anzi: finché quell’uomo resta stabile nel suo patrimonio di razionalità, egli può esser giudice e controllare se quanto viene propinato dall’apparato mediatico ed editoriale sia scienza o pop-science.

Senonché, dai professi del pensare debole ai decostruttivisti, dai convenzionalisti ai pragmatisti, dagli utilitaristi all’ermeneutica….tutti si danno da fare per espropriare l’uomo degli universali e razionali assiomi-protocolli, cercando di fargli credere che anche questi sarebbero un “gioco linguistico” tra i tanti, come tale fungibile, storico e convenzionale. In una maniera del tutto simile a come si sono compiute le privatizzazioni (svendita di industrie e partecipazioni di Stato, che erano l’ombrello sotto cui la parte più debole del popolo si teneva al riparo dalle feroci dinamiche neoliberiste), questi “pensatori” hanno propugnato la riduzione di tali assiomi-protocolli a elementi meramente convenzionali e linguistici, promuovendone la svendita-privatizzazione all’élite che, possedendo i media, fabbrica il consenso, i nuovi linguaggi e direziona la “Comunità Scientifica Internazionale”. E così come i protagonisti delle svendite-privatizzazioni in economia si sono garantite fulminee carriere politiche e/o ricchezze, altrettanto, quelli che teorizzano un esproprio dell’uomo dei principi di universale razionalità si garantiscono la loro fetta di notorietà e poteri accademici, proprio per aver screditato il fondamentale principio democratico di controllo di ciò che è scientifico da ciò che non lo è[89].

La validità e l’importanza della matematica stavano e stanno nel suo duplice incardinamento: 1) a parte subjecti, nella logica, che ne garantisce i fondamenti razionali e universali, imprescindibili per la scientificità, poggianti su assolute evidenze intuitive (A non è B; non esistono due enti identici; la parte non è uguale al tutto, ecc.); 2) a parte objecti, nella natura; nel senso che ciò che scopriamo matematicamente, operando con puri enti mentali, anche vale per enti empirici, senza che se ne debba fare prima la prova. Ciò significa, in altri termini, che la matematica garantisce conoscenze sintetiche a priori.

Durante il cosiddetto “dibattito sui fondamenti” la matematica viene picconata, a parte ante, scardinandola dalla logica (D. Hilbert ed epigoni), riducendola così ad apparato meramente formale, convenzionalisticamente fungibile con altri apparati, poggianti su accordi simbolici e/o segnici, ovvero operazionali. A parte post, di essa se ne scardina la intrinseca connessione con la natura, negando che le sue proposizioni abbiano valore sintetico a priori, e in questo modo essa è ridotta a mero apparato tautologico (G.Frege).

Nella stessa direzione va la corrente fisicalista (O. Neurath, R. Carnap) del Circolo di Vienna (che nella sua internazionalizzazione “feconderà” pragmatismo e filosofia analitica), la quale ridurrà linguaggio e teorie scientifiche a meri apparati formali, come tali fungibili e storici.

Tutte queste teorizzazioni vanno, guarda caso, in una sola direzione: esse gettano le basi per arrivare, come oggi, a ridurre geometria, matematica e logica a meri sistemi formalizzati, la cui assiomatizzazione soggiacerebbe a una convenzione, come tale basata su un consenso sociale, come tale in potere dell’élite finanziario-tecnocratica, che, possedendo i media, fabbrica consenso, linguaggi, simboli, nonché direziona la “Comunità Scientifica Internazionale”. Slogan e filosofemi promossi attraverso media e “Comunità Scientifica Internazionale”, una volta lanciati, trovano schiere di pseudo-pensatori che fanno da altoparlanti alla nuova forma di potere, in un processo a cascata verso il basso, la cui continuità ed efficacia è garantita dalla crescente diffusione dei “corsi di formazione”, nei quali, lungi dallo educare[90], si programmano il pensiero e l’azione dei robot, affinché divengano i primi esecutori della propria espropriazione, nonché i suoi guardiani. Non può darsi vero pensatore o vero ricercatore che non abbia la forza per la controcorrente e il coraggio per la solitudine.

Essi hanno lanciato la parola d’ordine “desoggettivizzazione”, a cui tutti corrono a prestare opera, nella filosofia, nella scienza, nell’arte, nell’etica…I più non sanno esser quella una struttura-network che pensa attraverso quelli che credono di pensarla, sì che ogni tematizzazione della “morte del soggetto” è subdolamente autobiografica, insidiosamente perifrastica passiva: ”sono pensato come soggettività morta”…

IX.7. SCREDITARE IL PRINCIPIO DI UNIFORMITA’. Nell’ottica del duplice obiettivo: 1) destrutturare il sistema di certezze tradizionali, fondate prioritariamente sulla regolarità dei fenomeni naturali, e 2) dare un nuovo paradigma di natura, che faccia apparire indispensabile l’intervento tecnologico; il principio maggiormente preso di mira è proprio il principio di uniformità, ossia il principio secondo il quale i fenomeni naturali, pur essendo ciascuno di unicità irripetibile, hanno tuttavia una ricorrenza, nell’accadimento sempre nuovo, che consente di desumerne, per via induttiva, regole, sulla cui inviolabilità possiamo contare, e che quindi ci consentono di edificare un sistema di certezze. Esempio: per quanto diversi e unici siano l’acqua, la fiamma e la pentola, tuttavia, ogni volta che la pongo sul fuoco, essa bolle. Da Hume a Mach, ci viene detto che questa regola non è una legge universale, che non siamo sicuri della sua consistenza ontologica, che non abbiamo certezza assoluta che domani si ripeterà il fenomeno. Ben detto. Le certezze, si sa, non sono assolute, infatti si chiamano “certezze” e non “verità”; tuttavia sapere che domani l’acqua sul fuoco bollirà al 99%, e più, delle probabilità, perché a memoria d’uomo non si registra caso in cui l’acqua non abbia bollito, se posta sul fuoco, ci dà una certezza incrollabile e quindi punti di riferimento sicuri per la nostra vita.

Sulla certezza della uniformità della natura si sono edificate le grandi civiltà dei popoli naturali, le culture del mondo rurale (che è sempre stato nelle mire dissolutive del marxismo, del liberalismo e ora della tecnocrazia, che dei primi due è il naturale sviluppo), e la stessa scienza occidentale moderna. L’essenza delle grandi civiltà asiatiche, ad esempio, dal mondo vedico, al taoismo, alla civiltà greca erano permeate di due valori fondamentali: quelli dello spirito, che ne ispiravano le finalità; e quelli riferiti alla regolarità dei fenomeni naturali, a cominciare dalle stagioni, che ne consentivano durevolezza e sostentamento. Le cosiddette irregolarità della natura erano viste –perché lo sono- nella cornice della regolarità. Anche l’attuale surriscaldamento terrestre, che pare irregolare, è in realtà inscritto in un ciclo di regolarità, avendo anche in passato la terra conosciuto simili riscaldamenti.

IX.8. INTRODURRE IL TEMPO LINEARE. Senonché, nel tentativo di diffondere un nuovo paradigma di natura, quale la tecnocrazia esige, si tenta di screditare il fondamentale principio di uniformità, ricorrendo ad una branca marginale della fisica, ossia alla termodinamica nel suo II principio. Mentre il I principio riguarda anche la natura (come principio della conservazione dell’energia), il II riguarda fondamentalmente le macchine termiche, nella misura in cui si riferisce a un sistema chiuso, perciò usiamo l’aggettivo “marginale”. Non tutta l’energia necessaria al funzionamento di un’automobile viene utilizzata per compiere il lavoro richiesto, molta di essa si disperde come calore. L’energia elettrica necessaria a far funzionare un rasoio si disperde nel lavoro eseguito e nel calore che inevitabilmente si sviluppa. Il II principio, per tali sistemi chiusi, sancisce l’irreversibilità del processo. Un’irreversibilità simile a quella dei fenomeni storici. Mentre l’energia si conserva costante nel corso delle sue trasformazioni, dalla sua degradazione in calore non ci è possibile tornare alla forma primitiva. Questo processo entropico avrebbe i caratteri della caoticità, essendo il calore un movimento “caotico” di particelle. Il modello teorico che ne deriva (il modello entropico appunto) afferma che l’energia e la materia sarebbero segnate da un vettore che, inesorabilmente e irreversibilmente, porta al caos. Se ne ricava infine un modello di universo che, dopo il presunto Big Bang (prodottosi, secondo gli esperti, 15-20 miliardi di anni fa), correrebbe irreversibilmente verso la morte termica (Waermetod, il massimo dell’entropia), in una visione assolutamente lineare del tempo[91].

Eppure, in Natura, ciò che rende possibile una regolarità e uniformità dei fenomeni, e quindi la stessa scienza, è proprio un andamento ciclico del tempo, che consente di racchiudere ogni novità e apparente disordine nella ricorrenza e nella conformità a leggi. La legalità (=conformità a leggi o regole) dei fenomeni naturali è possibile solo nella ciclica staticità dinamica del tempo, che ha dato stabilità, solide basi e sicurezze alle grandi civiltà, che vivevano in rapporto armonico o simbiotico con la natura, il cui tempo e calendari erano ciclici. Il futuro come tale, l’assoluta novità, ciò che non è mai stato, sono le categorie della caoticità e della sovversione pura, che non esistono in natura, dove tutto è destinato a ritornare, pur senza ripetersi. Attribuire alla natura un tempo lineare di tipo termodinamico è la fondamentale categoria manipolatoria della scienza post-moderna.

IX.9. STORICITA’ DELLE LEGGI DI NATURA. Appellarsi al II principio della termodinamica è servito per insinuare una visione lineare del tempo in natura, che screditi alla radice il principio di uniformità dei fenomeni. Inserita la natura sul binario del tempo lineare (che conduce verso il massimo di entropia, ossia verso il caos morfologico e il collasso energetico) le sue leggi possono esser fatte apparire come storiche e storicizzabili, e questo consente finalmente di propagandare la presunta anomicità del fenomeno naturale, che prepara il terreno all’avvento delle politiche tecnocratiche.

Una volta che la natura sia fatta apparire come non uniforme, una volta che le sue leggi sian fatte apparire come storiche e contingenti (evolutive), ecco che non avrà più senso appellarsi alla loro inviolabilità, perché esse apparirebbero episodiche e rapsodiche (“deboli” direbbero i collaboratori della Grande Incertezza). Solo con questa operazione ideologica si può togliere terreno argomentativo a chi si opponga agli stravolgimenti più pericolosi (come la creazione dei mostri della genetica), appellandosi alle leggi immutabili che governano l’Ordine Naturale. Questi teorici hanno così preparato il terreno per rispondere che l’ordine naturale sarebbe storico e contingente (sempre in barba alla Lex continui), dando a credere che il fenomeno sia perfettamente anomico e che così l’azione tecnologico-manipolatoria dell’uomo si inserirebbe in esso attivamente, senza violare nulla. Non dovendo rispondere a un ordine oggettivo e uniforme, trattandosi invece di un divenire caotico (Monod), indeterministico e squilibrato (Prigogine), mai stabile e proiettato al futuro (Bergson), ogni manipolazione tecnica sarebbe legittima, anzi opportuna, perché agirebbe secondo un progetto intelligente, laddove la natura sarebbe caotica (=darwiniane “variazioni casuali”e “risonanze”).

IX.10. IL DISTURBO DELLE CONDIZIONI DI CONTORNO (COMPLESSITA’). Il lavorìo di dissoluzione può non applicarsi direttamente all’idea di uniformità dei fenomeni naturali, ma a quella che ne è l’immediata e più importante conseguenza e cioè il principio deterministico-causale che consente la scienza, intesa come predizione e calcolo di ciò che accadrà. Ecco allora che si invocano le “situazioni di contorno” come ciò che inficerebbe la predittività di un sistema, invalidando,in tal modo, da ultimo, il modello causale per studiare i fenomeni della natura. I fenomeni naturali non sarebbero più matematizzabili[92]e predicibili, a causa del disturbo apportato dalle condizioni di contorno al nesso tra causa ed effetto, per cui nell’effetto non sarebbe più riconoscibile l’apporto della causa (i fenomeni naturali sarebbero anomici). E allora, il nostro approccio deterministico alla natura non sarebbe più valido, e questo promuoverebbe il passaggio ad un modello di universo, caotico, evolutivo.

Insomma, si ritorna al solito modello meteorologico, per veicolare il modello post-moderno, essendo la meteorologia un sistema deterministico, ma impredicibile, nel quale è così rilevante l’incidenza delle condizioni di contorno, che possono amplificare o ridurre l’importo specifico delle cause e quindi introdurre deviazioni in quello che sarebbe il corso regolare (l’effetto “farfalla”)[93]. I fenomeni riconducibili a corso legale, e quindi deterministici e predittivi, si dice che sarebbero un aspetto della realtà, mentre sarebbero prevalenti quelli deterministici non predittivi (meteorologia), oppure quelli non deterministici non predittivi (come l’andamento dei fluidi o il movimento delle particelle) e questo giustificherebbe un approccio alla “conoscenza” della natura prevalentemente probabilistico, statistico e frattale.

Ma che cosa vuol dire che i fenomeni non predittivi (sia i deterministici che i non deterministici) sono un aspetto prevalente della realtà? L’affermazione è sostenuta da un argomentare specioso per due motivi: 1) Il tempo meteorologico non è in sé un modello “prevalente” del funzionamento della natura. Può diventare “prevalente”, a seguito di un interessamento ad esso della società umana. E tuttavia il mondo rurale, avvalendosi di “indizi” incomprensibili alla mentalità scientifica corrente, aveva le sue tecniche di previsione meteorologica (ossia aveva individuato gli attrattori in cui il fenomeno ha ricorrenza), che la scienza tecnocratica -acerrima nemica del mondo rurale e tradizionale– ha interesse solo a screditare, perché, con la valorizzazione di quei metodi, anche valorizzerebbe un modello ciclico, sintropico, vivo e risanante di Natura, che è invece suo obiettivo abbattere. 2) La vera fallacia argomentativa, tuttavia, sta nell’assumere una visione scientifica della realtà, ad esempio, quella della fisica delle particelle o della cinetica dei gas (come tali impredicibili), per “sommarla” a quella della realtà (questa intesa come Lebenswelt; ciò che cade sotto i cinque sensi) ed affermare che sono prevalenti i sistemi impredicibili. E’ una specie di anatocismo probatorio. Sarebbe come se la staticità del tavolo, quale risulta ai cinque sensi, la sommassi alle grandi velocità degli elettroni degli atomi che lo compongono e quindi facessi la media, concludendone che il tavolo non può essere utilizzato, perché in stato cinetico, dunque instabile.

IX.11. CROLLO DELLA FISICA CLASSICA? La scienza è scienza dei fatti osservabili (Heisenberg) con i cinque sensi, e la massima parte dei fatti osservabili risponde proprio ai principi del meccanicismo deterministico classico e alla geometria euclidea. Il soggetto che coi cinque sensi osserva i fatti costituisce un sistema di riferimento privilegiato, anzi questo è il sistema di riferimento. Tuttavia una divulgazione scientifica che potremmo dire tendenziosa, a partire dalle scoperte della fisica delle particelle e/o delle alte velocità, a partire dalla teoria cinetica dei gas, a partire dalla non integrabilità dei fenomeni di risonanza, ne indica il complessivo significato storico come “crollo dei fondamenti della fisica classica”[94].

Ma gli oggetti del nostro mondo continuano ad essere quelli che rispondono ai criteri della fisica classica. La scoperta e lo studio nel corso del XIX secolo di fenomeni elettrici, magnetici e termodinamici, nella misura in cui sono irriducibili ai principi della meccanica classica, di questa ne inficiano solo un eventuale pretesa universalità, non certo il valore generale su cui fondare gran parte delle nostre certezze quanto a conoscenza della natura. Se Galilei e Newton si fossero fatti inibire dall’idea che non avrebbe avuto senso isolare i fenomeni della natura in condizioni ideali e astratte (da laboratorio), che non compaiono in natura, dove i gravi cadono sempre in condizioni di attrito, con accelerazioni che variano a seconda che a cadere sia una pergamena, una piuma o una pietra. Se si fossero fatti irretire dall’idea che il concreto è sempre di una complessità irriducibile, mai lineare e come tale imprevedibile –pelose cautele della dissolutoria fisica della complessità-, certamente non avrebbero scoperto alcuna legge di natura; nessuna di quelle che confermano la regolarità della natura (anche risultante al mondo della vita), e che solo le “sensate esperienze” nella loro “astrattezza e idealità” potevano consentire. La diffusione di tali miti inibenti ha avuto ed ha come effetto quello di screditare metodi come l’approssimazione lineare e il principium reductionis, che, nello studiare un moto prescindendo dalle condizioni di disturbo, oppure studiando una circonferenza riducendola ad un poligono di innumerevoli lati, oppure approssimando un terreno a un triangolo rettangolo, consentivano tanto di cogliere le fondamentali leggi della natura, quanto di poterla studiare matematicamente e geometricamente.

Per spalancare le porte all’approccio statistico e insiemistico della natura, come tale da riservare ad “accreditati” e monopolizzati istituti di statistica, come tale manipolabile in funzione degli indicatori statistici adottati, e che consentisse di veicolare un modello di natura caotico ed instabile, quindi bisognoso dell’intervento tecnologico, bisognava cercar di screditare il capolavoro metodologico della scienza sperimentale moderna.

L’affermazione che l’aver espresso le leggi della natura in termini di certezze e di prevedibilità, come ha fatto la fisica classica, avrebbe costituito la pretesa del pensiero umano di porsi da un punto di vista divino; che una visione della natura regolare e matematizzabile in termini di traiettorie sarebbe stata una idealizzazione da laboratorio; che tutto questo vada visto come la pretesa di un “pensiero forte” di proiettare sulla natura le proprie idealità metafisiche, dietro alle quali si nasconderebbe, ancora una volta, l’ambiziosa soggettività cartesiana ; ecc. –sono quelli gli slogan destinati a trovare tanti utili ripetitori, inconsapevoli che chi li lancia, dietro una apparente posizione umile, desoggettivizzata e “debole”, ha in realtà progettualità sulla natura ben più arroganti di quelle indebitamente attribuite alla fisica classica. Essi propagano un’immagine della natura che riflette puntualmente, come abbiamo cercato di mostrare, una radicale volontà manipolatoria, che può esplicarsi solo veicolando un modello post-moderno, statistico, instabile[95],ecc.

IX.12. IL MONDO DELLA VITA. Perché per la fisica, come per la geometria non dovrebbe esistere un “punto di vista privilegiato”? Non è il risorgere di una pretesa di tipo metafisico quella che vorrebbe una fisica valida “per ogni sistema di riferimento”, dove con quest’ultima espressione in realtà si pretende (una quanto mai improbabile) astrazione da ogni riferimento soggettivo? La scienza è scienza–dei–fatti–osservabili; come tale implica due elementi fondamentali, mancando uno dei quali non è più scienza; e cioè: l’insieme dei fatti (natura, esperienza) e un soggetto che li percepisce coi cinque sensi entro coordinate spazio-temporali. Il tentativo di cancellare questa dualità, su cui si fonda il rapporto di intenzionalità tra soggetto e fatti osservabili, è una costante della riflessione epistemologica del Novecento; ciò si verifica a partire da Mach, che tenta di dissolvere la dualità soggetto e fatti osservabili nella nozione di “elemento”, passando per Einstein che si propone di elaborare una fisica che dovrebbe esser valida a prescindere da qualsiasi riferimento privilegiato (=come se il soggetto non ci fosse), fino a quelle correnti che, da Whithead in poi, invocano sistemi scientifici nei quali il soggetto sia visto come un elemento nella natura (in sostanza un modo per ritornare agli “elementi” di Mach; ci sarebbero cioè solo i fatti, senza chi li osserva!)

Ecco come si tentano di inficiare i criteri di certezza legati a una visione della natura centrata sui cinque sensi e sul loro strutturale modo di percepire spazio-temporale, che intuitivamente coglie che la via più breve tra due punti è la retta, che per un punto esterno a una retta può passare solo una parallela, che i metalli riscaldati continuano a dilatare, che i fenomeni fisici e biologici sono inseriti in un quadro di uniformità, regolarità e prevedibilità, che sottendono un tempo circolare in natura. Dietro al proclama “dibattito sui fondamenti” stava celato il progetto di “scardinamento dei fondamenti”, destinato a produrre la Grande Incertezza (che –avrete capito- precede la Grande Tirannide) e quindi la sostituzione della scienza con la pop-science, tra le altre cose.

Aver scoperto che il tavolo, come l’Universo, sono anche composti di particelle non mette capo a una conoscenza che possa sostituirsi o che si possa anche solo ritenere prioritaria rispetto a quella fondata sui cinque sensi che ci aprono al mondo-della-vita, nella quale i modelli classici (galileano, newtoniano, euclideo), coi loro principi di uniformità, causalità, induzione e matematizzabilità, ci consentono di orientarci adeguatamente e di fondare certezze. Quelle presunte acquisizioni, la cui assunzione parrebbe richiedere l’invalidamento del modello classico e quindi lo scardinamento del sistema di certezze che su di esso riposa, sono da ritenersi piuttosto mistificazioni, come ogni altra che pretenda invalidare il punto di vista privilegiato per la scienza, che è appunto il mondo della vita, quale il soggetto umano percepisce coi cinque sensi.

L’uso strumentale di nuove scoperte scientifiche finalizzato a inficiare (sovvertire) i criteri di certezza propri del mondo della vita sono da riguardarsi come fenomeno politico, anziché scientifico. Del resto non sarebbe scienza quella che dichiarasse irreale quel mondo della vita a cui essa è intenzionalmente rivolta al suo nascere e costituirsi. Per intenderci, prendiamo un esempio: del cibo abbiamo scoperto numerosi aspetti chimici, ma potremmo scoprire e/o considerarlo sotto il profilo energetico (non si sta intendendo le calorie), oppure scoprire che in esso operano altri paradigmi ancora. L’aspetto chimico o energetico del cibo non possono sostituire o divenire prioritari rispetto al fatto del cibo che consumiamo e riconosciamo coi cinque sensi; essi non possono arrivare a pretendere di dichiarare illusorio o errato il bisogno di cibo, illusorio o errato il modo di riconoscerlo, illusoria o errata la soddisfazione e la buona salute che conseguono dall’aver assunto buon cibo[96].

A chi di questo non fosse convinto, poiché spesso accade che si sia convinti a parole di quello che si nega nei fatti, facciamo un invito. Anche il cibo, come il tavolo e l’universo, ad un’indagine microscopico-chimica, appare totalmente diverso da come se lo figurano i cinque sensi, infatti si osservano proteine, vitamine, amidi, ceneri, minerali in certe percentuali; ebbene, a chi ritenga esser questa la natura del cibo (tale che la sua scoperta metterebbe in crisi, come si suol dire, il modello tradizionale della visione comune), diciamo di alimentarsi per un periodo, anziché col grano, con le corrispondenti percentuali di carboidrati, vitamine, proteine, ceneri ecc., ossia, non chicchi di grano, ma la loro versione da laboratorio. Ciò che accade si sa già, perché sperimentato e tentato con gli astronauti: alla lunga ci si ammala. Ma la cosa è poco pubblicizzata, per non creare sfiducia nella scienza tecnocratica.

Senonchè il nostro organismo, che non ha subìto il disorientamento portato dalla Grande Incertezza, indica che la visione e versione da laboratorio non è reale, che può essere un aspetto della realtà “cibo”, ma marginale e che la realtà è infinitamente più complessa; e chi maggiormente si avvicina ad essa sono gli eccezionali e insuperabili cinque sensi, quelli della tanto snobbata visione comune. Solo coi cinque sensi cogliamo quella fragranza, freschezza, profumo, dolcezza, colore di qualcosa, che diventa per noi buon cibo e come tale salubre. Decine di strumenti di laboratorio non hanno la capacità di discernere ciò che è buon cibo, da ciò che non lo è, con la stessa efficacia; mancherà sempre qualcosa.

Se il nostro organismo smentisce e ricusa il cibo da laboratorio che fa ammalare, possiamo pretendere che la visione chimica e da laboratorio sia quella reale o prevalente tale da poter sostituire la visione propria dei cinque sensi? Possiamo dire che, dopo la scoperta di alcuni elementi chimici del cibo, è entrata in crisi la visione del cibo propria dei cinque sensi? Che questa è stata superata? Alla prova dei fatti no. Allora perché dire che sarebbe superata la visione galileano-newtoniana della natura, dopo che si è scoperto che il tavolo e l’universo sono fatti di particelle e di “complessità”, la cui conoscenza è quanto mai…. indeterminata? Perché dire che non esisterebbe un punto di vista privilegiato nella natura tutta?

Il vero scopo di tante vuote teorizzazioni è stato politico, cioè quello di produrre la Grande Incertezza: perché il cibo dal non cibo e il cibo buono dal cattivo si riconosce coi cinque sensi, così come conosciamo determinatamente le misure del tavolo che risponde perfettamente ai criteri della geometria euclidea, alle leggi della statica e della gravità, come il resto dell’universo osservato coi sensi.

IX.13. LA VITA TRASCENDE LA MATERIA.. Il chicco di grano è infinitamente più dei pochi elementi chimici che sono stati individuati tra i suoi componenti, così come la vita è infinitamente più della materia di cui si supporta, ecco perché il riduzionismo sotteso dagli esperimenti di biopoiesi a partire dalla chimica, non darà esiti. La comprensione materialista spiegherà ben poco di quella che è la ricchezza, complessità, profondità della vita di un semplice filo d’erba. Ma nonostante la palese ignoranza, la scienza tecnocratica mostra saccenteria nei confronti della vita e sono arrivati finalmente quelli che dicono di poter migliorare geneticamente il chicco di grano, quelli che dicono di saper fare meglio della natura. La quale è da loro imputata di fare le cose a casaccio, e cioè produrrebbe le variazioni casuali, scoperte e rivelate da Darwin. Essi non sanno produrre (creare) il filo d’erba, né il chicco di grano in laboratorio, ciononostante assicurano di poterlo “migliorare geneticamente”.

In realtà, il vero miglioramento genetico del cibo lo ha fatto la natura, in collaborazione con il mondo rurale, che ha adattato in profondità ogni specie animale e vegetale a innumerevoli e molto specifiche nicchie ecologiche, come i pistacchi di Bronte, la cipolla rossa di Cannara, l’agnello di Zeri, ecc., solo per nominare alcune specie italiche. Come lamarckianamente la funzione ha sviluppato l’organo, così la nicchia ecologica, assieme al contadino, ha nei millenni forgiato e migliorato geneticamente le specie. Non a caso, oggi, sono questi i cibi forniti di marchi speciali, che li rendono costosi sui mercati e quindi riservati alle élites del denaro. Probabilmente ricercati da quegli stessi accademici in vista e premi Nobel incaricati di convincere la gente, con pubbliche dichiarazioni e manducazioni, a mangiare OGM[97]. La gente in realtà fiuta che si tratta di cibo spazzatura, cioè di specie peggiorate geneticamente, come è anche provato dal fatto che è cibo raccomandato per i bambini poveri del terzo mondo. E’ cibo di serie “D”, usato anche come mangime per le bestie, tuttavia è brevettato, e i bambini poveri, prima di riempirsene la pancia, dovranno pagare i diritti d’autore (ovviamente sotto forma di tasse allo stato, che firma le commesse con una mano, mentre con l’altra destruttura le economie di sussistenza, come richiesto dagli istituti finanziari internazionali).

La supponente scienza tecnocratica, che ritiene di aver individuato nel genoma di molte specie “geni spazzatura”, “geni che non servono a niente” (sic!), può solo peggiorare geneticamente il chicco di grano, ma tanto basta per rivendicarne un brevetto, e selezionare-adattare così, darwinianamente, il chicco di grano al mercato azionario, rendendo la vita impossibile a chi non ha dollari nemmeno per il cibo spazzatura.(Il “lavoro” di questi “scienziati” contribuisce a sostituire presso i popoli la dipendenza dalla terra con la dipendenza globalizzata dal credito, estremo suggello della tecnocrazia).

X CONCLUSIONE. L’attuale sistema di potere tecnocratico-finanziario non sopporta più la visione laplaciana, meccanicistico-deterministica della natura, retta da precise leggi, che regolano l’accadere dei fenomeni. Al suo scopo, per un governo cibernetico-elettronico della natura, per farne una risorsa economica e indicizzarla in borsa, esso ha bisogno di una visione dinamica, che evidenzi l’aleatorietà dell’accadimento, in modo che questo, apparendo incontrollabile e/o minaccioso[98], faccia ritenere necessario, e infine messianico, l’intervento tecnologico costante. A tal fine non si poteva non dar risalto a quella branca della fisica che è la termodinamica e quindi tutto il risalto editoriale, mediatico e accademico a quegli interventi che evidenziassero la “crisi del modello classico”, “la crisi del meccanicismo”, “la crisi dei fondamenti”. E’ in questo quadro che si è dato parossistico risalto (al di là della fecondità dei risultati) alle geometrie non euclidee, al principio d’indeterminazione, alla meccanica quantistica, alla teoria della relatività, alla fisica della complessità; ciò si spiega nel quadro di una strategia politico-sociologica volta a mutare nelle masse l’immagine della natura: non più regolare, costante, puntuale e rassicurante; ma squilibrata, imprevedibile, asimmetrica e minacciosa. Solo questo riesce a far apparire salvifiche le manipolazioni tecnologiche (delle foreste, del clima, del genoma, ecc…). La conoscenza della natura, in quanto questa sarebbe squilibrata, asimmetrica ed evolutiva, va perciò affidata ai principi del calcolo statistico e quindi alla manipolazione statistico-mediatica[99], al pari degli altri fenomeni sociologici ed economici. Il fenomeno della natura va sottratto all’intuizione diretta dell’uomo comune, col pretesto che la sua conoscenza, in quanto instabile e imprevedibile, può essere affidata solo a complessi algoritmi, cibernetico-statistici, che tengano conto delle tante variabili, rappresentate dalle condizioni di contorno.

Eliminare l’intuitivo dalla fondazione della scienza (come per la geometria) o il riferimento ai fenomeni osservabili (come per fisica e biologia) ha costituito uno dei passi più importanti di questo processo che deve sbarrare all’uomo l’accesso diretto alla conoscenza, affinché per lui sia conoscenza solo ciò che il sistema mediatico gli dà a credere. Non a caso, le punte più avanzate della riflessione epistemologica vogliono ricondurre la scienza dalla categoria del razionale a quella del “ragionevole”, dove cioè vi sia ampio spazio per il ricorso a strumenti retorici di persuasione (perché non anche agli effetti speciali, del cinema e del virtuale?). Così la scienza, da apparato rigoroso di prove basato sull’elemento intuitivo, logico, esperienziale, dovrebbe avvalersi di artifici retorici per convincere, anzi, a detta di taluni, perfino gli imbrogli sarebbero buoni se servono a convincere. Il disfacimento della scienza nel Novecento, in cui quasi tutti si sono dati da fare nel proclamare la “crisi dei fondamenti”, ha condotto alla sua riduzione a credenza di massa nel nuovo Millennio. Il credulo globale è compulsato da spot, programmi e riviste ( che esaltano i presunti miracoli della tecnologia) a credere che sia scientifico il controintuitivo, l’illogico e teorie sulla natura sganciate da ogni riferimento ai fenomeni. Mentre il 90% di quello che oggi è in circolazione come “scienza” non è che una sorta di bolla speculativa, tenuta in piedi da pompaggi mediatici.

X.1. La constatazione che esistono in natura “sistemi instabili” (come il tempo meteorologico), il cui andamento imprevedibile (stando ai criteri del determinismo) consente un approccio solo probabilistico, ha portato vari autori a estendere alla natura tutta e alla storia le idee di instabilità e imprevedibilità: una sorta di libertà indeterministica, di forte marca bergsoniana, ma, prima ancora, epicurea. Leggi che rompono la simmetria governerebbero la natura, la quale, prospettata come un tale sistema instabile, non può non apparire bisognosa di essere governata con la tecnica (=”gestire i processi evolutivi”), essendo proprio dei sistemi instabili l’esito entropico-caotico. La natura, come presunto sistema instabile (materia) e dissipativo (biosfera) correrebbe verso il collasso termodinamico. Come possono dunque i popoli della terra non accettare anche le più pensanti manipolazioni tecnologiche dell’ambiente, visto che questo sistema “uomo-ambiente” è così instabile e votato al suicidio?

Agli stessi effetti psicologici e intellettuali conduce l’affermazione della presunta evolutività dell’universo nelle stesse leggi che lo regolano[100]. Un giorno i metalli potrebbero restringersi se riscaldati, l’acqua bollire solo a 33 gradi, i gravi “cadere” dal basso verso l’alto; cosa può premunirci contro tali evenienze se non la tecnica? Il procedimento consiste quindi nel creare incertezza radicale, per ottenere la reazione prevista e indotta di affidamento messianico alla tecnica. (Effetti simili si possono creare paventando la minaccia di un asteroide, che potrebbe colpire la terra; oppure paventando la minaccia extraterrestre).

X.2. Ci si consenta di definire almeno “ingenui” coloro che ritengono –come molto spesso accade- di poter confutare l’evoluzionismo, ricorrendo al “principio entropia”. E’ una sorta di illusoria alternanza, quasi fosse un “sistema maggioritario”, quella data dalle due teorie “scientifiche” prevalenti in campo, dove l’aderire all’una o all’altra fa comunque l’interesse di chi le tiene in piedi entrambe.

Si tenga presente che il “principio entropia” ha anche la funzione di bocciare, sul piano teorico, le ricerche sulla free energy, sempre boicottate. Questo è stato il grande non-evento scientifico-tecnologico del Novecento: la costantemente mancata rivoluzione energetica.

Questi due paradigmi scientifici, apparentemente opposti ma in realtà complementari, hanno a maggiori profondità il loro elemento di congiunzione. Elemento che non è più “scientifico”, ma politico.

Il primo paradigma attribuisce alla natura delle erroneità (o comunque una incapacità di correggere le variazioni casuali) e una sostanziale incapacità di difendere se stessa e la propria identità specifica (una sorta di Aids che sarebbe vantaggioso per l’evoluzione). Oppure, in forme di evoluzionismo non darwinista, vengono fatte passare per positive (hopeful) le variazioni casuali illimitate (mutazioni teratogene e patologiche), attribuendo alla natura stessa la vocazione alla devianza (anche qui, base di presunte evoluzioni e contenuta –si dice- nel “pacchetto regolatore”, hox). Nelle sue (due) varianti, il modello evoluzionista attribuisce alla natura una strutturale propensione all’erroneità, intesa come incapacità di difendere la propria identità e come intrinseca (inscritta nel DNA) vocazione alla devianza.

L’altro paradigma (apparentemente “altro”) teorizza un costante bilancio entropico positivo (=andare verso il caos e collasso energetico) tra vita (come “sistema aperto”) e suo rapporto con l’ambiente circostante. La vita, nel suo sviluppo e nei suoi più alti livelli di complessità (dunque “uomo”) assorbirebbe tale energia dall’universo da accelererarne il decadimento. Tra Universo e vita ci sarebbe un dissidio insanabile. Si noti il parallelismo: così come la vita conterrebbe in se stessa la fonte di patologie e devianze (basi di presunte evoluzioni), altrettanto l’Universo, conterebbe in sé (nella biosfera) ciò che ne accelelerebbe la corsa verso il collasso definitivo. In sostanza: sia all’Universo che alla Vita viene attribuito uno stesso modello suicida e decadente. Lo spacciare per positivo (=che aumenterebbe le potenzialità evolutive) proprio ciò da cui la vita (il DNA coi suoi sistemi enzimatici correttivi) si difende, ossia la variazione illimitata(mutazione), come tale alla base della malattia e della deformità, è tentativo di rivestire la natura del manto della decadenza. In quanto Biosfera, ciò si tenta di compiere mediante l’evoluzionismo; in quanto Universo, ciò si tenta di compiere mediante il principio entropia. C’è di più: tale modello decadente è centrato su una nozione fondamentale.

L’interpretazione indeterministica e discontinua delle risonanze, in fisica e in meccanica quantistica; le mutazioni omeotiche in biologia sono l’introduzione di uno stesso modello di caos-clinamen, dove piccole modifiche delle condizioni iniziali non semplicemente danno luogo a variazioni esponenziali nella traiettoria di sviluppo, ma a vere e proprie traiettorie aleatorie, cioè quelle proprie dell’indeterminismo (oggettivamente, ontologicamente inteso). Ciò serve a dare un’idea di natura discontinua e pervasa da attrattori caotici (non ricorrenti); e dovrà consentire alla pop-science di affermare, senza cadere nel ridicolo, che da un uovo di struzzo potrebbe nascere un maialino; spettacolare effetto, ”punteggiato”(!), della mutazione omeotica(!), come tale esprimibile con una trasformazione discontinua (!), di Bernoulli o del fornaio. Trasformazioni, queste, utili altresì a descrivere la nascita dei mostri della genetica, o a descrivere i dirompenti effetti della tecnica sul corso degli eventi naturali.

La natura, così prospettata, sarebbe caotica e discontinua in biologia con le micro o macro mutazioni, che garantirebbero l’evolversi di nuove specie; mentre in fisica essa sarebbe caotica e discontinua mediante le risonanze, che, analogamente, produrrebbero quell’evoluzionismo alla rovescia che è la crescita di entropia. E’ evidente che mutazioni e risonanze sono emissari di uno stesso caos.

A conferma della complementarietà dei due modelli epistemologici si noti come conducano a legittimare visioni politiche malthusiane. Il modello evoluzionista vi riporta in quanto fa della lotta per la sopravvivenza (sul presupposto della inversa proporzionalità tra vita e risorse) una delle molle dell’evoluzione; il modello termodinamico vi riporta in quanto subito teorizza l’incompatibilità tra vita in generale(“macchina singolarmente futile”) e risorse energetiche[101].

X.3. Che la natura sia uniforme e regolare è un fatto, come è un fatto che questo tavolo è rettangolare. Che i fenomeni siano condizionati dalla teoria con la quale li interpretiamo è circostanza fondamentale, che tuttavia non significa che cambiando teoria il tavolo diventi rotondo. Il “fatto”, al quale le teorie intenzionalmente si riferiscono, resta (lo stesso dolore articolare, se si dice che è segno di recupero della salute è sopportato con gioia, mentre se è indicato come segno di ulteriore e più grave decadimento, sarà insopportabile e penoso, ma il “fatto” del dolore articolare resta). Anche l’innegabile dipendenza dei fatti dalle teorie è stata strumentalizzata per sostenere che l’idea della regolarità e/o legalità dei fenomeni della natura sarebbe solo una nostra invenzione e che dunque, nella presunta assenza di leggi oggettive-naturali non resterebbe che il selvaggio costruttivismo[102], e cioè: la totale manipolazione tecnico-cibernetico-statistica. La natura sarebbe una sorta di tabula rasa sulla quale e della quale il pop-scienziato può fare ciò che vuole.

L’affermazione einsteiniana che “è la teoria a decidere quanto possiamo osservare” può condurre ad un tipo di liberalità scientifica che pretenda la risoluzione completa del fatto nella teoria. Ma la teoria –lo ripetiamo- nasce intenzionando fatti, senza i quali essa è vuota, e i fatti sono i fatti della Lebenswelt (il mondo della vita quale ci appare). Rescisso convenzionalisticamente il legame con la Lebenswelt, la teoria scientifica è pura costruzione di qualsivoglia visione del mondo, costruzione operata –quando va bene- con l’unico vincolo dell’incontraddittorietà e resa plausibile non dall’aderenza ai fatti, o da evidenze intuitive, ma da strategie retoriche e propagandistiche, se non addirittura da falsificazioni dell’esperimento o del reperto. Siamo esattamente dove la tecnocrazia voleva si arrivasse: sottrarre la scienza e la conoscenza della natura alla razionalità controllabile e da tutti attingibile, quella fatta dell’unione di 1) rigore logico; 2) evidenze intuitive; 3) aderenza ai fatti. Spazzato via tutto questo, la scienza si riduce ad essere il prodotto di una manipolazione mediatica, ossia una faccenda holliwoodiana. Ora avete capito perché Einstein dà la berta!

X. 4. Ricapitoliamo nei punti seguenti che cosa ha implicato e cosa implicherà la deriva stocastica della scienza e la corrispondente mistificazione evolutivo-entropica della natura, centrata sull’idea di caos.

1. La vita sarebbe figlia del caos, tanto nell’evoluzionismo, quanto nella visione termodinamica dell’universo, che ne fa un “elemento disomogeneo” nell’uniforme andamento entropico, dovuto al fiat di una fluttuazione casuale (clinamen).

2. La vita è fatta oggetto di preoccupazioni malthusiane (neoliberiste, vedi nota 63), allorché incrementerebbe l’entropia dell’universo (si veda a quali infami politiche fa da sostrato questa convinzione; nota 101).

3. La vita nel suo (presunto) cammino evolutivo si gioverebbe proprio di ciò che sicuramente la danneggia: le mutazioni casuali (anche questa convinzione fa e può far da sostrato a luttuose politiche, vedi nota 35).

4. L’uomo sarebbe epifenomeno della vita animale; e cioè se ne prospetta la totale relegazione nel biologico, escludendo così l’appartenenza allo spirituale.

5. L’intelligenza non sarebbe espressione della vita dello spirito, ma sarebbe il risultato di un adattamento biologico o una variazione casuale vantaggiosa (al pari di un collo lungo o di una pinna natatoria, vedi nota 85).

6. L’intelligenza e la vita sono interpretate e ridotte ad algoritmi-programmi di tipo cibernetico, che preparano il terreno a legittimare l’inserimento del chip elettronico per il controllo del vivente (la Grande Tirannide, vedi nota 34 e 69).

7. Tra uomo e natura ci sarebbe separazione (vedi nota 85), tanto nella visione evoluzionista che in quella termodinamica; e questo consente che l’uomo si identifichi con l’insetto metropolitano, al quale si può raccontare quanto esposto nei due punti successivi.

8. Le leggi di natura non darebbero più sicurezze, in quanto sarebbero aleatorie, cioè solo statistiche e perfino evolutive.

9. La natura sarebbe caotica e discontinua e quindi minacciosa, soggetta a un tempo lineare (il tempo dell’angoscia); quindi bisognerà affidarsi a qualche tecnologia salvifica e indebitante.

10. La natura sarebbe produttiva per via disgregativa, come prospettato dalla matematica delle biforcazioni, producendo cioè rotture della continuità (è questo un punto analogo al “3”, dove la natura si gioverebbe delle mutazioni che la danneggiano).

11. L’universo sarebbe soggetto a degenerazione entropica: l’immensa energia iniziale, che all’inizio non avrebbe avuto difficoltà a prodursi (dal nulla? Dal caos?), da quel momento in poi non sarebbe più capace di rigenerarsi, bensì potrebbe solo collassare (a beneficio di conservatrici politiche energetiche, che devono escludere a priori la possibilità di attingere a fonti sempre rinnovabili…)

12. Il soggetto sarebbe fattore spurio dell’esperienza, nella assurda e illogica pretesa che vi sia esperienza senza chi esperisce (come tale trascendente l’esperito), ma nella coerente operazione ideologica di negare all’uomo ogni trascendenza (vedi nota 81).

13. Il linguaggio, così come le altre strutture formalizzate, “ingoia” il soggetto, facendone l’oggetto attraverso cui la struttura (pseudosoggettiva) parla e agisce, riducendo così l’uomo a golem.

14. Matematica, logica e geometria sono ridotte a sistemi formalizzati, conformemente all’assunto convenzionalista, che non le vuole poggianti su universali e sicure basi assiomatiche. Esse vengono inficiate altresì, riducendole a meri sistemi tautologici, oppure negandone la connessione con la natura, con l’escludere che esse possano metter capo a conoscenze sintetiche a priori.

15. Anche gli assiomi troverebbero la loro validità solo nella convenzione sociale e linguistica, e sono così ridotti a convenzione segnica, come tale fungibile e storica (vedi nota 19) .

16. A questo punto la scienza è allontanata dall’accesso e dal controllo che spettano di diritto ad ogni uomo, per divenire monopolio dell’élite che possiede i media e con essi crea linguaggi, manipola statistiche e direziona la Comunità Scientifica Internazionale (vedi note 94, 97, 99).

17. L’obiettivo della scienza è allora quello di produrre il Belief di massa, che come tale decide anche dei comportamenti della massa (vedi nota 75).

18. Per raggiungere tale obiettivo sarebbe lecito anche l’anarchismo metodologico, e quindi anche le strategie mediatiche, virtuali e retoriche che riducono la scienza a pop science, dove si fabbricano prove conformi agli assunti teorici.

10.5. Volendo sintetizzare ancora di più quanto siamo venuti dicendo, possiamo concludere che sono due i progetti ideologici fondamentali in agenda della tecnocrazia, due punti che in sé riassumono i 18 precedenti..1) Cancellare e far obliare la Soggettività, anche esautorandone le prerogative (quali il sentirsi punto di riferimento privilegiato nell’universo, il dare misura e nome a ogni cosa, il riconoscere validità a priori agli assiomi della logica e della matematica. 2) Insinuare il caos in Natura, facendo credere che ne sia governata (in fisica con Prigogine, in cosmologia con Linde, in biologia con Dawkins, ecc.; noterete come in ogni settore si dia pieno lasciapassare al caos, il quale avrebbe in Natura molta più legittimità ad essere ed operare dell’ordine, dell’intelligente, del Bauplan, dello strutturato, del finalizzato. Ogni volta che venga nominato uno di questi fattori, tali autori “postmoderni” sono pronti a scorgervi illegittime “intrusioni metafisiche”, mentre per il caos, per la sua esistenza ed il suo operare, essi ritengono che saremmo pieni di certezze sperimentali da esibire).

Grave che tanta manovalanza intellettuale (volenterosi carnefici) non si sia minimamente resa conto di aver lavorato per la Grande Menzogna.

Concluso il 07 X 2003

NOTE

1 Non a caso Marx avrebbe dedicato Das Kapital (1867) a Darwin, se questi non si fosse rifiutato, ritenendo che l’evoluzionismo abbia dato un importante contributo all’ideologia materialista.

2 Che si potrebbe definire “tichismo”, ma che in natura non esiste come è provato da precise leggi di preferenzialità che regolano anche il comporsi degli elementi materiali. Leggi comunque non sufficienti a spiegare la biopoiesi come il modello riduzionista vorrebbe.“Il problema del darwinismo non è un problema scientifico”,G.SERMONTI, Prefazione a M.BLONDET, L’uccellosauro ed altri animali.La catastrofe del darwinismo, Milano 2002, p.7.

3 Formulato da Sadi Carnot (Réflexions sur la puissance motrice du feu et sur les machines propre à developper cette puissance, 1824 ), approfondito da W.T.Kelvin,1851 e da R.J.Clausius nel 1854 (Ueber eine veraenderte Form des zweiten Hauptsatzes der mechanischen Waermetheorie),che adottò il termine “entropia”, e già ne prospettava l’universalizzazione affermando che: l’energia dell’universo è costante; l’entropia dell’universo aumenta.

4 Giudicato già da Einstein come la più importante legge della fisica, è significativo che il II principio sia indicato come nuovo paradigma da sostituire al modello meccanicistico dal magnus pater della dissoluzione convenzionalista della scienza nel Novecento, E. Mach (autore, tra l’altro, di un Die Prinzipien der Waermelehre, 1876), che ha profondamente influenzato non solo Einstein, ma lo stesso Neopositivismo (Circolo di Vienna e Circolo di Berlino). Da qui in poi sono innumerevoli gli esaltatori del II principio, ma pochi ne hanno chiari i presupposti e le implicazioni ideologiche.

5 Dal bioeconomista GEORGESCU-ROEGEN N., The entropy law and the economic process, Harvard 1971.

6 Coi termini “evoluzione” o “evoluzionismo” ci si riferisce sempre a darwinismo e neodarwinismo: Non sono qui in discussione l’evoluzionismo di J.B.Lamarck (1744-1829) o di C.O.Whitman (1842-1910), quest’ultimo noto come “ortogenesi”

7 I batteri unicellulari, presunti semplici, sono di una complessità indescrivibile, nonostante le apparecchiature complesse di cui disponiamo. Cf. J.A. SHAPIRO, Bacteria as multicellular Organisms, in “Scientific American”, giugno 1988, pp.82-89:”..i batteri possiedono elaborate capacità di sviluppo e comportamentali tipiche dei più elevati organismi (…) essi mostrano tali complessità biochimiche, strutturali e comportamentali che superano la descrizione scientifica.”, p 89.

8 L’Uomo di Piltdown era l’accozzamento di un cranio umano con una mascella di orango e fu tenuto esposto al British Museum per più di quarant’anni (!) come prova dell’anello di collegamento evolutivo tra le scimmie (antropomorfe) e l’uomo. Ci sono pesanti indizi che alla fabbricazione della prova – della cui falsità ci si accorse nel 1953 – abbia partecipato anche Teilhard de Chardin, il Gesuita che tra i primi tentò di introdurre l’evoluzionismo nella teologia cattolica (S.J. GOULD, The Piltdown conspiracy, in “Natural History” 189 (1980); SERMONTI G., Rapporto sull’evoluzionismo, Catania 1985, pp.13-19; A KOHN, Falsi profeti, tr. it. Bologna 1991, pp. 167-177; F. DI TROCCHIO, Le bugie della scienza, Milano 1993, pp. 254-301). Abbiamo poi l’Archaeopteryx, specie di piccolo dinosauro con le ali che dovrebbe essere la prova dell’evoluzione degli uccelli dai rettili, ma fortemente sospettato negli ambienti paleontologici col soprannome di “pollo di Piltdown” (ancor più se si pensa che fu “scoperto” due anni dopo la pubblicazione de l’Origine delle specie di Darwin, 1859). L’Uomo del Nebraska, “scoperto” nel 1922, a partire da un solo dente, che si rivelò poi (1927) essere di un maiale, doveva rappresentare un altro anello di passaggio tra uomo e scimmia. Ci fu il pigmeo Ota Benga, il Celacanto… Ultima “prova” è stato l’Archaeoraptor, altro rettile piumato, ponte di passaggio tra dinosauri e uccelli, sponsorizzato da riviste accreditate e accreditanti (Novembre 1999) come National Geographic e Nature. Tutto questo è indicativo di come quanto teorizzato da Feyerabend sia praticato da tempo: la scienza come darla a credere. Chi fa “politiche scientifiche” (=stabilisce in cosa devono credere le masse) sa bene, in base ai principi fondamentali della comunicazione mediatica, che ciò che conta è la prima notizia, lanciata se possibile in prima pagina. E’ questa che resta impressa nella mente della gente, non già la smentita del fascicolo successivo, pubblicata a margine, in cui si ammette che l’Archaeoraptor è un incollaggio fatto da abili manipolatori, non dalla natura.

9 Se la balena derivasse dall’orso come ipotizzava Darwin (Origine delle specie, tr. it.,Roma 1994, p.307, ipotesi ridimensionata nella VI edizione del 1872 ) e come credono i neodarwinisti (V.B. SCHEFFER, Exploring The Lives of Whales, in “National Geographic” 50 ,1976, pp752-767. ) tra le due specie non dovrebbe esserci la barriera della non interfecondabilità. Snobbare le evidenze primarie, a favore di ciò che è complicato e di ambigua interpretazione, costituisce non solo un segno di attitudine antiscientifica, ma è rivelativo di un procedere mistificatorio, conseguenza, sul piano teorico, di una pretesa “libertà della teoria dall’esperimento”, o “convenzionalismo scientifico”. Pensare che qualcosa, espresso in termini di complesse formule biochimiche, sia scientifico, mentre non lo sarebbe la constatazione della non interfecondabilità delle specie è una forma –ci si consenta– di minorità intellettuale (spesso peggiorata da esterofilia e complessi d’inferiorità nei confronti degli Istituti angloamericani), per cui solo ciò che risulti da strumenti e complicate analisi di laboratorio avrebbe dignità scientifica, mentre l’appellarsi alla primaria evidenza empirica sarebbe scientificamente impresentabile. Questo è uno degli effetti deleteri della contaminazione tecnocratica della scienza, che implica il tentativo di sottrarla alla razionalità comune e controllabile, per renderla monopolio degli ipertecnologici laboratori e centri di ricerca, come tali dipendenti dal potere finanziario e come tali strutturati aziendalmente per produrre profitto. Non ci si deve stupire se da qui (attraverso certe riviste “accreditate”) venga fatto passare per scientifico tutto quanto abbia immancabili risvolti economici. Questo, più in basso, produce un’ abitudine a snobbare i dati primari dell’evidenza empirica (non risultano da laboratorio!). Le “evidenze” di laboratorio sono spesso di ambigua interpretazione e dipendenti da definizioni e parametri statistici, che non possono pretendere l’universalità di un’evidenza primaria. Il fatto che un cane non feconda una capra è un’evidenza primaria e universale, e per accertare questo non c’è bisogno di laboratori.

10 J.A.SHAPIRO, A Third Way, in “Boston Review” XXII (1997) 1, p.32:”..le cellule, dai batteri all’uomo, posseggono uno stupefacente apparato riparatore che serve a rimuovere le accidentali e casuali fonti di mutazione. Livelli multipli di meccanismi, simili a quelli tipografici di correzione automatica delle bozze, riconoscono e rimuovono gli errori che inevitabilmente si producono durante la replicazione del DNA. Questi sistemi sono in grado di distinguere tra i filamenti parentali di DNA da quelli di nuova sintesi, sicché essi operano efficacemente nel rettificare (piuttosto che nel fissare) le accidentali ed errate incorporazioni del nucleotide sbagliato (…) E’stata una sorpresa apprendere come le cellule proteggano interamente se stesse proprio contro quel tipo di accidentali mutazioni genetiche che, secondo la corrente teoria, sarebbero alla base della variabilità evolutiva.”. L’omeostasi genetica può essere inferita dal fatto della non interfecondabilità delle specie. Ciò significa che tra esse v’è una rigida separazione, che è a tutela della differenza, senza la quale la Natura non significherebbe più vita. Tuttavia, all’interno di ogni specie, c’è una variazione limitata, compresa nell’informazione di base (pool genetico), che può prevedere, per un felino, la nascita con tonalità diverse della pelliccia, che sia più o meno tozzo, con tempi metabolici più rapidi. Il principio (e il fatto) dell’omeostasi genetica dice che le variazioni non vanno oltre i limiti compresi nel pool genetico e che quindi non può accadere che un leopardo possa nascere con la coda di un canguro (variazione casuale illimitata=mutazione), perché non contemplato nell’informazione genetica di fondo. L’ignoranza delle leggi di quest’ultima ha portato Darwin e poi i neodarwinisti a ritenere che la balena possa essere un orso, che a forza di nuotare ha sviluppato pinne (“La maggior parte degli autori sostiene che esiste un limite alla variazione, anche se io non riesco a trovare un solo fatto su cui poggi tale convinzione”, C.DARWIN, Saggio del 1844, ed.it.cit, p.90). Se Darwin parrebbe scusabile, non altrettanto lo sono i neodarwinisti. Ma per la pop-science il paradigma va tenuto fermo anche quando l’esperienza lo sconfessi. La semina del liberalismo scientifico e del convenzionalismo dà i suoi frutti.

11 Portare come prova dell’evoluzionismo il fatto che si sarebbero “evoluti” batteri resistenti agli antibiotici è ignorare o far finta di ignorare che tali ceppi già esistevano prima degli antibiotici. Questi ultimi ne hanno semmai favorito la moltiplicazione, distruggendo le altre colonie sensibili agli antibiotici, e tale moltiplicazione è spacciata per evoluzione. Stesso discorso su DDT e insetti resistenti. (Cf. S. B. LEVY, The Challenge of Antibiotic Resistance, in “Scientific American” march 1998, pp.46-53, in particolare p.49).

12 “Sintropia”, non “neghentropia”, come scrivono i teorici del collasso universale, quando non possono far a meno di indicare almeno i fenomeni vitali come rispondenti a un principio opposto rispetto a quello unilateralmente degenerativo del II° principio. C’è malizia nichilistica nel sintagma “neghentropia”. Diciamo forse la vita “athanatia”? V’è la volontà di far apparire come prius la morte e il caos, di cui vita e ordine sarebbero meri epifenomeni o modificazioni. Ma forse i teorici della degenerazione universale non vogliono rischiare la valorizzazione di uno scienziato italiano che teorizzava espressamente il principio sintropia, in connessione al principio finalistico, L. Fantappié (1901-1956; se ne veda una breve ma efficace presentazione in A.G. MANNO, Complessità e finalismo nella scienza attuale, in “Sapienza”, 1994, 1, pp. 79-84).

13 Si inizia nel 1953 con l’esperimento di S.Miller-H.Urey, in cui si riescono a produrre solo pochi amminoacidi, non tutti validi, perché non tutti levogiri. Non si va molto più in là con i proteinoidi di S. Fox (né con i coacervati), lontani dalle proteine quanto un pallottoliere da un computer. Attualmente la cellula vivente continua a restare lontana anni luce da simili impostazioni, come la teoria degli ipercicli di M. Eigen, che ancora pretende la derivazione (“evolutiva”ovviamente) della vita da una materia che avrebbe (metafisica) vis autorganizzativa.

14 ARIST., Metaph V, 30, 1025 a 14; Phis II, 5, 196 b 10

15 Detti “organi rudimentali, atrofizzati ed abortiti” da C.DARWIN, Origine delle specie,cit.,p.484.

16 LEIBNIZ G.W., Principes de la Nature et de la grace fondés ed raison (1714), n.7.

17 KANT I., Kritik der reinen Vernunft, B282, A229, 230.

18 PEIRCE C. S., Chance, Love and Logic, II, 3.

19 “Che in natura non esiste il caos”, “che la parte è minore del tutto”, “che la retta è la via più breve tra due punti”, “che ogni fenomeno ha una (o più) causa” sono assiomi, senza il riconoscimento dei quali non ha senso discutere. A coloro che ne negassero la validità, per amor di tesi, o per collaborare alla “Grande Incertezza”, basta far osservare che, nei fatti, quegli assiomi vengono riconosciuti. Tra l’intero stipendio e il suo 30%, essi preferiranno il primo, riconoscendo che tutto è più della parte. Se gli sporcate l’auto con vernice, cercheranno il responsabile, perché ogni fenomeno ha una causa. Dovendo andare da una città all’altra, sceglieranno la via più prossima alla retta. La validità di tali assiomi non sta, come si dà a credere di recente, nell’accordo convenzionalista di adottarli, quasi fossero moneta, ma nel loro intrinseco valore (axia) fondato 1) sulla grande evidenza intuitiva (di tipo logico); 2) e sulla grande rispondenza che hanno col mondo dell’esperienza (Lebenswelt). Chi perciò teme che l’ammissione della validità degli assiomi sia una intrusione metafisica e che quindi essi siano passibili di fungibilità convenzionalista, faccia i conti – al di là delle chiacchiere – col proprio comportamento fattuale , che presuppone la regolarità della natura e che esclude l’esistenza del caos. Anche un castoro, col suo comportamento, riconosce quegli assiomi e non per questo è un metafisico.

20 La genetica negli ultimi 40 anni ha scoperto tutt’altro, che i neodarwinisti preferiscono ignorare,in quanto vengono escluse proprio le casualità e accidentalità cui essi tanto tengono: “ Noi siamo passati da una concezione statica del genoma (soggetto solo al caso, a cambiamenti localizzati e a più o meno costanti tassi di mutazione) a una visione dinamica del genoma, soggetto a episodici, massive e non casuali riorganizzazioni, capaci di produrre nuove e funzionali architetture (…) le cellule possiedono reti computazionali che vagliano le informazioni riguardanti le operazioni interne e quelle dell’ambiente esterno, per prendere decisioni che controllano la crescita, il movimento, la differenziazione (…)Sistemi di riparazione addizionale sono codificati nel genoma, per prevenire danni di tipo fisico o chimico del genoma stesso (agenti alchilanti, radiazioni ultraviolette) e possono correggere i danni quando si verifichino (…) Le molecole di sorveglianza compiono ciò modificando i fattori di trascrizione, in modo che siano sintetizzate le appropriate funzioni di riparazione. Questi inducibili sistemi di risposta ai danni del DNA sono sofisticati e includono le cosiddette ‘funzioni checkpoint’ che agiscono per fermare la divisione cellulare finché non si siano compiuti i processi di riparazione”; J.A.SHAPIRO, A Third Way, cit, pp.32-33. La biosfera appare caratterizzata da una dinamica staticità.

21 Per dirla col titolo del libro di un caposcuola del neodarwinismo, R.DAWKINS, The Blind Watchmacher, New York 1986; scrive a questo proposito G.SERMONTI, Prefazione a M.BLONDET, L’uccellosauro e altri animali, cit., p.7:”L’orologiaio di Dawkins è cieco, l’uomo di laboratorio ci vede benissimo.Il rozzo e lentissimo lavoro di una mutazione cieca e di una selezione miope e perditempo deve farsi da parte di fronte agli ingegneri genetici, che hanno imparato a fare da soli e in quatto e quattr’otto quel lavoro che la natura ha impiegato milioni o miliardi di anni per accozzare”.

22 La differenza tra darwinismo e lamarckismo è la seguente: per il primo, la comparsa della giraffa è risultato di due fasi: 1.La variazione casuale che (indipendentemente da ogni stimolo ambientale) fa nascere animali con colli lunghi, colli corti, colli medi; 2. La selezione che elimina quelli con colli corti e medi. -Per Lamarck, invece, non c’è spreco (non c’è variazione casuale), perché la necessità continua di brucare in alto determina una variazione in senso adattativo, che è anche ereditaria. Quindi l’ambiente stimola la variazione.

23 Legge 210/92

24 Una delle prove che si tratti di degenerazione e non di infezione, come la macchina mediatico–scientifica vorrebbe far credere, è costituita dal fatto che i vitelli fino a dieci mesi sono esenti dalla patologia.

25 Situazione del tutto simile abbiamo con la SLA (sindrome amiotrofica laterale), anche nota come “malattia dei calciatori”, perché colpisce questi ultimi in alta percentuale. E’ una malattia che lascia vivo solo il cervello, dopo aver paralizzato tutto il corpo. E anche qui, mentre Comunità Scientifica Internazionale e il sistema farmaceutico di cui è portavoce, si impegneranno, con la consueta impostazione, a cercare una terapia, che sarà ovviamente “genica”, dato che la patologia è vista come variazione casuale (fenomeno anomico); toccherà poi ad associazione di familiari colpiti, assieme a qualche magistrato e medico fuori dal coro, a barcamenarsi per decidere se la responsabilità è dell’abuso di analgesici o di speciali diserbanti usati per i campi da gioco, dando così il vero contributo alla prevenzione.

26 Si esalta Koch e si oscura Max von Pettenkofer, docente di igiene a Monaco di Baviera, che in un simposio di medici e scienziati, presente Koch, trangugiò impunemente un’intera fiala di vibrioni colerici, sufficiente a infettare centinaia di persone, per mostrare la vacuità della tesi (germ theory) di Koch e la decisività del terreno.

27 Prendiamo un esempio: un’alimentazione a base di carne e dolciumi favorisce l’avvento di un Ph tendenzialmente acido e quindi la proliferazione in eccesso di microrganismi che già sono presenti nel nostro organismo, da sempre, ma in stato di equilibrio con le altre colonie e quindi in stato di non virulenza (e questo quando il nostro organismo è in equilibrio). Il comparire di affezioni influenzali, di otiti, ecc. non è causato dai virus e/o batteri, pur presenti, ma da quell’alimentazione troppo acida o troppo alcalina, che se non corretta mantiene un terreno fecondo alla moltiplicazione anomala delle colonie, basi di infezioni e già da sempre presenti

28 La ricerca geologica “non è in grado di presentare le numerosissime e sottili gradazioni, che collegano le specie del passato a quelle attuali e che sarebbero necessarie alla mia teoria; è questa la più seria e ovvia obiezione che può essere avanzata contro di essa”, C.DARWIN, Origine delle specie, cit,p.512

29 HARUN YAHYA, L’inganno dell’evoluzione, tr. it., Imperia 2001, p.27

30 C.DARWIN, Origine delle specie, cit.p.315:”Ma noi siamo troppo ignoranti per speculare sull’importanza relativa delle diverse leggi della variazione, conosciute e sconosciute..”

31 Caposcuola del Neodarwinismo è lo zoologo A. Weismann (1834-1914), strenuo negatore dell’ereditarietà dei caratteri acquisiti; tuttavia al costituirsi del Neodarwinismo è stata decisiva la riscoperta delle Leggi di Mendel (1866) agli inizi del secolo, che consentirono (H.G.Hardy e W.Weinberg) di riformulare la teoria darwiniana a partire dalla “fisica dell’eredità mendeliana”. Il Neodarwinismo si consolida come teoria genetica della selezione naturale intorno agli anni Trenta, e oltre, con R.A.Fisher (The Genetical Theory of Natural Selection, Oxford 1930), con J.B.S.Haldane (The Causes of Evolution, London 1932), e con S. Wright (“Adaptation and Evolution”, in Genetics, Paleontology and Evolution, Princeton 1949). Tuttavia di non poca rilevanza è stata la corrente del Mutazionismo, che, dalla teoria delle mutazioni (1900-03) dell’olandese H. De Vries, agli hopeful monsters di R. Goldschmidt (The material Basis of Evolution, New Haven 1940) è confluita nel Neodarwinismo dissidente di S.J.Gould (teoria degli “equilibri punteggiati”; macromutazionismo che si ritrova in J.Maynard Smith,Gottlieb, Turner, ecc.).Se sia il micromutazionismo o il macromutazionismo più idoneo a salire il “monte improbabile” ovviamente non ci interessa. Qui serve mettere in evidenza che dietro la bega dottrinaria comunque permangono il caso e la parificazione di variazioni limitate e variazioni illimitate

32 “Corriere della sera”, 29 I 1999.

33 MAYR E., Evolution, in “Scientific American” 239 (settembre 1978) :”Il primo passo è la produzione (attraverso ricombinazione, mutazione e eventi casuali) di variabilità genetica”. Le variazioni sono casuali “nel senso che non sono causate da, né sono collegate a, necessità contingenti dell’organismo o alla natura del suo ambiente”; ivi, p.52; il secondo passo sarebbe la selezione naturale. Ciò che a noi interessa evidenziare è che nel primo elemento dogmatico del neodarwinismo (la variabilità) si pone sullo stesso piano ricombinazione e mutazione.

34 Da uno di quei volumi, tradotti in tante lingue e insistentemente riediti, destinati a far conoscere al grande pubblico quale sia lo “scientificamente corretto” lo “scientificamente accreditato”, attraverso i pareri di numerosi scienziati, ne vien fuori che è fortemente raccomandato l’abbandono del modello meccanicistico-deterministico, a favore di un modello post-moderno di universo: squilibrato, caotico, imprevedibile, ma evolutivo. Quello che insomma – come da copione – ci fa porre l’allarmante quesito “dove stiamo andando?”, “stiamo andando nella direzione giusta (migliore per noi)?”, “si può gestire questa evoluzione?” La risposta a quest’ultima domanda è – ovviamente – “sì”. E a chi tocca tale “gestione”? Naturalmente alla cupola finanziario-tecnocratica . Senonché uno di questi “scienziati” (E. LASZLO, L’evoluzione della complessità e l’ordine mondiale contemporaneo, in AA.VV. La sfida della complessità, tr. it. Milano 1992, p. 395), tra i più titolati a far conoscere i progetti attuali della tecnocrazia (posto a capo di Istituti ONU, di think tank di studi sociali, di riviste internazionali volte a “disegnare” quale sarà il futuro prossimo), a conclusione del suo intervento fa sapere che l’attuale generazione possiede i principi fondamentali dei processi evolutivi e che si appresta a guidare il corso della storia. C’è poco da stare tranquilli. Le pesanti intromissioni nel genoma umano e in quello della fauna domestica e selvatica attraverso vaccini, chip sottocutanei che ricapitolano la scheda genetica-biometrica (e forse più), sono indizi inquietanti che non ci si potrà opporre a tale “gestione dei processi evolutivi”. E’ questo il nuovo ordine sociale, economico, internazionale? Suona un editoriale di “New Scientist” (ottobre 98): “La tecnologia prenderà il posto dell’evoluzione, e la scala temporale sarà molto più rapida. Gli uomini stanno divenendo oggetto di un progetto cosciente” (!).

35 Uno dei provvedimenti legislativi più in linea con i desiderata tecnocratici, da parte della Unione Europea e poi dell’Italia, è stata la recente depenalizzazione delle frodi alimentari e parallelamente un’ ampia liberalizzazione di contaminanti chimici nelle tecnologie di preparazione e conservazione degli alimenti, anche dei meno sperimentati e più sospettati (Si veda, G.CERUTTI, Residui, additivi e contaminanti degli alimenti, Milano 1999,p.151,168,209).Molti ricercatori (medici, biologi, genetisti), conformemente al credo evoluzionista, si trovano a dover ammettere –obtorto collo nei più intelligenti e meno collaborazionisti– che le potenzialità evolutive dei viventi dipendono dalla possibilità che il messaggio genetico venga trasmesso con qualche errore; quanto più il DNA recepisce-subisce mutazioni (tali che i sistemi enzimatici preposti non riescano a neutralizzare e/o correggere), tanto più il vivente offrirebbe vantaggi evolutivi alla specie. E siccome le variazioni casuali limitate (contemplate dal DNA) sono poste sullo stesso piano delle variazioni casuali illimitate (mutazioni non contemplate dal DNA, ma che anzi lo guastano), se ne tirino le conseguenze: l’avvelenamento e l’inquinamento sono scientificamente corretti, in quanto promuoverebbero le potenzialità evolutive dei viventi! Tornano insomma di piena attualità gli hopeful monsters di R. Goldschmidt; quei “mostri” che, in termini evolutivi, lascerebbero sperare bene. C’è una relazione tra queste convinzioni “scientifiche” e le politiche tecnocratiche sull’ambiente che invece di mettere al bando i contaminanti chimici, ogni volta ne alzano la soglia di tollerabilità per la salute umana? E’ già in corso la “gestione dei processi evolutivi” di cui sopra si diceva?

36 E’ proprio il sostenitore della teoria degli “equilibri punteggiati” a richiamarsi espressamente a Goldschmidt: S.J.GOULD, The Return of Hopeful Monsters, in “Natural History”, vol.86,luglio-agosto,1977,p. 24 ss.. Siamo ovviamente lontani dal darwinismo ortodosso:”..certe volte le specie di un gruppo, sembrano, talvolta falsamente, comparire all’improvviso, ed io ho cercato di dare una spiegazione di questo fatto, che, se fosse vero, riuscirebbe fatale per la mia teoria”; C.DARWIN, Origine delle specie, cit.,p.410.Tuttavia, il “ritorno degli hopeful monsters” è la semplice riproposizione in forma asseverativa di quanto già in Darwin compariva in forma dubitativa e ipotetica. V’è in più l’innesto della questione evolutiva sulle scoperte della genetica, e così le variazioni divengono mutazioni:”..le malattie e le mostruosità vengono ereditate e vengono prodotte infinite razze..”, C.DARWIN, Abbozzo del 1842, in tr. it. cit., p. 42. “E se noi avessimo ragione di credere (cosa che penso non abbiamo) che tutti gli organi abortivi sono stati prodotti, in un certo periodo, improvvisamente durante la vita embrionale di un individuo e dopo sono divenuti ereditari, avremmo immediatamente una spiegazione semplice dell’origine degli organi abortivi e rudimentali”, C.DARWIN, Saggio del 1844, in tr.it.cit.,p. 152. “Abbiamo poi quelle che vengono chiamate mostruosità, che però tendono a diventare varietà.”, C.DARWIN, Origine delle specie, tr.it.,cit.,p.223.

37 “L’inganno dell’evoluzione è oggi superato da un inganno ancora più insidioso, quello dell’Ingegneria Genetica. Con questa l’uomo pretende non solo di conoscere i meccanismi della Creazione, ma di poterla sostituire con una tecnologia precisa, accessibile, rapida e brevettabile. Questa pretesa prepara il mondo ad una decadenza morale ancora più profonda, a una definitiva abdicazione, e lo offre al dispotismo di nuovi Demiurghi, incapaci di costruire alcunché e solo maestri nei trucchi degli illusionisti”, G.SERMONTI, Prefazione a HARUN YAHYA, L’inganno dell’evoluzione,cit, p.7

38 Convinzione approfondita e diffusa da E.H.HAECKEL, Natuerliche Schoepfungsgeschichte, 1868, secondo la quale l’ontogenesi ricapitolerebbe la filogenesi

39 “Io credo che gli animali discendano al massimo da quattro o cinque progenitori e le piante da un numero di progenitori uguale o inferiore”, C.DARWIN, L’origine delle specie, cit., p.508.

40 C.DARWIN, Autobiografia, in tr. it. cit., p.1008. Che il darwinismo sia anche l’importazione in biologia dei due principi fondamentali della “lugubre scienza” (economia), e cioè: “il principio di popolazione” di R.Malthus e la “mano invisibile” di A.Smith, è ormai avallato da un’ampia letteratura, buona parte della quale si può vedere in RIFKIN J., Algeny, tr. it. S.Martino di Sarsina 1994,pp.43-71

41 Il dogma fondamentale del darwinismo lo si ritrova trasposto in termini genetici:” La competizione darwiniana tra sequenze mutanti portò [riferito al momento in cui si formava la vita] a una singola distribuzione quasispecifica come prodotto potenziale dell’evoluzione. In seguito, tra le sequenze mutanti si instaurò l’organizzazione iperciclica…”; EIGEN M.-GARDINER W.-SCHUSTER P.-WINKLER OSWATITSCH R., L’origine dell’informazione genetica, in “Le Scienze” 154 (VI 1981) XXVI, p.33.

42 KANT I., Der einzig moegliche Beweisgrund zu einer Demonstration des Daseins Gottes, 1763, I Abt., 1.

43 Autore di Hydrodynamica, sive de viribus et motibus fluidorum commentarii, 1738.

44 Autore di Vorlesungen ueber Gastheorie, 1896-1898.

45 In “Annalen der Physik” (1905) 17, pp.549-560

46 EINSTEIN A., Sulla teoria generalizzata della gravitazione, in “Le scienze” 129 (1979), p.6 si tratta di un articolo scritto da Einstein per ” Scientific American” nel 1950

47 LAVENDA B.H., Il moto browniano da Einstein a oggi, in “Le scienze” 174 (1983), p.31.

48 Autore di Les Atoms, 1921.

49 Sembra che ci si trovi di fronte ad una fisica dei principi (che in Tempo, spazio e gravitazione del 1948, Einstein contrappone alle teorie costruttive), allorché, partendo dalla constatazione che non si dà moto perpetuo, si elabora una teoria (principio entropia) valida per ogni caso particolare; ma, nella misura in cui il principio entropia lo penso come effetto delle collisioni atomiche (facendo poi valere il reciproco, come per il moto browniano, ossia: tutto ciò che posso descrivere in termini di termodinamica statistica è composto da atomi che si urtano nel vuoto), ecco che dietro alla teoria dei principi ho collocato una teoria costruttiva, come tale consistente nella petitio principii, come tale destinata a dare un rivestimento ideologico alla natura, più che a scoprirne le leggi.

50 PRIGOGINE I., La fin des certitudes. Temps, chaos et les lois de la nature, Paris 1996, tr.it. Torino 1997, pp.38-39. Attenzione a tenere distinti, in Prigogine, sistemi caotici e sistemi non integrabili; questi ultimi non sarebbero predicibili nemmeno ad una conoscenza perfetta delle condizioni iniziali (quale potrebbe avere il demone di Maxwell), e cioè essi sarebbero intrinsecamente indeterministici (cfr. p.37, 40, 101)

51 PRIGOGINE I., La fin des certitudes, tr.it. cit., pp. 12,13,103 e p.53 per la pretesa oggettività del clinamen

52 E’ questi l’autore di Ars Conjectandi, uscita postuma nel 1713.

53 MANDELBROT B.B., The Fractal Geometry of Nature, San Francisco 1982. Sempre nell’ambito di questo acuto e diffuso interesse per il caos, è da segnalare la teoria KAM e cioè lo studio portato avanti da Kolmogorov A.N., Arnol’d V. e Moser J. sull’influenza delle risonanze sulle traiettorie.

54 PRIGOGINE I., La fin des certitudes, tr. it. cit., pp.34-36, “…le probablità vengono ad assumere un significato intrinseco, irriducibile ad una interpretazione in termini di ignoranza o di approssimazione. Il mio collega B.Misra ed io abbiamo sottolineato questa nozione introducendo l’espressione di ‘intrinsecamente aleatorio’ .”(ivi,p.35).

55 CRAMER F., Chaos und Ordnung. Die komplexe Struktur des Lebendigen, Stuttgart 1988,tr.it. Torino 1994,p.154; sarebbero “alternative del tutto equivalenti” le biforcazioni nei sistemi complessi; “Le condizioni di partenza, rigorosamente deterministiche, non consentono alcuna previsione riguardo ai punti di biforcazione degli alberi genealogici, neppure quando tutti i parametri siano noti: in tal modo quelle stesse condizioni divengono indeterministiche”.

56 Ivi, p.156.

57 PRIGOGINE I., La fin des certitudes, tr. it. cit., p. 69: “Vorrei sottolineare la convergenza tra i risultati della termodinamica del non-equilibrio e le filosofie di Bergson o di Whitehead. Il possibile è più ricco del reale. La natura ci presenta in effetti l’immagine della creazione, della novità imprevedibile. Il nostro universo ha seguito un percorso di biforcazioni successive, ma avrebbe potuto seguirne altre”!.

58 La “nuova fisica” afferma che ormai le leggi della natura non sarebbero più certezze, ma possibilità, quelle possibilità proprie del lancio dei dadi e del testa o croce (sic! PRIGOGINE I., La fin des certitudes, cit, p.95); di qui vi sarebbe la necessità di passare a un loro calcolo statistico.

59 Solo in tale modello di natura, indeterminata, caotica ed evolutiva “l’attività umana, creativa e innovatrice, non è estranea alla natura, ma può essere anzi considerata un’amplificazione e un’intensificazione di tratti già presenti nel modo fisico…” (Ivi, p.68). Certo! La tecnica come intensificazione e amplificazione del clinamen , e quindi come “aiuto” al cammino evolutivo della natura; ecco la “gestione dei processi evolutivi”. HUXLEY J., Evolution in Action, New York 1951; il nipote di Thomas Huxley, divulgatore e difensore di Darwin, dice che compito dell’uomo è continuare e incrementare il progresso evolutivo della natura (p.31); JANTSCH E., Die Selbstorganisation des Universums, Muenchen 1982, p.34 :”siamo noi l’evoluzione” la quale “non è prestabilita”, ecc.; ciò ovviamente legittima il ricorso a una matematica delle biforcazioni, quella stessa adottata per descrivere le dinamiche di popolazione e i…. fenomeni di borsa…Ecco verso cosa, da ultimo, deve evolvere la natura, grazie alla riformulazione statistica delle sue leggi.

60 PEEBLES P.J.E.-SCHRAMM D.N.-TURNER E.L.- KRON R.G., L’evoluzione dell’universo, in “Le scienze” 316, dicembre 1994, ora ristampato in “Le scienze quaderni” 97, agosto 2002, p. 40; del Big Bang caldo ne fu primo teorico G.Gamow nel 1948; mentre l’appellativo critico e ironico, che poi rimase, fu del cosmologo inglese F. Hoyle.

61 LINDE A., Un universo inflazionario che si autoriproduce, in “Le scienze” 317, gennaio 1995, ora ristampato in “Le scienze quaderni” 97, agosto 2002, p.59

62 Ivi, p.55; in tale universo le distribuzioni di energia dei campi scalari assumerebbe una configurazione alla Kandinsky (p.56; o non piuttosto alla Andy Warhol?)

63 La brutale e termodinamica definizione di “struttura dissipativa lontana dall’equilibrio termodinamico” riservata alla vita, le può toccare solo nella sua innaturale relegazione in strutture produttive e ambientali che ne hanno fatto una ”risorsa” finanziaria. Gli animali domestici, ad esempio, stavano nel passato mondo rurale in rapporto simbiotico e sinergetico con l’ambiente naturale, nel senso che consumavano energia, ma con la loro presenza e comportamenti ne restituivano più di quanta ne consumassero. Stessa cosa dicasi per animali selvatici e villaggi rurali, che si mostrano così strutture cumulative e sinergetiche. E’ nel contesto di una economia liberista, che ha decretato e decreta la morte del mondo rurale, che questo circolo virtuoso è stato spezzato, per consentire la centralizzazione delle risorse in poche mani, imponendo la concentrazione degli animali domestici in megallevamenti e degli umani in megalopoli, facendo così divenire gli uni e gli altri “strutture dissipative”, come tali oggetto di preoccupazioni malthusiane.

64 “Il fatto che la vita continui è dunque un fenomeno spiegabile, in fondo, sempre che i necessari processi di trasformazione e circolazione delle sostanze vengano ‘finanziati’ mediante il pompaggio di grandi quantità di energia. In questo senso la vita è una faccenda estremamente dispendiosa”; CRAMER F., Chaos und Ordnung, tr. it. cit., p.35. Concezioni che risalgono a SCHROEDINGER E., What is Life?, Cambridge 1945, per il quale: “la vita si nutre di un flusso di entropia negativa”, citato da PRIGOGINE I., La fin des certitudes, tr. it. cit., p.60, convinto che “le strutture dissipative aumentano la produzione di entropia”,p.68.Davvero ci sarebbe più energia in un chilometro quadrato di deserto anziché in un chilometro quadrato di foresta tropicale, come gli untori del senso di colpa vanno insinuando? Davvero dopo il presunto Big Bang l’energia nell’universo può essere solo dissipata nel suo bilancio complessivo?

65 Due autori ormai classici, in questa direzione: WIENER N., Introduzione alla cibernetica, tr. it. Torino 1970,p.38; GRASSE’ P.P., L’evoluzione del vivente, tr. it. Milano 1979, pp.225-226

66 Tra i fenomeni più a portata di mano, basti pensare all’acqua, che, quando cristallizza nel fiocco di neve, lo fa seguendo precise regolarità geometrico-matematiche; non producendo caos o rottura di simmetrie, ma costruendo simmetrie! Come anche accade per la formazione delle bolle di sapone: ”…vi sono principi secondo i quali le bolle e le lamine di sapone possono esistere solo in determinate configurazioni geometriche e non in altre..”; ALMGREN F.J.Jr.-TAYLOR J.E., La geometria delle bolle di sapone, in “Le Scienze” 99 (1976) XVII, p.49, con impressionanti analogie con gli scheletri di quei piccoli organismi marini che sono i radiolari (p.60).

67 CRAMER F., Chaos und Ordnung, tr. it. cit., p. 205; con buona pace di quegli antropologi, ambientalisti e psicanalisti che collaborano all’occultamento delle regolarità della natura, dichiarando “dogma della immacolata percezione” il loro rilevamento; qui si tratta di fatti matematicamente e universalmente accertabili e non di precomprensioni antropomorfiche della natura.

68 Non più di meravigliose regolarità e puntualità della natura parlano i nuovi manuali scolastici per ragazzi, ma di “ tendenza della Natura verso il disordine ” e “in generale i processi naturali tendono spontaneamente verso il disordine” (sic! in J.E. BRADY-J.R. HOLUM, Fundamental of Chemistry, New-York 1984, tr. it. Bologna 1992, pp. 274-275); si parla di “pregiudizio laplaciano” oramai abbandonato “a seguito della scoperta dell’onnipresenza di comportamenti caotici” (sic! In U. AMALDI, La fisica per i licei scientifici, Bologna 1998, p. 28).

69 E’ drammatico osservare con che disinvoltura si manipola la vita selvatica. L’interventismo tecnocratico termodinamico non dice “lasciamo in pace nel loro habitat, orsi, stambecchi e tartarughe” oppure “evitiamo di contaminare e distruggere l’habitat degli animali”. No. Esso dice: “bisogna fare qualcosa, dobbiamo intervenire”. Si vedono allora in TV programmi “scientifici” e ambientali dove si mostrano etologi e biologi che vaccinano in massa le scimmie di una certa regione, con l’antipolio e l’antitetanica (sic!), dopo averle addormentate (Rai 1, 8 XII 2001,ore 18,00). Altri operatori spostano le nidiate di tartaruga, perché saprebbero meglio della tartaruga (che ovviamente non ha studiato biologia) a quanti metri devono stare le uova dalla battigia. Si mostra cattura, anestesia, analisi del sangue e infine radiocollare a vita per gli orsi lavatori; scheda biometrica, inanellamento per volatili, analisi del DNA per gli stambecchi delle Alpi, facendo riprodurre solo quelli con massima variabilità genetica, perché, secondo il dogma evoluzionista, questi darebbero alla specie maggiori possibilità evolutive.. Spettacolo triste è osservare come, ormai, al falco pellegrino siano gli etologi a fare il nido, segno che anche la fauna selvatica per sopravvivere, da ultimo, dipenderà dal credito, immancabile suggello della tecnocrazia.

70 38 morti al giorno in Italia, attualmente, con circa il doppio di danneggiati gravi per un totale di 36.000 casi complessivi all’anno. Si può leggere, ancora con utilità, H.RUESCH, Imperatrice nuda, Roma 1989, pp.29-32;169-181;214-238,291-331.

71 La Lebenswelt di Husserl, il “campo d’esperienza come calore del sole, durezza della sedia, impressione del velluto” di Whitehead.

72 I quali epistemologi pretendono che lo stesso avvicendarsi del paradigma tolemaico col copernicano sia avvenuto in maniera del tutto convenzionalista e post-moderna, con evidente e insensato anacronismo, perché l’esattezza dei calcoli e la maggiore prevedibilità dei fenomeni erano intesi -giustamente- come maggiore adeguatezza all’esperienza e quindi maggiore verosimiglianza, mica come maggiori coerenze sintattiche! (Anche se a quest’ultima ratio il Bellarmino voleva ridurre il copernicanesimo. Appunto: ridurre).

73 A quelli che, in nome di un presunto “senso della storia”, feticizzano il fatto compiuto e pretendono ricavarne valori e indicazioni per il presente e il futuro, facciamo notare quanto tale idolatria storicista possa condurre ad una acquiescenza al male. Quale presunto “senso della giustizia” potremmo ricavare da una prassi giudiziaria di un certo paese, dove i reati dei ricchi-prepotenti non venissero mai condannati? Diremmo che è il “senso della storia” e della giustizia a indurci a concludere che il ricco-prepotente non commette mai reati e ha sempre ragione?

74 Eppure Pasteur, Koch, Darwin, Eistein cosa sarebbero senza il sostegno mediatico? Così come sono ridotti allo status di perfetti ignoti dei Grandi della scienza come Bechamp, Naessens, Tesla, Kervran, Schauberger le cui teorie avrebbero condotto la medicina, la fisica, la ricerca energetica verso modelli non graditi alla tecnocrazia.

75 Nel pragmatismo, filosofia statunitense per eccellenza, da Peirce, James a Dewey, l’obiettivo fondamentale dell’”attività” conoscitiva (inclusa la scienza) è produrre tale Belief. Soprattutto in Peirce la teorizzazione è perfettamente in linea con quanto esige la tecnocrazia; per questo cofondatore del Metaphisical Club (1870, fucina dove si fondono darwinismo, convenzionalismo e pragmatismo) la verità non sarebbe altro che una credenza universalmente accettata, custode della quale, in campo scientifico, sarà la cosiddetta “comunità scientifica internazionale”, specie di sinedrio chiamato a stabilire, more theologico, in cosa debbono credere le masse. Qualcosa è vero non già se conforme a esperienza, ma se tutti vi concordano, e questo sarebbe sufficiente, perché l’esperienza, secondo la teoria semiotica di Peirce, in fondo non è che interpretazione (inferenza), cioè segno. Essersi tutti messi d’accordo su qualcosa (=convenzionalismo) avrebbe così già valore oggettivo. Poiché oggi (è evidente) sono i mezzi di comunicazione di massa a proporre e imporre ciò su cui tutti concordano, ecco che i detentori dei media vengono ad essere i detentori della verità. I quali, aperta tale prospettiva, non riferiscono “come stanno le cose”, ma addirittura le fanno essere come le dicono, dal momento che la “cosa”, per la semiotica, è già interpretazione, tutta risolta nel linguaggio che la dice. Quindi: i proprietari dei media dicono sempre la verità! Ecco dove vanno a parare tali “teorizzazioni” semiologiche. A questo punto una teoria scientifica diventa vera non quando sia conforme a esperienza, ma quando la si riesca ad accreditare presso il grande pubblico. E cioè essa è vera quando è sostenuta e insistentemente ripetuta dai media e quindi è resa Belief di massa. Non è un caso che oggi quasi tutti i testi di divulgazione scientifica non esordiscano più dicendo : “è provato”, “è dimostrato” bensì: “è teoria più diffusa”, “è teoria più accreditata”, ecc. La scienza è ridotta a credenza. Ma invece di riferire ciò che è accreditato, facendo da cassa di risonanza, più serio e più interessante sarebbe porre la questione: chi e perché vuol dare a credere questo o quello?

76 PERELMAN C.– OLBRECHTS TYTECA L., Trattato dell’argomentazione: la nuova retorica, 1958.

77 Nella rinuncia all’esigenza di verità, Rorty coglie molto bene la convergenza tra pragmatismo ed ermeneutica (del primo è nota la speciale vocazione convenzionalista).

78 Per significato e implicazioni della regressione antropologica si rimanda a DE BERNARDI P., La manipolazione tecnocratica dei costumi sessuali e i suoi scopi, in “Sapienza”, 55 (2002) pp.307-332.

79 Malintesa lezione cartesiana. Che “io sono” è certezza suprema perché innegabile (Meditationes, II). Il pensare (come dubitare iperbolico) mi consente di accorgermi (appercezione) che “sono” e non fonda perciò l’essere, allo stesso modo in cui la scala, che mi consente di salire sul fienile, non sostiene (non fonda) il fienile stesso. Cogito, quindi appercepisco di essere; e così colgo la soggettività. Chi muore è l’uomo, che può cogliere in sé quel riflesso di infinità, che è la soggettività (“sono”). Quando l’uomo muore cessa solo la possibilità di quell’appercezione, che anche per Fichte (e poi Schelling) è il punto più fermo di tutta la filosofia (intuizione intellettuale). Non muore perciò il soggetto, ma può morire nell’uomo il bisogno di scoprirsi soggetto, il che è peggio per lui e segno di decadimento spirituale e civile.

80 Si noti l’anonimizzazione e la cancellazione del fondamento della dignità della persona. Mentre nella Meditatio cartesiana “io stesso “ sono protagonista della ricerca della verità e colui che è capace di riconoscerla, in Peirce e nelle filosofie della “svolta linguistica” (Rorty) è la struttura sociale, la storia, la comunità, ecc., ad assumersi tale ruolo (e cioè le élites dominanti in esse)

81 Si va dal materialismo di J. Moleschott e K. Vogt (alle soglie del secolo scorso), per i quali il pensiero è una sorta di secrezione del cervello, a una pressoché costante (nel corso del secolo) deformazione darwinista, che fa della conoscenza una risposta adattativa all’ambiente. Così l’interpretano Mach e Avenarius, così Dewey, nella sua concezione naturalistica della logica, fino a Kuhn che considera risposte adattative le stesse teorie scientifiche. Alla medesima funzione riduzionista e materialista si attengono i modelli computazionali della “mente” proposti dagli studiosi dell’intelligenza artificiale: M. Boden, D. Hofstadter, G. Bateson. La mente, la conoscenza sarebbero risposte agli stimoli ambientali. Si spera che le degenerazioni in cui tale modello incorre servano ad aprire gli occhi: sulla scia di J. Bentham, che (parallelamente a quanto fatto per la conoscenza) riduce al senso del dolore lo specifico dell’etica, facendone un’espressione della natura, anziché dello spirito (soggetto), le correnti dell’animalismo dichiarano pregiudizio specista (P.SINGERS, Animal Liberation,1975) il sostenere la differenza strutturale tra animale e uomo. Come si vede il terreno è pronto: con la destrutturazione del Soggetto, là dove si dichiara morto l’uomo, sta nascendo l’uomo-bestia. E comunque, in tutte queste prospettive, il linguaggio e/o l’inconscio e/o l’economia e/o la natura sono teorizzati surrettiziamente come veri soggetti che si esprimerebbero e agirebbero attraverso l’uomo, che così da soggetto (=colui che può trovare in sé valore e verità) lo si pretende ridurre a massa parlante e/o massa agente per conto di.. E’ questa la struttura teoretica e antropologica del vero totalitarismo, quello che prepara il terreno alla Grande Tirannide.

82 Tuttavia Newton è consapevole del carattere di trascendentalità (= condizione del percepire) dello spazio, allorchè lo chiama sensorium Dei: ciò che rende possibile percepibilità e “creabilità” degli oggetti. Quanto al tempo, egli distingue quello assoluto (vero matematico) da quello relativo, apparente, volgare, che è la durata e si esprime in misura; NEWTON I., Philosophiae Naturalis Principia mathematica, 1726, Definiz., scolio, I.

83 Ciò corrisponde a quello che Popper chiama il suo “sogno metafisico”, ossia :”un mondo altrettanto indeterministico anche in assenza di ‘soggetti osservatori’ a sperimentarlo e a interagire con esso”. Perciò :”la mia personale posizione è che l’indeterminismo è compatibile col realismo e che il rendersi conto di questo fatto rende possibile l’adozione di una coerente epistemologia oggettivistica dell’intera teoria dei quanti e di una interpretazione oggettivistica della probabilità”, POPPER K., Quantum Theory and the Schism in Physics, Totowa N.J. 1982, tr. it. Milano 1984, p. 183 e 181. Da Einstein a Prigogine si è lavorato per realizzare il “sogno metafisico” di Popper: che è appunto un’immagine della natura intrinsecamente discontinua, indeterministica e caotica; e tappa di questo pervertimento stocastico è la cancellazione della soggettività.

84 Senza andare troppo lontano, nel Settecento, in Leibniz, in Wolff e nella loro Scuola c’è piena consapevolezza del carattere frattale e impredicibile di svariati fenomeni naturali, da far apparire necessaria, anche allora, la messa a punto di una logica probabilium, di una ars inveniendi, insomma di quel famoso calcolo delle probabilità che doveva condurre ad una conoscenza della natura nei suoi aspetti più imprevedibili (l’attesissima Vernunftlehre des Wahrscheinlichen), anzi in quello massimamente imprevedibile e frattale, che è l’individualità irripetibile (da TSCHIRNHAUS, Medicina mentis sive artis invenienda praecepta generalia, Leipzig 1695, a C.F.FLOEGEL, Einleitung in die Erfindungskunst, Breslau-Leipzig 1760). Consapevoli di cosa sia la fisica della complessità, questi grandi pensatori e scienziati si sono forse sognati di dematematizzare la natura, insinuandone la discontinuità o,peggio,la caoticità?

85 Isolare l’uomo dalla natura è da sempre stato uno dei principali obiettivi della tecnocrazia, perseguito con lo scardinamento del mondo rurale, favorendo l’urbanesimo, delegittimando i saperi etnici e tradizionali (ridotti a curiosità turistico-gastronomica). La dottrina delle “variazioni casuali”, da Darwin in poi, il “plasma germinale” di A. Weismann, le “mutazioni casuali” del neodarwinismo mutazionista (geni presunti “regolatori”) prospettano un modello di vivente o un genoma isolato dalla natura, ossia:le variazioni-mutazioni si produrrebbero prima e indipendentemente dall’ambiente circostante; ecco perché esse sono lo “scientificamente corretto”. Sentiamo un illustre epigono: ”…niente, nella genetica, predispone gli organismi a variare in direzione adattative. Se l’ambiente cambia nel senso di favorire organismi più piccoli, non per questo la mutazione genetica comincia a produrre una variazione distorta verso una minore grandezza. In altri termini, la variazione stessa non fornisce alcuna componente direzionale. Causa del mutamento evolutivo è la selezione naturale; la variazione organica è solo la materia prima.” S.J.GOULD, Wonderful Life. The Burgess Shale and the Nature of History, New York-London 1989, tr.it. Milano 1990,p.232-233 nota. Ecco perché c’è un gran daffare attorno alla artemia salina, il crostaceo che muta profondamente la morfologia a seconda che si trovi a vivere in acqua salsa o dolce. L’animaletto si mostra troppo lamarckiano, troppo simbiotico con la natura, perciò un gruppo di “scienziati” sta cercando di provare che quelle mutazioni avverrebbero comunque casualmente, ossia indipendentemente da ogni stimolo ambientale, come richiesto dallo “scientificamente corretto”.

86 A quel punto potrà apparire pienamente plausibile che le mucche mangino carcasse di pecora; si potranno parificare sotto ogni profilo i matrimoni omosessuali con quelli tra uomo e donna; si potrà dichiarare “contributo della scienza all’evoluzione” il riuscire a far partorire un uomo; ecc. Quando sarà abbattuto il cosiddetto “pregiudizio specista” e agli animali saranno riconosciuti “diritti soggettivi”(cioè, dello stesso tipo di quelli propri del soggetto umano, T.REGAN, The case for Animal Rights,1984), assisteremo a matrimoni tra uomini e mucche?

87 Questo è reso possibile sul presupposto della risoluzione semiotica del fatto e cioè i fatti sarebbero già da sempre interpretazioni…. Quelle premesse arbitrarie (postulati) sono il ciò rispetto a cui si interpretano i fatti che così, nella loro risoluzione semiotica, confermeranno sempre le teorie.

88 “Storicità della verità” può solo significare che 2+2=4 si trasforma e diventa II+II=IV, oppure **+**=****; in altre epoche storiche potrà comparire come (5-3)+(5-3)=4. La cosa diventa drammatica quando con “storicità della verità” si dà a credere che 2+2 possa fare 5. Qui siamo alla volontà di caos. Intossicare la gente con questa idea distorta di “storicità” o addirittura con l’idea che la verità non esisterebbe, serve a generare pericolose forme di smarrimento, cioè la perdita di qualsiasi criterio autonomo di orientamento nel mondo. Quando l’uomo non saprà più distinguere il dritto dal curvo, il cerchio dal quadrato, sarà più facile dominarlo.

89 Un approfondito studio della storia, specie contemporanea, consentirà di scoprire come tale paragone sia tutt’altro che peregrino.

90 Si rimanda a DE BERNARDI P., L’oscuro obiettivo antropologico della riforma tecnocratica della scuola, in “Sapienza” 54 (2001), pp.455-464.

91 La direzione del tempo indicherebbe entropia crescente (H. REICHENBACH, The Direction of time, 1956) da cui il principio, anzi il filosofema: “Nel tempo, l’entropia dell’universo tende al massimo” (tradotto: Il tempo lineare spingerebbe l’universo verso il collasso).

92 La macchina mediatica sta diffondendo, nelle quattro direzioni, volumi che dichiarano “superata” l’idea galileano newtoniana che la natura risponda a una conoscenza matematica (ad es.:S. WOLFRAM, A new kind of Science, 2002, già recensito da “L’Espresso”, 27.IX.2001, p. 149, prima ancora che uscisse), per sostenere il ricorso a modelli computazionali, che consentono di identificare-assimilare la natura ai vari progetti manipolatorii.

93 Nel modello meteorologico (E.N.Lorenz, 1963) si usa dire che un battito d’ali a Tokio diventa una tempesta a New York, per significare la complessificazione e dilatazione del fenomeno dovuto alle condizioni di contorno (un po’ come nelle valanghe).

94 “L’indeterminismo, difeso da Whithead, Bergson o Popper si è ormai imposto nella fisica…”; PRIGOGINE I., La fin des certitudes, tr. it. cit., p. 104.Sul metodo per giungere a tale risultato ci informa Prigogine a p. 68 della stessa opera, dove scrive che solo in Europa, tra il 1986 e il 1996 sono stati fondati più di 50 centri interdisciplinari per lo studio dei fenomeni non lineari. Ciò significa che l’idea epicureo-entropica di natura è sostenuta, diffusa e imposta con buoni finanziamenti, anche comunitari; mentre agli iloti vien dato a credere che l’idea ciclica e regolare di natura sarebbe superata e che sarebbe il tramonto di questa idea a sostenere l’ interesse per lo “studio” dei fenomeni non lineari; vien fatto loro credere, cioè, che non sarebbero i finanziamenti a promuovere la diffusione dell’idea, ma sarebbe questa (il cui avvento sarà frutto di “accadimento casuale”) il primum movens di finanziamenti a proprio favore, con cui fondare i centri di studio.

95 “Creando una visione della natura compatibile con lo sfruttamento che ne stiamo facendo possiamo dare una tinta di ‘legittimità cosmica’ alle nostre conquiste tecnologiche. Le cosmologie, allora, servono come giustificazione fondamentale per il nostro agire; ci permettono di continuare nella finzione che esso è conforme all’ordine naturale delle cose”; RIFKIN J., Algeny, tr. it. cit., p. 141.

96 Nuove scoperte possono semmai mutare modi e interpretazioni, ma non inficiare il che.

97 Con che spettacolare passività ed esecutività, nelle Università, nei Licei, negli IRSAAE si è ripetuto il principio della sostanziale equivalenza tra naturale e transgenico. Principio escogitato originariamente in USA a sostegno di una strategia giuridico-commerciale che doveva dare al cibo OGM pari diritto a stare sugli scaffali dei supermercati insieme ai prodotti naturali. Un banale e un pò truffaldino stratagemma commerciale diventa verità scientifica, per milioni di studenti e non solo. Secondo quel principio, si dice che la biologia molecolare avanzata continuerebbe a fare quello che facevano i nostri nonni, quando innestavano mele con cotogne o incrociavano i pennuti. Ma quale continuità, quale sostanziale equivalenza? E’ evidente invece il radicale salto di qualità: i nostri avi non potevano e non volevano incrociare pesci e fragole (ciò che loro avrebbero definito “mostri”), mentre le attuali biotecnologie violano le naturali resistenze del DNA di ogni specie, per produrre ciò che la natura ha sempre proibito.

98 DEWEY J., Experience and Nature, 1929, rist. New York 1958, p.41 “L’uomo si trova a vivere in un mondo aleatorio; la sua esistenza implica, per dirla in breve , un azzardo. Il mondo è la scena del rischio: è incerto, instabile, terribilmente instabile. I suoi pericoli sono irregolari, incostanti, non possono essere riportati a un tempo ed a un stagione determinata”; p.42:”L’uomo teme, perché vive in un mondo spaventevole e terribile. Il mondo è precario e pericoloso”; p.69:”L’evidenza ultima della genuina casualità, contingenza, irregolarità e indeterminatezza nella natura è ciò che sta alla base dell’insorgere della riflessione”. Quello che D.(ed epigoni) attribuisce alla natura lo dovrebbe piuttosto attribuire alla “civiltà” in cui è cresciuto, la quale ha fatto dello sradicamento dalle regolarità della natura un punto qualificante…..Poco che si fosse guardato attorno,egli avrebbe visto che le civiltà passate e i popoli naturali hanno da sempre scandito le fasi più importanti della vita individuale e sociale sui prevedibili e ciclici ritmi della natura, trovandone anche stabilità mentale e psichica. L’angoscia è degli sradicati, che corrono sull’incerto binario del tempo lineare.

99 Diamo un assaggio di che direzione si sta prendendo. Le foreste? Ora –si dice- ricoprono il 20% del territorio; ventiquattro ore dopo, per esigenze politiche e/o economiche, si riforesta il territorio, portando al 40% la superficie forestale; ma non piantando alberi (in 24 ore?), bensì assumendo come definizione di foresta non un territorio ricoperto almeno per il 30% di alberi, ma anche terreni che ne abbiano solo il 10%! Le terapie per il cancro (chemioterapia, radioterapia, chirurgia)? Hanno migliorato –si dice- la loro efficacia, aumentando del 20% le guarigioni negli ultimi quattro anni. Cosa è in realtà accaduto? Premesso che con la definizione di “guarito” in oncologia si intende: “colui che sopravvive almeno cinque anni dal momento in cui gli viene diagnosticato il cancro”, si nota: una pressante campagna di screening di massa ha condotto ad anticipare, in moltissimi casi, la diagnosi di cancro, in modo che, pur rimanendo invariata la data di morte di costoro, anticipando la diagnosi essi possono rientrare tra i guariti. Es: se Tizio, Caio, Sempronio muoiono di cancro nel 2000, dopo che gli è stata diagnosticata la malattia, rispettivamente, nel 1994, nel 1996 e nel 1998, si dirà che le terapie oggi guariscono un terzo gli ammalati (infatti il primo sopravvive ai fatidici cinque anni). Se con pressanti campagne riesco a spingere anche Caio e Sempronio a farsi fare la diagnosi precoce, almeno negli anni1993 e 1994, fermo restando che essi comunque muoiono nel 2000, la medicina potrà dire di aver raggiunto un successo di guarigioni pari al 100% e far credere che chemioterapia, radioterapia e chirurgia oggi sono molto più efficaci!

100 Plaudire all’avvento del modello postmoderno, perché con esso si sarebbe conseguita finalmente una visione teologica-israelitica della natura, caratterizzata da contingenza delle sue leggi, volute e (nel caso del miracolo) modificate dal Creatore (W.PANNENBERG, Toward a Theology of Nature, Louisville 1993, p.78), è l’ingenuità (o lo stare al gioco?) di chi non ha compreso che, se la tecnocrazia favorisce l’avvento di tale modello è perché essa ora rivendica a sé il ruolo di modificare a piacimento il corso della natura, in una radicale prospettiva secolaristica, disposta a strumentalizzare concezioni teologiche che introducano idee di contingenza, storicità delle leggi di natura, tempo lineare,ecc.

101 Non è un caso che, ad esempio, nel panorama dei cosiddetti “aiuti internazionali”, sostenuti anche da agenzie ONU, i “Kit per la salute riproduttiva” contengano fondamentalmente strumenti abortivi o anticoncezionali. Non è un caso che gli “aiuti alimentari” siano a base di soia transgenica, i cui alti livelli di estrogeno garantiscono effetti defertilizzanti. Si tratta di interventi consapevolmente mathusiani nei think tank che li promuovono, mentre sono ingenuamente ritenuti “umanitari” dalle organizzazioni che li attuano. Specie in campo medicale, dove il terzo mondo pare essersi fatto convincere che i medicinali siano più importanti del cibo, vigono programmi di vaccinazioni di massa di cui non si controllano gli effetti genetici a medio e lungo termine, né si sospetta che possano avere come obiettivo un indebolimento della salute. Che si dissemini il pianeta di uranio (più o meno) impoverito, che continui massiccia la polluzione chimica, sia nel cibo, nell’ambiente, che come effetto di medicalizzazione, tanto nei paesi ricchi che in quelli poveri, potrebbe essere il modo malthusiano in cui l’élite (che darwinianamente si reputa il frutto più maturo dell’evoluzione) “gestisce i processi evolutivi”, per risolvere il presunto dissidio tra popolazione (povera ovviamente) e risorse. Più in basso nella “scala evolutiva”, dove si collocano esecutori e mistificatori (certi politici e certi intellettuali), quelle che sono guerre a bassa intensità vengono dichiarate inevitabili effetti collaterali (avvelenamento, debiti e destrutturazione delle economie di sussistenza) dei cosiddetti “programmi di sviluppo” (tipo “rivoluzione verde”, ieri; contaminazione e saccheggi genetici, oggi).Inoltre la crescente devastazione della salute e dell’ambiente serve alla tecnocrazia per dare realtà a quanto teorizzato: senza la sempre crescente tecnologizzazione e il credito non si può vivere (Anche se un po’ datato, resta un classico, di valore paradigmatico, che consente di aprire gli occhi –sempreché li si voglia aprire- su un aspetto di una sottovalutata e sinistra “politica del cancro”D.WEIR-M.SCHAPIRO, Circle of Poison,Institute for Food and Development Policy,U.S.A.,1981, tr. it. Bari 1982, spec.,pp. 73-82).

102 La convinzione che le “leggi di natura” non siano qualcosa che viene scoperto, bensì inventato dall’uomo, caratterizza le posizioni “costruttiviste”, (cf. H.V. FOESTER, in La sfida della complessità, cit. p. 112 segg.). Ci si risparmi il compito di esporre e confutare tali convinzioni.

Annunci
Questa voce è stata pubblicata in Uncategorized. Contrassegna il permalink.

Una risposta a EVOLUZIONISMO, CAOS, ENTROPIA.

  1. davide braghiroli ha detto:

    *Commento di prova*

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...