Emerge un filo continuo che attraversa millenni quando si osserva la traiettoria della tecnica nella storia umana. Nasce come estensione del gesto umano, cresce come amplificazione delle capacità cognitive e operative, e oggi tende a configurarsi come infrastruttura decisionale capace di operare con gradi crescenti di autonomia. Fermarsi a comprendere questo passaggio, ci consente di leggere la tecnica come processo evolutivo che riflette la trasformazione del rapporto tra mente, materia e organizzazione sociale.
Nelle civiltà antiche, la tecnica ha coinciso con la manualità disciplinata, iniziando con l’aratro, poi la ruota e le prime macchine idrauliche ed ogni passaggio ha rappresentato forme di intelligenza incorporata nella materia[2]. Nel durante dell’evoluzione, l’uomo ha sempre progettato e governato ogni fase del processo con la tecnica che ha eseguito e l’umano che ha avuto spazio e volontà nella decisione. Quindi una conoscenza tecnica tacita, trasmessa attraverso la pratica, radicata nel corpo e nella comunità e dunque appendice dell’intenzionalità umana, laddove la sua efficacia dipendeva dalla perizia dell’artigiano e dalla memoria collettiva delle botteghe[3].
Con la rivoluzione scientifica tra XVII e XVIII secolo, la tecnica acquisisce una nuova dimensione[4]. L’introduzione del metodo sperimentale e della formalizzazione matematica, consentono di modellare la realtà con crescente precisione perché le macchine non sono più semplici strumenti, ma sistemi progettati secondo leggi universali[5].
La macchina a vapore, i telai meccanici e successivamente l’elettrificazione, inaugurano un paradigma in cui la tecnica diventa moltiplicatore di forza, cosi che l’energia sostituisce il muscolo, mentre la standardizzazione industriale sostituisce l’unicità artigianale. L’opera umana rimane, sì, centrale, ma si sposta dalla produzione diretta alla supervisione e alla progettazione.
Il Novecento introduce, invece, un salto qualitativo ulteriore con la tecnica che inizia a operare sul dominio dell’informazione[6]. Ne assistiamo l’evoluzione con l’invenzione del calcolatore elettronico che segna l’ingresso della logica computazionale nei processi produttivi e organizzativi, laddove l’automazione non riguarda più soltanto la forza fisica, ma la sequenza delle operazioni[7].
I sistemi di controllo numerico e le prime reti informatiche trasformano la fabbrica in un ambiente programmabile[8] con l’umano che continua a definire regole e obiettivi, mentre la macchina esegue cicli ripetitivi con precisione crescente, consentendo, così, che la tecnica diventi architettura di processi.
Il XXI secolo introduce, così, un cambiamento che appare, per molti aspetti, radicale[9] perché ci impone ad assistere come la tecnica non si limiti più a eseguire istruzioni predefinite, ma apprende dai dati. Lo si vede con i sistemi di intelligenza artificiale che, basati su modelli statistici e algoritmi di apprendimento automatico, elaborano pattern complessi e producono output non esplicitamente programmati e consente, dunque, alla tecnica di entrare nella sfera della previsione e della decisione[10], assumendo le funzioni del classificare, suggerire, ottimizzare, anticipare, tradizionalmente attribuite al giudizio umano[11].
Ora, la percezione contemporanea di una tecnica che supera l’umano, sempre più convincente perché nasce fa una serie di fattori che convergono tra di loro. Tra questi la disponibilità massiva di dati perché ogni attività digitale genera tracce che alimentano modelli predittivi sempre più accurati, così come la potenza computazionale, cresciuta secondo dinamiche esponenziali che rendono possibile l’analisi simultanea di volumi informativi prima impensabili e, dunque, l’integrazione sistemica, perché la tecnica è una rete interconnessa che coordina flussi di informazione, energia e decisione.
Ciò che distingue la fase attuale[12] dalle epoche precedenti è la sua capacità di operare su livelli metacognitivi[13], con le macchine contemporanee che non si limitano a eseguire azioni ma costruiscono modelli del mondo, aggiornano ipotesi e producono raccomandazioni traducendosi in sistemi che identificano anomalie, prevedono eventi e suggeriscono strategie operative.
In tale scenario, l’opera umana assume una forma nuova che non si evolve attraverso l’intervento diretto su ogni fase del processo, ma definisce le condizioni entro cui la tecnica agisce. La sensazione di autonomia tecnica deriva, così, da un mutamento nella distribuzione delle responsabilità cognitive. In passato, la tecnica amplificava la forza fisica e riduceva la fatica mentre oggi amplifica la capacità di calcolo e riduce l’incertezza decisionale. Uno spostamento che modifica il perimetro dell’azione umana con il lavoro che si concentra sempre più sulla progettazione di architetture decisionali e sulla valutazione delle conseguenze sistemiche. Un’evoluzione che rappresenta uno scenario, quello contemporaneo, nella quale la tecnica assume il ruolo di infrastruttura cognitiva collettiva perché la sua evoluzione procede come risultato della crescente complessità delle società.
L’autonomia apparente dei sistemi tecnologici, riflette la necessità di gestire fenomeni caratterizzati da velocità, interdipendenza e volume informativo, senza precedenti. E non stupisce come la questione centrale, non riguardi tanto la sostituzione dell’opera umana, bensì la ridefinizione della responsabilità progettuale. La storia della tecnica può essere letta come la progressiva esternalizzazione delle funzioni umane[14]: prima la forza, poi la memoria, ora la previsione. Ogni fase ha generato trasformazioni profonde nei modelli economici e sociali, ridefinendo il significato stesso di lavoro e competenza.
L’epoca attuale introduce una sfida inedita: progettare sistemi tecnici capaci di apprendere mantenendo una coerenza con i valori e gli obiettivi umani. In questo senso, la tecnica contemporanea non rappresenta una frattura con il passato, ma l’esito di una traiettoria storica che ha progressivamente trasferito nella materia funzioni sempre più sofisticate della mente. Con l’evolversi della tecnica e delle sue capacità di previsione, cresce la paura per il significato simbolico e antropologico della stessa nella storia umana. Prevedere, infatti, è anticipare un evento per avvicinarsi a una facoltà che, per secoli, è stata associata al divino, al sacro, alla trascendenza[15]. Ed è proprio in questa zona di confine tra conoscenza e destino che si radica una parte profonda dell’inquietudine contemporanea.
Nelle culture antiche, la previsione è sempre stata mediata da rituali e da figure autorizzate tra oracoli, sacerdoti e interpreti dei segni. L’atto di prevedere non era considerato una forma di ascolto del mondo invisibile. Nella tradizione greca, l’oracolo di Delfi forniva risposte e produceva enunciati ambigui, destinati a essere interpretati dall’umano[16]. La previsione restava, così, un atto incompleto senza la responsabilità ermeneutica dell’uomo. Anche nella tradizione giudaico-cristiana, la profezia non coincideva con una previsione deterministica ma rappresentava una chiamata morale, un invito alla trasformazione ma mai una riduzione del futuro a sequenza inevitabile. Il punto sensibile emerge quando la previsione si trasforma da interpretazione simbolica a calcolo probabilistico.
Con la nascita della teoria della probabilità nel XVII secolo, basti pensare agli studi di Blaise Pascal e Pierre‑Simon Laplace, il futuro inizia a essere trattato come uno spazio misurabile. Laplace immagina un’intelligenza capace di conoscere tutte le condizioni dell’universo e dedurre ogni evento futuro, ipotizza una figura teorica che anticipa, in forma concettuale, l’idea di una previsione totale, generando una tensione profonda per la quale ci si chiede se il futuro, completamente calcolabile, lasci spazio resta per la libertà, per l’imprevisto, per la responsabilità morale.
La teologia, in molte tradizioni, ha custodito con attenzione questo equilibrio. L’onniscienza divina è concepita come attributo trascendente, non replicabile dall’umano. Laddove l’uomo può conoscere, può interpretare, può intuire, ma non può possedere una conoscenza totale del futuro senza alterare il senso stesso della sua condizione creaturale. Una prospettiva in cui la previsione radicale appare come una forma di sconfinamento simbolico, come perturbazione del ruolo antropologico dell’essere umano. Oggi, con l’intelligenza artificiale predittiva, questa tensione assume una forma nuova perché i modelli statistici non pretendono di conoscere il futuro in senso assoluto ma producono distribuzioni di probabilità, stimano scenari plausibili e riducono l’incertezza. Un vista matematizzata non intravede, però, l’esistenza di divinazione ma può cogliere, sicuramente, inferenza. Tuttavia, sul piano percettivo e culturale, la differenza tra previsione probabilistica e predizione deterministica non è sempre immediatamente evidente perché quando un sistema suggerisce una diagnosi medica, un rischio finanziario o un comportamento atteso, la percezione collettiva tende a interpretare quell’output come una forma di sapere anticipato. Dunque l’incrocio della dimensione gnoseologica con quella morale e simbolica, determina paura. Eppure, sul piano noetico, la previsione riduce l’incertezza, e il contenimento di quest’ultima, modifica il modo in cui gli individui percepiscono la libertà. Se il futuro appare sempre più prevedibile, si rafforza l’impressione che lo spazio dell’imprevisto, tradizionalmente associato alla libertà umana, si restringa. Moralmente, emerge la questione della responsabilità, perché una previsione, non essendo neutrale, influenza decisioni, orienta scelte e può produrre effetti auto-realizzanti. Quando un algoritmo segnala un rischio elevato, quell’informazione modifica il comportamento degli attori coinvolti. La previsione diventa quindi un elemento attivo nella costruzione del futuro, non solo nella sua descrizione[17]. Ai fini simbolici, la previsione tocca la dimensione archetipica con la relazione tra uomo e destino. In molte narrazioni religiose e filosofiche, l’uomo è definito proprio dalla sua esposizione all’incertezza come condizione esistenziale che consente scelta, responsabilità e trasformazione. L’impressione contemporanea di una tecnica che snatura l’uomo nasce da una confusione tra previsione e determinismo. I sistemi predittivi non producono certezze assolute e costruiscono mappe probabilistiche ma, tuttavia, quando queste mappe entrano nei processi sociali, assumono una forza performativa che modifica la realtà stessa perché se le decisioni si allineano alle previsioni, il futuro previsto tende a diventare il futuro realizzato. Da una prospettiva più ampia, la previsione non contraddice la natura umana, ne rappresenta, al contrario, una delle forme più antiche. Ogni civiltà ha costruito strumenti per anticipare attraverso la realizzazione di calendari agricoli, modelli astronomici e tavole statistiche. Ciò che cambia oggi è la scala e la velocità, laddove la previsione non riguarda più soltanto fenomeni naturali o collettivi, ma entra nella sfera individuale della salute, del comportamento e delle preferenze. Se non una questione teologica nel senso stretto, lo è, sicuramente, dal punto di vista antropologico e progettuale. La capacità di previsione diventa problematica quando viene percepita come sostitutiva del giudizio umano anziché come sua estensione e quando la previsione è integrata in un quadro di responsabilità, diventa uno strumento di prudenza, una forma moderna di phronesis aristotelica[18], orientata alla decisione consapevole. Quando, invece, è percepita come verità indiscutibile, assume una dimensione quasi oracolare, capace di generare dipendenza cognitiva. La paura contemporanea, dunque, non deriva dal fatto che la tecnica violi un principio teologico, ma dal fatto che renda visibile la possibilità nuova dell’anticipazione sistematica del comportamento umano. Una possibilità che obbliga a ridefinire il rapporto tra conoscenza e libertà, tra previsione e responsabilità, ma anche tra potenza tecnica e misura umana. Ed è su queste riflessioni che sembra materializzarsi la società del rischio di Ulrich Beck. L’asse previsione–rischio rappresenta una delle chiavi più efficaci per leggere l’evoluzione della tecnica contemporanea, e in effetti molte dinamiche attuali sembrano dare una forma concreta a ciò che il sociologo aveva delineato già negli anni Ottanta con la teoria della società del rischio. Beck descriveva il passaggio da una società che distribuisce ricchezza a una società che distribuisce rischi. Nella modernità industriale classica, il rischio esisteva ma risultava spesso visibile, localizzato, circoscritto. Una fabbrica poteva esplodere, una diga poteva cedere con eventi gravi, ma delimitabili nello spazio e nel tempo. Con la modernità avanzata, quella tecnologica, globale, interconnessa, il rischio cambia natura perché diventa sistemico, diffuso, anticipato prima ancora di manifestarsi. Ed è in questo ambito che la previsione entra come nuova architettura della società. Nel paradigma contemporaneo, prevedere non equivale soltanto a ridurre l’incertezza ma produrre nuovi tipi di rischio. Può sembrare paradossale, ma è esattamente il cuore della riflessione di Beck. Ogni avanzamento tecnico genera capacità di previsione più sofisticate che rendono visibili rischi che prima restavano ignoti. La conoscenza del rischio non lo elimina ma lo moltiplica, lo rende oggetto di decisione, lo porta dentro la sfera politica, economica e culturale, consentendo, così, che la previsione diventi il motore della società del rischio. Nel mondo dell’intelligenza artificiale predittiva, questa dinamica si manifesta in modo quasi esemplare con i modelli di machine learning che nel descrivere ciò che accade, stimano probabilità di eventi futuri, condizionando la società contemporanea ad organizzarsi sempre più attorno a queste previsioni. Le assicurazioni prezzano il rischio in modo dinamico, i sistemi sanitari anticipano patologie, le città pianificano flussi sulla base di modelli previsionali. Una configurazione che produce una materializzazione concreta della società del rischio, ma con la peculiarità del rischio che diventa computazionale. Non si tratta più soltanto di un pericolo fisico o ambientale, il rischio diventa una variabile modellabile, integrata in algoritmi decisionali e per questo, ci fa assistere ad una trasformazione del rischio da evento incerto a distribuzione probabilistica. E’ un passaggio che modifica profondamente la cultura sociale perché il rischio non viene più percepito come fatalità, ma come oggetto di gestione sistematica. Eppure proprio qui si apre un nodo teorico molto interessante, perché la previsione trasforma il rischio in responsabilità anticipata. Ogni previsione introduce una scelta: agire oppure attendere, intervenire oppure monitorare. In tal senso, la previsione aumenta il numero delle decisioni possibili e quindi, paradossalmente, espande il campo del rischio decisionale. La società del rischio di Beck[19], oggi, sembra entrare nella fase di una società della previsione del rischio. Oltre a convivere con rischi globali costruiamo strumenti per anticiparli e, così facendo, li rendiamo parte integrante dell’organizzazione sociale. Quando, però, la previsione diventa dominante, cambia il modo in cui la società pensa il futuro. Quest’ultimo perde il connotato di spazio aperto da esplorare, per assumere sembianze di un insieme di scenari probabilistici da ottimizzare, producendo una trasformazione culturale profonda, perché il rischio non è più soltanto ciò che può accadere, ma ciò che deve essere continuamente modellato. Beck aveva intravisto la struttura della modernità avanzata, mentre l’intelligenza artificiale ne costituisce oggi la tecnologia operativa. La vera questione, allora, non riguarda semplicemente la crescita del rischio, ma la sua gestione come infrastruttura sociale. In un contesto come quello attuale, il rischio diventa il linguaggio stesso attraverso cui la società organizza le proprie decisioni. La società del rischio si materializza, dunque, quando il futuro smette di essere semplicemente atteso e diventa oggetto di progettazione continua. La previsione introduce, così, un nuovo rapporto con il tempo, laddove il presente non è più soltanto ciò che accade, ma ciò che prepara sistematicamente ciò che potrebbe accadere[20]. Se si guarda alla storia della tecnica lungo questa direttrice, emerge una sequenza quasi lineare. Prima si prevedevano fenomeni naturali, poi si sono previsti fenomeni economici, oggi si tenta di prevedere comportamenti umani e dinamiche sociali e domani si tenderà a prevedere interi ecosistemi complessi. Arrivati a questo punto, quasi imprescindibile approfondire la figura di Pierre-Simon Laplace che nasce nel 1749, in una Francia che sta entrando nell’epoca dell’Illuminismo. È contemporaneo di una trasformazione profonda con la convinzione crescente che il mondo sia intelligibile attraverso leggi matematiche. In questo contesto, Laplace si distingue per un lavoro monumentale sulla meccanica celeste, cioè sul movimento dei pianeti e dei corpi celesti. Prima di lui, la grande intuizione di Isaac Newton aveva mostrato che i pianeti si muovono secondo leggi precise. Laplace compie un passo ulteriore, dimostrando che, conoscendo con precisione le condizioni iniziali di un sistema fisico (posizione e velocità di ogni corpo) è possibile calcolarne l’evoluzione futura con estrema accuratezza. Un passaggio con implicazioni filosofiche enormi perché non si limita a dire che possiamo descrivere il mondo, ma sostiene che possiamo prevederlo, se la conoscenza è sufficientemente completa. La sua intuizione più famosa appare in un passaggio del 1814, nel suo saggio sulla probabilità, laddove introduce un esperimento mentale che diventerà celebre, ossia l’idea di un’intelligenza teorica, poi chiamata “demone di Laplace”[21], capace di conoscere tutte le forze della natura e tutte le posizioni delle particelle dell’universo in un dato istante. Se un’intelligenza del genere esistesse, scrive Laplace, potrebbe calcolare l’intero futuro dell’universo, ricostruire l’intero passato ed eliminare ogni incertezza. Frenando la scetticità che naturalmente suscita, Laplace non genera di una fantasia metafisica, non a modo suo. La enuncia come deduzione logica di un’idea precisa che si basa sul fatto che se il mondo obbedisce a leggi deterministiche, allora il futuro è già contenuto nel presente. Per la sociologia, una rivoluzione perché significa trasformare il futuro, da spazio aperto a funzione matematica. In effetti Laplace ha introdotto una visione che, nel tempo, ha influenzato non solo la fisica, ma il modo in cui le società hanno pensato la previsione. La sua idea implica tre conseguenze fondamentali. Il futuro come oggetto calcolabile, è il suo primo convincimento. Prima di Laplace, il futuro apparteneva alla sfera del destino, della provvidenza o dell’incertezza naturale. Con Laplace, il futuro entra nella sfera del calcolo, fornendo la radice culturale di tutto ciò che oggi chiamiamo previsione statistica, risk modeling e simulazione. La probabilità come misura dell’ignoranza. Laplace non vede la probabilità come qualcosa di intrinseco al mondo, ma come effetto della nostra conoscenza incompleta perché se conoscessimo tutto, non avremmo bisogno di probabilità. Un’idea profondissima, che ha plasmato interi sistemi sociali come le assicurazioni, la finanza, l’epidemiologia ed il risk management. In ultimo, la nascita del determinismo scientifico. Il determinismo laplaciano suggerisce che ogni evento ha cause precise e che il futuro non è casuale, ma derivabile. Questa visione ha alimentato l’ottimismo scientifico dell’Ottocento con l’idea che, con abbastanza dati e abbastanza calcolo, ogni fenomeno possa essere previsto. Oggi abbiamo la chiara evidenza di essere lontani dal determinismo totale di Laplace. La scienza del Novecento ha introdotto limiti fondamentali con evidenze della meccanica quantistica che ha mostrato che esistono fenomeni intrinsecamente probabilistici, la teoria del caos[22] che ha dimostrato che anche sistemi deterministici possono diventare imprevedibili a causa di piccole variazioni iniziali e la complessità che ha messo in evidenza che molti sistemi sociali non sono riducibili a equazioni chiuse. Eppure, in senso operativo, ci stiamo avvicinando a qualcosa che somiglia a una versione pragmatica del sogno laplaciano, più che nella previsione perfetta, a quella sufficientemente accurata da influenzare il comportamento sociale[23].
Bibliografia
Aristotele. (2009).
Nicomachean ethics (W. D. Ross, Trans.). Oxford University Press. (Original work published ca. 350 BCE)
Beck, U. (1992).
Risk society: Towards a new modernity. Sage.
Beniger, J. R. (1986).
The control revolution: Technological and economic origins of the information society. Harvard University Press.
Clark, A., & Chalmers, D. (1998).
The extended mind. Analysis, 58(1), 7–19.
https://doi.org/10.1093/analys/58.1.7
Domingos, P. (2015).
The master algorithm: How the quest for the ultimate learning machine will remake our world. Basic Books.
Floridi, L. (2014).
The fourth revolution: How the infosphere is reshaping human reality. Oxford University Press.
Friston, K. (2010).
The free-energy principle: A unified brain theory?
Nature Reviews Neuroscience, 11(2), 127–138.
https://doi.org/10.1038/nrn2787
Giddens, A. (1990).
The consequences of modernity. Polity Press.
Hacking, I. (1975).
The emergence of probability: A philosophical study of early ideas about probability, induction and statistical inference. Cambridge University Press.
Jonas, H. (1984).
The imperative of responsibility: In search of an ethics for the technological age. University of Chicago Press.
Koyré, A. (1957).
From the closed world to the infinite universe. Johns Hopkins University Press.
Laplace, P.-S. (1951).
A philosophical essay on probabilities. Dover Publications. (Original work published 1814)
Lorenz, E. N. (1963).
Deterministic nonperiodic flow. Journal of the Atmospheric Sciences, 20(2), 130–141.
https://doi.org/10.1175/1520-0469(1963)020<0130:DNF>2.0.CO;2
Mayer-Schönberger, V., & Cukier, K. (2013).
Big data: A revolution that will transform how we live, work, and think. Houghton Mifflin Harcourt.
Mitchell, T. M. (1997).
Machine learning. McGraw-Hill.
Mokyr, J. (2002).
The gifts of Athena: Historical origins of the knowledge economy. Princeton University Press.
Polanyi, M. (1966).
The tacit dimension. University of Chicago Press.
Simondon, G. (2017).
On the mode of existence of technical objects. Univocal Publishing. (Original work published 1958)
Taleb, N. N. (2007).
The black swan: The impact of the highly improbable. Random House.
Wiener, N. (1948).
Cybernetics: Or control and communication in the animal and the machine. MIT Press.
Note
[1] Valeria Lazzaroli, Sociologist, Psychologist, Financial Engineer, Chief AI Officer, President Fondazione ENIA Ente Nazionale per l’Intelligenza Artificiale.
[2] Polanyi, M. (1966). The Tacit Dimension. Chicago, IL: University of Chicago Press.
[3] Simondon, G. (1958/2017). On the Mode of Existence of Technical Objects. Minneapolis, MN: Univocal Publishing.
[4] Koyré, A. (1957). From the Closed World to the Infinite Universe. Baltimore, MD: Johns Hopkins University Press.
[5] Mokyr, J. (2002). The Gifts of Athena: Historical Origins of the Knowledge Economy. Princeton, NJ: Princeton University Press.
[6] Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. Cambridge, MA: MIT Press.
[7] Beniger, J. R. (1986). The Control Revolution: Technological and Economic Origins of the Information Society. Cambridge, MA: Harvard University Press.
[8] Mitchell, T. M. (1997). Machine Learning. New York, NY: McGraw-Hill.
[9] Domingos, P. (2015). The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. New York, NY: Basic Books.
[10] Floridi, L. (2014). The Fourth Revolution: How the Infosphere Is Reshaping Human Reality. Oxford, UK: Oxford University Press.
[11] Mayer-Schönberger, V., & Cukier, K. (2013). Big Data: A Revolution That Will Transform How We Live, Work, and Think. Boston, MA: Houghton Mifflin Harcourt.
[12] Clark, A. (2016). Surfing Uncertainty: Prediction, Action, and the Embodied Mind. Oxford, UK: Oxford University Press.
[13] Friston, K. (2010). The free-energy principle: A unified brain theory? Nature Reviews Neuroscience, 11(2), 127–138. https://doi.org/10.1038/nrn2787
[14] Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7–19. https://doi.org/10.1093/analys/58.1.7
[15] Jonas, H. (1984). The Imperative of Responsibility: In Search of an Ethics for the Technological Age. Chicago, IL: University of Chicago Press.
[16] Hacking, I. (1975). The Emergence of Probability: A Philosophical Study of Early Ideas about Probability, Induction and Statistical Inference. Cambridge, UK: Cambridge University Press.
[17] Beck, U. (1992). Risk Society: Towards a New Modernity. London, UK: Sage.
[18] Aristotle. (2009). Nicomachean Ethics (W. D. Ross, Trans.). Oxford, UK: Oxford University Press. (Original work published ca. 350 BCE)
[19] Beck, U. (1992). Risk Society: Towards a New Modernity. London, UK: Sage.
[20] Giddens, A. (1990). The Consequences of Modernity. Cambridge, UK: Polity Press.
[21] Laplace, P.-S. (1814/1951). A Philosophical Essay on Probabilities. New York, NY: Dover Publications.
[22] Lorenz, E. N. (1963). Deterministic nonperiodic flow. Journal of the Atmospheric Sciences, 20(2), 130–141. https://doi.org/10.1175/1520-0469(1963)020<0130:DNF>2.0.CO;2
[23] Taleb, N. N. (2007). The Black Swan: The Impact of the Highly Improbable. New York, NY: Random House.