“The most complicated dynamics can arise from the simplest nonlinear difference equations.” — Robert May
Il punto di partenza: il modello di Malthus
Nel 1798 Thomas Robert Malthus pubblicò il Saggio sul principio di popolazione, introducendo il primo modello matematico sistematico di crescita demografica. L’ipotesi è radicalmente semplice: se il tasso netto di riproduzione è costante, la popolazione cresce in proporzione a sé stessa.
Il modello discreto (generazioni separate)
Se le generazioni non si sovrappongono — come in molti insetti che vivono una sola stagione — è naturale ragionare per passi discreti. La popolazione alla generazione successiva è semplicemente quella attuale moltiplicata per un fattore di crescita:
$$N_{n+1} = N_n \cdot (1 + r)$$
dove $r > 0$ indica che nascono più individui di quanti muoiono, $r < 0$ il contrario, e $r = 0$ una popolazione stazionaria.
Il modello continuo
Per popolazioni molto numerose, o osservate su scale temporali lunghe rispetto alla durata di una generazione, si passa al continuo. La variazione istantanea della popolazione è proporzionale al numero di individui presenti in quell’istante:
$$\dot{N}(t) = r \cdot N(t)$$
dove $\dot{N} = \frac{dN}{dt}$. La soluzione è la famosa crescita esponenziale:
$$N(t) = N_0 \cdot e^{rt}$$
con $N_0 = N(0)$ la popolazione iniziale. Il comportamento dipende interamente dal segno di $r$:
- $r > 0$: crescita esponenziale illimitata
- $r = 0$: popolazione costante
- $r < 0$: estinzione esponenziale
In figura si mostra l’andamento per diversi valori di r, con una popolazione iniziale di 200 individui
Il modello di Verhulst: la crescita logistica
Pierre François Verhulst, nel 1838, propose una correzione elegante. Citando le sue stesse parole:
«Sappiamo che il celebre Malthus ha mostrato il principio che la popolazione umana tende a crescere in progressione geometrica […] Questa proposizione è indiscutibile se si fa astrazione dalla crescente difficoltà di trovare cibo […] L’aumento virtuale della popolazione è quindi limitato dalla dimensione e dalla fertilità del paese. Di conseguenza la popolazione si avvicina sempre di più a uno stato stazionario.»
L’equazione logistica
L’idea di Verhulst è di moltiplicare il tasso di crescita per un fattore che si annulla quando la popolazione raggiunge la massima capacità $K$:
$$\frac{dN}{dt} = r N \left(1 - \frac{N}{K}\right)$$
Analizziamo ogni termine:
- $r$ è il tasso intrinseco di crescita, lo stesso di Malthus.
- $K$ è la capacità portante: il numero di individui che l’ambiente può sostenere indefinitamente (dipende da cibo, spazio, predatori, ecc.).
Quando $N \ll K$, si ha $1 - N/K \approx 1$ e l’equazione si riduce a quella di Malthus: la logistica generalizza il modello esponenziale, mentre quando $N$ si avvicina a $K$, il termine moltiplicativo tende a zero e la crescita rallenta fino ad annullarsi.
Soluzione analitica
Dividendo per $N^2$ e sostituendo $p = 1/N$ si ricava un’equazione lineare. Dopo i passaggi algebrici si ottiene la curva logistica :
$$N(t) = \frac{N_0 \cdot K}{\left(K - N_0\right) e^{-rt} + N_0}$$
dove $N_0 = N(0)$ è la popolazione iniziale.
Mostra l’andamento per diversi valori di $N_0$ con K=200 abitanti
Il comportamento è intuitivo:
- Per $t \to \infty$, la popolazione converge a $K$ indipendentemente dalla condizione iniziale (purché $N_0 > 0$).
Il modello di Verhulst descrive bene molte popolazioni in laboratorio — batteri, lieviti — ma fatica con organismi più complessi.
Inizialmente si propose un’interpretazione più rigorosa, considerando il modello logistico come legge universale della crescita. Esperimenti di laboratorio su batteri, lieviti e altri organismi semplici, in condizioni controllate di clima, disponibilità di cibo e assenza di predatori, hanno spesso prodotto curve di crescita sigmoidi, talvolta in ottimo accordo con le previsioni logistiche.
Tuttavia, l’accordo è stato meno soddisfacente per organismi con cicli vitali complessi, come la mosca della frutta o il tribolio. In questi casi, non si osservava il raggiungimento di una capacità portante stabile; le popolazioni mostravano invece ampie fluttuazioni persistenti dopo un periodo iniziale di crescita logistica. Possibili cause includono la struttura per età e gli effetti ritardati del sovraffollamento.
La discretizzazione: la mappa logistica
Verhulst aveva formulato il suo modello in tempo continuo. Ma molte specie hanno cicli riproduttivi stagionali ben definiti, senza sovrapposizione tra generazioni. Per queste è più naturale un modello a tempo discreto: descrive l’andamento della popolazione di generazione in generazione.
Riscriviamo il modello in variabile adimensionale. Definiamo:
$$x_n = \frac{N_n}{K} \in [0, 1]$$
cioè la frazione della capacità portante occupata dalla popolazione alla generazione $n$. Con questa sostituzione, l’equazione logistica discreta diventa:
$${x_{n+1} = r x_n \left(1 - x_n\right)}$$
Questa è la mappa logistica. Apparentemente innocua: un’equazione con una sola variabile e un solo parametro. Eppure, come vedremo, nasconde una complessità straordinaria.
I parametri e il loro significato fisico
- $x_n \in [0,1]$: frazione di popolazione alla generazione $n$ (0 = estinta, 1 = al limite massimo)
- $x_{n+1}$: frazione di popolazione alla generazione successiva
- $r$: parametro di controllo, che incorpora il tasso di crescita e la pressione ambientale. Per far sì che la mappa mappi $[0,1]$ in $[0,1]$, è necessario $r \in [0, 4]$.
Il comportamento al variare di $r$
La ricchezza della mappa logistica emerge al variare di $r$. Non si tratta di variazioni graduali: al crescere del parametro, il comportamento cambia in modo radicale, quasi improvviso.
| valore di r | Comportamento |
|---|---|
| $0<r<1$ | Estinzione ($x_n \to 0$) |
| $1<r<3$ | Crescita fino a punto fisso stabile |
| $r=3$ | Periodicità 2 |
| $r \approx3.449…$ | Periodicità 4 |
| $r \approx 3.54409…$ | Periodicità 8 |
| $r \approx 3.5644…$ | Periodicità 16 |
| $r \approx 3.568759…$ | Caos deterministico (con finestre periodiche) |
| $r \approx 3.83…$ | Finestra Periodicità 3 |
| $r \approx 3.9…$ | Caos deterministico (con finestre periodiche) |
Grafico che mostra la diversa periodicità al variare di r.
La dinamica è definita solo per valori discreti di $n$: le traiettorie sono dunque insiemi di punti. Le linee mostrate nel grafico hanno esclusivamente funzione illustrativa.
La crescita iniziale prima delle oscillazioni rappresenta il transitorio della dinamica, che deve essere scartato nell’analisi del comportamento asintotico.
Un modo particolarmente efficace per visualizzare la dinamica della mappa è spostarsi nel piano delle fasi, graficando $x_{n+1}$ in funzione di $x_n$ . I grafici che ne risultano prendono il nome di diagrammi cobweb — o a ragnatela — per la caratteristica trama che le traiettorie disegnano.
Per $r<1$ la traiettoria converge verso l’origine.
Per r=2.8 la traiettoria si avvicina a spirale verso un punto fisso stabile, vorticando attorno a esso con oscillazioni che si smorzano progressivamente.
Per r>3 il punto fisso perde stabilità e le traiettorie smettono di convergere. La ragnatela non si chiude più attorno a un punto: comincia a percorrere cicli chiusi di ampiezza crescente — periodo 2, poi 4, poi 8 — fino a riempire porzioni sempre più ampie del piano, senza mai assestarsi.
Rappresentazione delle traiettorie nel piano delle fasi per diversi valori di r.
La dinamica è definita solo per valori discreti di $n$: le traiettorie sono dunque insiemi di punti. Le linee mostrate nel grafico hanno esclusivamente funzione illustrativa.
Il diagramma delle orbite
Il diagramma delle orbite — forse l’immagine più iconica di tutta la teoria del caos — riassume in un solo grafico l’intera fenomenologia della mappa logistica al variare di $r$. Vale la pena capire esattamente come si costruisce, perché la procedura è tanto semplice quanto rivelatrice.
La costruzione
L’idea di fondo è questa: per ogni valore di $r$, si vuole sapere a quali valori di $x$ la traiettoria tende — non durante il transitorio iniziale, ma nel comportamento asintotico a lungo termine. Si procede così:
- Si fissa un valore di $r$ nell’intervallo $[0, 4]$.
- Si sceglie una condizione iniziale $x_0$ arbitraria — tipicamente un valore casuale in $(0, 1)$.
- Si itera la mappa per un numero elevato di passi, ad esempio $N_\text{trans} = 1000$, senza registrare nulla. Questo è il transitorio: il tempo necessario affinché la traiettoria dimentichi la condizione iniziale e raggiunga il suo comportamento asintotico.
- Si continua a iterare per altri $N_{plot}$ passi, registrando ogni valore $x_n$.
- Si tracciano tutti i valori registrati come punti nel piano $(r,x)$.
- Si ripete per il valore successivo di $r$, scansionando l’intero intervallo con piccoli incrementi $\Delta r$ (tipicamente $\Delta r \sim 10^{-4}$ o meno).
Il risultato è che per ogni $r$ sull’asse orizzontale compaiono sull’asse verticale esattamente i valori che la traiettoria visita a regime. Se il comportamento è un punto fisso, appare un solo punto. Se è un ciclo di periodo 2, appaiono due punti sovrapposti. Se è caos, appare una nuvola densa di punti che copre un intervallo continuo.
Perché il transitorio è fondamentale
Senza scartare il transitorio, il diagramma sarebbe illeggibile: i primi valori della sequenza dipendono fortemente da $x_0$ e non riflettono il comportamento asintotico. Dopo un numero sufficiente di iterazioni, invece, la traiettoria ha “dimenticato” la condizione iniziale e si trova già sull’attrattore — il punto fisso, il ciclo, o l’insieme caotico — che è ciò che si vuole visualizzare.
In pratica, $N_\text{trans} = 1000$ è quasi sempre più che sufficiente.
Cosa rivela il diagramma
Leggendo il diagramma da sinistra verso destra si ripercorre l’intera storia della mappa:
Per $r < 1$ la traiettoria converge a $x=0$. In molti diagrammi questo punto viene omesso per ragioni grafiche, poiché rappresenta l’estinzione e non aggiunge struttura dinamica.
Per $r \in (1, 3)$ compare un unico ramo continuo di punti — corrispondente al punto fisso $x^* = 1 - 1/r$ che cresce al crescere di $r$.
A $r = 3$ quella curva si biforca in due rami: nasce il ciclo di periodo 2. A $r \approx 3.449$ ogni ramo si biforca di nuovo: periodo 4.
Le biforcazioni si susseguono sempre più ravvicinate fino a $r_\infty \approx 3.5699$, oltre il quale i punti si addensano in strutture dense e irregolari — il caos.
Sull’asse orizzontale il parametro $r$, sull’asse verticale i valori asintotici di $x_n$.
In rosso i primi valori ai quali si generano le biforcazioni.
Zoom sull’intervallo di periodo 3
Nel regime caotico emergono però delle interruzioni nette: le finestre di periodicità, dove la nuvola di punti si contrae improvvisamente in pochi rami ordinati. La più visibile, attorno a $r \approx 3.83$, corrisponde al ciclo di periodo 3.
Ciascuna di queste finestre contiene, in miniatura, la stessa cascata di biforcazioni dell’intero diagramma: un esempio lampante di auto-similarità frattale.
Zoom nella zona del diagramma delle orbite di periodicità 3
La cascata di Feigenbaum e le costanti universali
La scoperta di Feigenbaum
“I truly believed that I had discovered something deep, universal, and beautiful.” –Mitchell Feigenbaum
Nel 1975 Mitchell Feigenbaum osservò che le soglie di biforcazione $r_n$ si avvicinano al valore limite $r_\infty$ secondo una progressione geometrica. Il rapporto tra intervalli consecutivi converge alla costante universale:
$$\delta = \lim_{n \to \infty} \frac{r_n - r_{n-1}}{r_{n+1} - r_n} \approx 4.6692016…$$
Questa è la prima costante di Feigenbaum. Significa che ogni intervallo di $r$ in cui esiste un ciclo stabile è circa 4.67 volte più stretto del precedente.
Feigenbaum scoprì poi che questa costante non dipende dalla mappa specifica: vale per la mappa logistica, ma anche per qualsiasi mappa con un unico massimo quadratico. È una costante universale della matematica, analoga a $\pi$ o a $e$.
Esiste anche una seconda costante universale, $\alpha$, che descrive quanto si restringono le biforcazioni nello spazio delle fasi:
$$\alpha \approx 2.5029…$$
L’universalità di Feigenbaum ha una conseguenza profonda: sistemi fisici completamente diversi — una reazione chimica oscillante, un circuito elettronico, un fluido turbolento — mostrano la stessa cascata di raddoppi di periodo con gli stessi rapporti $\delta$ e $\alpha$. La transizione al caos attraverso raddoppi di periodo possiede una struttura geometrica universale, indipendente dalla natura fisica del sistema.
Cos’è il caos deterministico?
Una definizione
Nessuna definizione di caos è universalmente accettata, ma quasi tutti concordano su tre ingredienti fondamentali:
Il caos è un comportamento aperiodico a lungo termine in un sistema deterministico che mostra dipendenza sensibile dalle condizioni iniziali.
Analizziamo ciascun ingrediente nel contesto della mappa logistica:
1. Aperiodico a lungo termine. Le traiettorie non convergono a punti fissi, né a cicli periodici.
2. Deterministico. Non c’è alcuna componente casuale: data $x_0$, la sequenza è completamente determinata dall’equazione $x_{n+1} = r x_n(1-x_n)$. L’irregolarità non proviene da rumore esterno, ma dalla nonlinearità dell’equazione stessa.
3. Dipendenza sensibile dalle condizioni iniziali. Due traiettorie che partono da $x_0$ e $x_0 + \varepsilon$ (per quanto piccolo sia $\varepsilon$) divergono esponenzialmente nel tempo. Dopo poche decine di iterazioni, le due traiettorie sono completamente scorrelate.
La dipendenza sensibile dalle condizioni iniziali è quantificata dall’esponente di Lyapunov $\lambda$, che misura il tasso medio di separazione tra traiettorie inizialmente vicine. Se due orbite partono a distanza $\varepsilon$, dopo $n$ iterazioni la loro separazione è dell’ordine di $\varepsilon \cdot e^{\lambda n}$ . Il segno di $\lambda$ classifica il comportamento del sistema in modo netto:
- $\lambda > 0$: Caos Deterministico - molto sensibile alle condizioni iniziali; le traiettorie divergono esponenzialmente.
- $\lambda = 0$: il sistema si trova al margine della stabilità (tipicamente nei punti di biforcazione).
- $\lambda < 0$: le traiettorie vicine convergono — il sistema è in regime periodico o stabile.
Il grafico di $\lambda$ in funzione di r rispecchia fedelmente il diagramma delle orbite: negativo nel regime periodico, con picchi a zero in corrispondenza di ogni biforcazione, e positivo nel regime caotico — interrotto dalle finestre di periodicità, dove $\lambda$ torna brevemente negativo prima di risalire.
L’esponente di Lyapunov è calcolato per valori discreti del parametro $r$; la curva continua è ottenuta unendo campioni discreti per migliorare la leggibilità grafica.
Il paradosso del caos deterministico
Il caos deterministico è un paradosso apparente: un sistema perfettamente deterministico — senza alcun rumore — produce comportamento che sembra casuale e imprevedibile. La ragione è che, nella pratica, non possiamo mai conoscere $x_0$ con precisione infinita. Anche un errore di misura infinitesimale $\varepsilon$ viene amplificato esponenzialmente, rendendo la previsione a lungo termine impossibile — non per principio fisico (come in meccanica quantistica), ma per limiti pratici nella misura.
“Chaos: when the present determines the future, but the approximate present does not approximately determine the future.” — Edward Lorenz