Causa Probabilistica

Sommario:

Causa Probabilistica
Causa Probabilistica

Video: Causa Probabilistica

Video: Causa Probabilistica
Video: Aula 7 - Modelagem Probabilística - Parte 1 2024, Marzo
Anonim

Questo è un file negli archivi della Stanford Encyclopedia of Philosophy.

Causa probabilistica

Pubblicato per la prima volta venerdì 11 luglio 1997; revisione sostanziale ven 6 set 2002

La "causalità probabilistica" designa un gruppo di teorie filosofiche che mirano a caratterizzare la relazione tra causa ed effetto usando gli strumenti della teoria della probabilità. L'idea centrale dietro queste teorie è che le cause aumentano le probabilità dei loro effetti, a parità di tutto il resto. Gran parte del lavoro svolto in questo settore si è occupato di rendere più precisa la clausola del ceteris paribus. Questo articolo traccia questi sviluppi, così come i recenti sviluppi correlati nella modellazione causale. Saranno inoltre discusse questioni all'interno e obiezioni alle teorie probabilistiche della causalità.

  • 1. Introduzione e motivazione

    • 1.1 Teorie della regolarità
    • 1.2 Regolarità imperfette
    • 1.3 Indeterminismo
    • 1.4 Asimmetria
    • 1.5 Regolarità spurie
  • 2. Preliminari
  • 3. Principali sviluppi

    • 3.1 L'idea centrale
    • 3.2 Correlazioni spurie
    • 3.3 Asimmetria
  • 4. Approcci controfattuali
  • 5. Modellistica causale e causalità probabilistica

    • 5.1 Modellazione causale
    • 5.2 Condizioni di Markov e minimalità
    • 5.3 Significato delle frecce
    • 5.4 La condizione di fedeltà
  • 6. Ulteriori problemi e problemi

    • 6.1 Unanimità contestuale
    • 6.2 Potenziali controesempi
    • 6.3 Causazione singolare e generale
    • 6.4 Riduzione e circolarità
  • Bibliografia
  • Altre risorse Internet
  • Voci correlate

1. Introduzione e motivazione

1.1 Teorie della regolarità

Secondo David Hume, le cause sono invariabilmente seguite dai loro effetti: "Possiamo definire una causa come un oggetto, seguito da un altro, e dove tutti gli oggetti simili al primo sono seguiti da oggetti simili al secondo". (1748, sezione VII.) I tentativi di analizzare la causalità in termini di modelli invariabili di successione sono indicati come "teorie della regolarità" della causalità. Esistono numerose difficoltà ben note con le teorie della regolarità, che possono essere utilizzate per motivare approcci probabilistici alla causalità.

Letture consigliate: Hume (1748), in particolare la sezione VII.

1.2 Regolarità imperfette

La prima difficoltà è che la maggior parte delle cause non sono invariabilmente seguite dai loro effetti. Ad esempio, è ampiamente riconosciuto che il fumo è una causa di cancro ai polmoni, ma è anche riconosciuto che non tutti i fumatori sviluppano il cancro ai polmoni. (Allo stesso modo, non tutti i non fumatori sono risparmiati dai danni di quella malattia.) Al contrario, l'idea centrale dietro le teorie probabilistiche della causalità è che le cause aumentano la probabilità dei loro effetti; un effetto può ancora verificarsi in assenza di una causa o non verificarsi in sua presenza. Pertanto, il fumo è una causa di cancro ai polmoni, non perché tutti i fumatori sviluppano il cancro ai polmoni, ma perché i fumatori hanno maggiori probabilità di sviluppare un cancro ai polmoni rispetto ai non fumatori. Ciò è del tutto coerente con l'esistenza di alcuni fumatori che evitano il cancro ai polmoni e di alcuni non fumatori che soccombono.

Il problema delle regolarità imperfette non dice decisamente contro l'approccio della regolarità alla causalità. I successori di Hume, in particolare John Stuart Mill e John Mackie, hanno tentato di offrire resoconti più raffinati delle regolarità che sottostanno alle relazioni causali. Mackie ha introdotto la nozione di una condizione inusale: una condizione inusiva per un certo effetto è una parte insufficiente ma non ridondante di una condizione non necessaria ma sufficiente. Supponiamo, ad esempio, che una partita accesa causi un incendio boschivo. L'illuminazione della partita, da sola, non è sufficiente; molte partite sono accese senza conseguenti incendi boschivi. Il fiammifero acceso, tuttavia, fa parte di alcune costellazioni di condizioni che sono congiuntamente sufficienti per il fuoco. Inoltre, dato che si è verificata questa serie di condizioni, piuttosto che qualche altra serie sufficiente per il fuoco,l'illuminazione della partita era necessaria: in tali circostanze non si verificano incendi quando non sono presenti partite accese.

Vi sono, tuttavia, degli svantaggi in questo tipo di approccio. Le regolarità su cui poggia un'affermazione causale si rivelano ora molto più complicate di quanto avessimo precedentemente realizzato. In particolare, questa complessità solleva problemi per l'epistemologia della causalità. Un appello alla teoria della regolarità di Hume è che sembra fornire un resoconto diretto di come arriviamo a sapere cosa provoca cosa: apprendiamo che A causa B osservando che A s è invariabilmente seguito da B s. Ripensiamo al caso del fumo e del cancro ai polmoni: sulla base di quali prove crediamo che l'uno sia una causa dell'altro? Non tutti i fumatori sviluppano il cancro ai polmoni, poiché non osserviamo che ciò è vero. Ma non abbiamo nemmeno osservato una costellazione di condizioni C, tale che il fumo è invariabilmente seguito dal cancro del polmone in presenza di C,mentre il cancro ai polmoni non si verifica mai nei non fumatori che soddisfano la condizione C. Piuttosto, ciò che osserviamo è che i fumatori sviluppano il cancro ai polmoni a tassi molto più alti rispetto ai non fumatori; questa è la prova prima facie che ci porta a pensare che il fumo causi il cancro ai polmoni. Questo si adatta molto bene all'approccio probabilistico alla causalità.

Come vedremo nella Sezione 3.2 di seguito, tuttavia, l'idea di base che causa l'aumento della probabilità dei loro effetti deve essere qualificata in vari modi. Quando vengono aggiunte queste qualifiche, sembra che le teorie probabilistiche della causalità debbano fare una mossa abbastanza analoga all'appello di Mackie alle costellazioni delle condizioni di fondo. Quindi non è chiaro che il problema dei regolatori imperfetti, di per sé, offra qualsiasi motivo reale per preferire approcci probabilistici alla causalità rispetto agli approcci di regolarità.

Letture consigliate: versioni raffinate dell'analisi della regolarità si trovano in Mill (1843), Volume I, capitolo V, e in Mackie (1974), capitolo 3. L'introduzione di Suppes (1970) preme sul problema delle regolarità imperfette.

1.3 Indeterminismo

Mentre l'approccio delle condizioni inusali di Mackie può stabilire che il fumo provoca il cancro ai polmoni anche se ci sono fumatori che non sviluppano il cancro ai polmoni, richiede che ci sia qualche congiunzione di condizioni, incluso il fumo, su cui il cancro ai polmoni segue invariabilmente. Ma anche questa regolarità più specifica può fallire se l'insorgenza del cancro ai polmoni non è fisicamente determinata da tali condizioni. Più in generale, l'approccio della regolarità rende la causalità incompatibile con l'indeterminismo: se un evento non è determinato a verificarsi, nessun evento può far parte di una condizione sufficiente per quell'evento. (Un punto analogo può essere fatto sulla necessità.) Il recente successo della meccanica quantistica - e, in misura minore, altre teorie che utilizzano la probabilità - ha scosso la nostra fiducia nel determinismo. Pertanto, molti filosofi hanno ritenuto desiderabile sviluppare una teoria della causalità che non presupponga il determinismo.

Molti filosofi trovano l'idea della causalità indeterministica controintuitiva. In effetti, la parola "causalità" è talvolta usata come sinonimo di determinismo. Un caso forte di causalità indeterministica può essere fatto considerando il mandato epistemico per le rivendicazioni causali. Ora ci sono prove empiriche molto forti che il fumo causi il cancro ai polmoni. Tuttavia, la questione se esista una relazione deterministica tra fumo e cancro ai polmoni è aperta. La formazione delle cellule tumorali dipende dalla mutazione, che è un candidato forte per essere un processo indeterministico. Inoltre, se un singolo fumatore sviluppa o meno un tumore al polmone dipende da una serie di fattori aggiuntivi, ad esempio se viene colpita o meno da un autobus prima che le cellule tumorali inizino a formarsi. Pertanto, il prezzo di preservare l'intuizione secondo cui la causalità presuppone il determinismo è l'agnosticismo anche sulle nostre affermazioni causali meglio supportate.

Poiché le teorie probabilistiche della causalità richiedono solo che una causa aumenti la probabilità del suo effetto, queste teorie sono compatibili con l'indeterminismo. Questo sembra essere un potenziale vantaggio rispetto alle teorie della regolarità. Non è chiaro, tuttavia, fino a che punto questo potenziale vantaggio sia effettivo. Nel regno della microfisica, dove abbiamo prove forti (ma ancora contestabili) di indeterminismo, le nostre normali nozioni causali non si applicano facilmente. Ciò è particolarmente evidente nel famoso esperimento mentale di Einstein, Podolski e Rosen. D'altra parte, non è chiaro fino a che punto l'indeterminismo quantistico 'percola' nel macromondo dei fumatori e delle vittime del cancro, dove sembra che abbiamo delle chiare intuizioni causali.

Letture consigliate: Humphreys (1989), contiene un trattamento sensibile delle questioni che coinvolgono indeterminismo e causalità; vedere in particolare le sezioni 10 e 11. Earman (1986) è un trattamento approfondito delle questioni del determinismo in fisica.

1.4 Asimmetria

Se A causa B, allora, in genere, B non causerà anche A. Il fumo provoca il cancro ai polmoni, ma il cancro ai polmoni non provoca il fumo. In altre parole, la causalità è generalmente asimmetrica. Ciò può costituire un problema per le teorie della regolarità, poiché sembra abbastanza plausibile che se il fumo è una condizione inusuale per il cancro ai polmoni, allora il cancro ai polmoni sarà una condizione inusata per il fumo. Un modo per far rispettare l'asimmetria della causalità è stabilire che le cause precedano i loro effetti nel tempo. Sia Hume che Mill adottano esplicitamente questa strategia. Ciò ha diversi svantaggi sistematici. In primo luogo, esclude a priori la possibilità della causalità all'indietro nel tempo, mentre molti credono che sia solo un fatto contingente a causare i loro effetti nel tempo. Secondo,questo approccio esclude la possibilità di sviluppare una teoria causale dell'ordine temporale (pena la circolarità viziosa), una teoria che è sembrata attraente per alcuni filosofi. Terzo, sarebbe bello se una teoria della causalità potesse fornire una spiegazione della direzionalità della causalità, piuttosto che limitarla.

Alcuni sostenitori delle teorie probabilistiche della causalità seguono Hume nell'identificare la direzione causale con la direzione temporale. Altri hanno tentato di utilizzare le risorse della teoria della probabilità per articolare un resoconto sostanziale dell'asimmetria della causalità, con successo misto. Discuteremo queste proposte più a fondo nella sezione 3.3 di seguito.

Letture consigliate: Hausman (1998) contiene una discussione dettagliata delle questioni che coinvolgono l'asimmetria della causalità. Mackie (1974), capitolo 3, mostra come il problema dell'asimmetria possa sorgere per la sua teoria delle condizioni inusuali. Lewis (1986) contiene una breve ma chiara affermazione del problema dell'asimmetria.

1.5 Regolarità spurie

Supponiamo che una causa sia regolarmente seguita da due effetti. Ad esempio, supponiamo che ogni volta che la pressione barometrica in una determinata regione scende al di sotto di un certo livello, accadono due cose. Innanzitutto, l'altezza della colonna di mercurio in un particolare barometro scende al di sotto di un certo livello. Poco dopo, si verifica una tempesta. Questa situazione è mostrata schematicamente nella Figura 1. Quindi, potrebbe anche essere il caso che ogni volta che la colonna di mercurio cade, ci sarà una tempesta. (Più plausibilmente, la caduta del barometro sarà una condizione inusata per la tempesta.) Quindi sembra che una teoria della regolarità dovrebbe stabilire che la caduta della colonna di mercurio provoca la tempesta. In realtà, tuttavia, la regolarità relativa a questi due eventi è falsa; non riflette l'influenza causale dell'uno sull'altro.

Figura 1
Figura 1

Figura 1

La capacità di gestire tali correlazioni spurie è probabilmente il maggior successo delle teorie probabilistiche della causalità e rimane una delle principali fonti di attrazione per tali teorie. Discuteremo questo problema in modo più dettagliato nella Sezione 3.2 di seguito.

Letture consigliate: Mackie (1974), capitolo 3, mostra come il problema delle regolarità spurie possa sorgere per la sua teoria delle condizioni dell'inusus. Lewis (1986) contiene una breve ma chiara affermazione del problema delle regolarità spurie.

2. Preliminari

Prima di precedere lo sviluppo formale di una teoria probabilistica della causalità nella sezione successiva, sarà utile affrontare alcuni punti preliminari. Innanzitutto, un determinato evento può avere molte cause diverse. Viene accesa una partita e si accende. Lo sciopero della partita è una causa della sua illuminazione, ma anche la presenza di ossigeno, e ce ne saranno molti altri. A volte, in una conversazione informale, ci riferiamo a uno o l'altro di questi come "la causa" dell'illuminazione della partita. La causa che individuiamo in questo modo può dipendere dai nostri interessi, dalle nostre aspettative e così via. Le teorie filosofiche della causalità normalmente tentano di analizzare il concetto di "causa". Si noti inoltre che le cause possono essere condizioni permanenti - come la presenza di ossigeno - nonché cambiamenti.

In secondo luogo, è comune distinguere due diversi tipi di rivendicazione causale. Singolari affermazioni causali, come "Il forte fumo di Jill negli anni '80 le ha causato lo sviluppo di un cancro ai polmoni", in relazione a eventi particolari che hanno posizioni spazio-temporali. (Alcuni autori sostengono che invece singole affermazioni causali si riferiscano a fatti.) Se usata in questo modo, la causa è un verbo di successo: la singolare affermazione causale implica che Jill fumasse pesantemente durante gli anni '80 e che sviluppò il cancro ai polmoni. Si noti che questo uso è in contrasto con l'uso della "causalità probabilistica" nella letteratura legale. Questa frase è usata quando un individuo è esposto a un rischio (come un agente cancerogeno), indipendentemente dal fatto che si soccomba effettivamente a quel rischio. (Il problema legale è se una persona che è esposta a un rischio è quindi danneggiata e può ricevere un risarcimento per l'esposizione.) Dichiarazioni causali generali, quali "il fumo provoca il cancro ai polmoni" si riferiscono a tipi o proprietà di eventi ripetibili. Alcuni autori hanno avanzato teorie probabilistiche della causalità singolare, altri hanno avanzato teorie probabilistiche della causalità generale. La relazione tra causalità singolare e generale è discussa nella successiva sezione 6.3; come vedremo, sembra esserci qualche motivo per pensare che le teorie probabilistiche della causalità si adattano meglio all'analisi della causalità generale. I relati causali - le entità che si trovano nelle relazioni causali - sono variamente considerati fatti, eventi, proprietà e così via. Non proverò a giudicare tra questi diversi approcci, ma userò il termine generico "fattore". Si noti, tuttavia, che le teorie probabilistiche della causalità richiedono che i rapporti causali siano ampiamente "proposizionali" nel carattere:sono il genere di cose che possono essere congiunte e negate.

Letture consigliate: Mill (1843) contiene la classica discussione su "la causa" e "una causa". Bennett (1988) è un'eccellente discussione di fatti ed eventi.

3. Principali sviluppi

3.1 L'idea centrale

L'idea centrale che provoca aumentare la probabilità dei loro effetti può essere espressa formalmente usando l'apparato della probabilità condizionale. Lasciate che A, B, C, … rappresentino fattori potenzialmente presenti nelle relazioni causali. Sia P una funzione di probabilità, che soddisfi le normali regole del calcolo della probabilità, in modo tale che P (A) rappresenti la probabilità empirica che si verifichi il fattore A o sia istanziato (e similmente per gli altri fattori). La questione di come interpretare la probabilità empirica non verrà affrontata qui. Usando la notazione standard, lasciamo che P (B | A) rappresenti la probabilità condizionale di B, data A. Formalmente, la probabilità condizionata è definita come un certo rapporto di probabilità:

P (B | A) = P (A & B) / P (A).

A titolo di esempio, supponiamo di lanciare un dado giusto. Lascia che A rappresenti l'atterraggio del dado con un numero pari (2, 4 o 6) mostrato sulla faccia più in alto. Quindi P (A) è la metà. Lascia che B rappresenti l'atterraggio del dado con un numero primo (2, 3 o 5) mostrato sulla faccia più in alto (sullo stesso tiro). Quindi anche P (B) è la metà. Ora la probabilità condizionale P (B | A) è un terzo. È la probabilità che il numero sul dado sia sia pari che primo, ovvero che il numero sia 2, diviso per la probabilità che il numero sia pari. Il numeratore è un sesto e il denominatore è metà; quindi quella probabilità condizionata è un terzo. Il concetto di probabilità condizionale non ha alcuna nozione di ordine temporale o causale incorporato in esso. Supponiamo, ad esempio, che il dado venga lanciato due volte. Ha senso chiedersi circa la probabilità che il primo lancio sia un numero primo, dato che il primo lancio è pari; la probabilità che il secondo lancio sia un numero primo, dato che il primo lancio è pari; e la probabilità che il primo lancio sia un numero primo, dato che il secondo lancio è pari.

Se P (A) è 0, il rapporto nella definizione di probabilità condizionale non è definito. Vi sono, tuttavia, altri sviluppi tecnici che ci permetteranno di definire P (B | A) quando P (A) è 0. Il più semplice è semplicemente prendere la probabilità condizionata come primitiva e definire la probabilità incondizionata come probabilità condizionata a un tautologia.

Un modo naturale di comprendere l'idea che A aumenta la probabilità di B è che P (B | A)> P (B | non-A). Quindi un primo tentativo di una teoria probabilistica della causalità sarebbe:

PR: A causa B se e solo se P (B | A)> P (B | non- A).

Questa formulazione è etichettata PR per "Probability-Raising". Quando P (A) è strettamente compreso tra 0 e 1, la disuguaglianza in PR risulta equivalente a P (B | A)> P (A) e anche a P (A & B)> P (A) P (B). Quando quest'ultima relazione è valida, si dice che A e B siano positivamente correlati. Se la disuguaglianza è invertita, sono negativamente correlate. Se A e B sono correlati positivamente o negativamente, si dice che siano probabilisticamente dipendenti. Se l'uguaglianza vale, allora A e B sono probabilisticamente indipendenti o non correlati.

La PR affronta i problemi di regolarità imperfette e indeterminismo, discussi sopra. Ma non affronta gli altri due problemi discussi nella precedente sezione 1. Innanzitutto, l'aumento di probabilità è simmetrico: se P (B | A)> P (B | non-A), quindi P (A | B)> P (A | non-B). La relazione causale, tuttavia, è in genere asimmetrica.

figura 2
figura 2

figura 2

In secondo luogo, PR ha problemi con correlazioni spurie. Se A e B sono entrambi causati da un terzo fattore, C, allora potrebbe essere che P (B | A)> P (B | non-A) anche se A non causa B. Questa situazione è mostrata schematicamente nella Figura 2. Ad esempio, supponiamo che A sia un individuo con le dita macchiate di giallo e B che l'individuo abbia il cancro ai polmoni. Quindi ci aspetteremmo che P (B | A)> P (B | non- A). Il motivo per cui quelli con le dita macchiate di giallo hanno maggiori probabilità di soffrire di cancro ai polmoni è che il fumo tende a produrre entrambi gli effetti. Poiché gli individui con le dita macchiate di giallo hanno maggiori probabilità di essere fumatori, hanno anche maggiori probabilità di soffrire di cancro ai polmoni. Intuitivamente, il modo per affrontare questo problema è richiedere che le cause aumentino le probabilità dei loro effetti ceteris paribus. La storia della causalità probabilistica è in gran parte una storia di tentativi di risolvere questi due problemi centrali.

Letture consigliate: per un primer sulla teoria della probabilità di base, vedere la voce "calcolo della probabilità: interpretazioni di". Questa voce contiene anche una discussione sull'interpretazione delle richieste di probabilità.

3.2 Correlazioni spurie

Hans Reichenbach ha introdotto la terminologia dello "screening off" da applicare a un particolare tipo di relazione probabilistica. Se P (B | A & C) = P (B | C), allora si dice che C separa A da B. (Quando P (A & C)> 0, questa uguaglianza è equivalente a P (A & B | C) = P (A | C) P (B | C).) Intuitivamente, C rende A probabilisticamente irrilevante a B. Con questa nozione in mano, possiamo tentare di evitare il problema delle correlazioni spurie aggiungendo una condizione di "no screening off" alla condizione di base per aumentare la probabilità:

NSO: Il fattore A che si verifica al momento t, è una causa del fattore B successivo se e solo se:

  1. P (B | A)> P (B | non-A)
  2. Non esiste alcun fattore C, che si verifica prima o contemporaneamente ad A, che scherma A fuori da B.

Chiameremo questa la formulazione NSO o 'No Screening Off'. Supponiamo, come nel nostro esempio sopra, che il fumo (C) causi sia il cancro delle dita (A) che il polmone (B). Quindi il fumo schermerà le dita macchiate di giallo dal cancro del polmone: dato che un individuo fuma, le sue dita macchiate di giallo non hanno alcun impatto sulla sua probabilità di sviluppare il cancro del polmone.

Tuttavia, la seconda condizione di NSO non è sufficiente per risolvere il problema delle correlazioni spurie. Questa condizione è stata aggiunta per eliminare i casi in cui correlazioni spurie danno origine a fattori che aumentano la probabilità di altri fattori senza causarli. Correlazioni spurie possono anche dare origine a casi in cui una causa non aumenta la probabilità del suo effetto. Quindi le cause autentiche non devono soddisfare la prima condizione di NSO. Supponiamo, ad esempio, che il fumo sia fortemente correlato con l'esercizio fisico: anche chi fuma ha molte più probabilità di esercitarsi. Il fumo è una causa di malattie cardiache, ma supponiamo che l'esercizio fisico sia un prevenzione ancora più forte delle malattie cardiache. Quindi potrebbe essere che i fumatori abbiano, soprattutto, meno probabilità di soffrire di malattie cardiache rispetto ai non fumatori. Cioè, lasciando che A rappresenti il fumo, l'esercizio C e la cardiopatia B,P (B | A) <P (B | non- A). Si noti, tuttavia, che se si è condizionati dal fatto che si eserciti o meno, questa disuguaglianza è invertita: P (B | A & C)> P (B | non-A & C) e P (B | A & non- C)> P (B | non- A e non- C). Tali inversioni delle disuguaglianze probabilistiche sono esempi di "Paradosso di Simpson".

Il prossimo passo è sostituire le condizioni 1 e 2 con il requisito che le cause devono aumentare la probabilità dei loro effetti in situazioni di test:

TS: A causa B se P (B | A & T)> P (B | non- A & T) per ogni situazione di prova T.

Una situazione di prova è una combinazione di fattori. Quando una tale congiunzione di fattori è condizionata, si dice che quei fattori sono "mantenuti fissi". Per specificare quali saranno le situazioni di test, quindi, dobbiamo specificare quali fattori devono essere tenuti fissi. Nell'esempio precedente, abbiamo visto che la vera rilevanza causale del fumo per il cancro ai polmoni è stata rivelata quando abbiamo mantenuto l'esercizio fisso, sia positivamente (condizionamento su C) o negativamente (condizionamento su non-C). Ciò suggerisce che nel valutare la rilevanza causale di A per B, dobbiamo tenere fissate altre cause di B, sia positivamente che negativamente. Questo suggerimento non è del tutto corretto, tuttavia. Sia A che B fumatori e cancro ai polmoni, rispettivamente. Supponiamo che C sia un intermediario causale, diciamo la presenza di catrame nei polmoni. Se A causa B esclusivamente tramite C, allora C schermerà A da B:data la presenza (assenza) di agenti cancerogeni nei polmoni, la probabilità di cancro ai polmoni non è influenzata dal fatto che tali agenti cancerogeni siano arrivati lì dal fumo (sono assenti nonostante il fumo). Quindi non vorremmo tenere fisse le cause di B che sono esse stesse causate da A. Chiamiamo l'insieme di tutti i fattori che sono cause di B, ma non sono causati da A, l'insieme di cause indipendenti di B. Una situazione di prova per A e B sarà quindi una congiunzione massima, ciascuna delle cui congiunzioni è una causa indipendente di B o la negazione di una causa indipendente di B. Chiamiamo l'insieme di tutti i fattori che sono cause di B, ma non sono causati da A, l'insieme di cause indipendenti di B. Una situazione di prova per A e B sarà quindi una congiunzione massima, ciascuna delle cui congiunzioni è una causa indipendente di B o la negazione di una causa indipendente di B. Chiamiamo l'insieme di tutti i fattori che sono cause di B, ma non sono causati da A, l'insieme di cause indipendenti di B. Una situazione di prova per A e B sarà quindi una congiunzione massima, ciascuna delle cui congiunzioni è una causa indipendente di B o la negazione di una causa indipendente di B.

Si noti che la specificazione dei fattori che devono essere tenuti fissi fa appello alle relazioni causali. Questo sembra derubare la teoria del suo status di analisi riduttiva della causalità. Vedremo nella Sezione 6.4 di seguito, tuttavia, che il problema è sostanzialmente più complesso di così. In ogni caso, anche se non vi è alcuna riduzione della causalità alla probabilità, una teoria che dettaglia le connessioni sistematiche tra causalità e probabilità sarebbe di grande interesse filosofico.

Il passaggio dall'idea di base di PR alla formulazione complessa di TS è piuttosto simile al passaggio dalla teoria della regolarità originale di Hume alla teoria delle condizioni inusali di Mackie. In entrambi i casi, la mossa complica sostanzialmente l'epistemologia della causalità. Per sapere se A è una causa di B, dobbiamo sapere cosa succede in presenza e in assenza di B, mantenendo fissa una complicata congiunzione di ulteriori fattori. La speranza che una teoria probabilistica della causalità ci consentirebbe di gestire il problema delle regolarità imperfette senza fare appello a tali costellazioni di condizioni di fondo sembra non essere stata confermata. Tuttavia, TS sembra fornirci una teoria che è compatibile con l'indeterminismo e che può distinguere la causalità dalla correlazione spuria.

TS può essere generalizzato in almeno due modi importanti. In primo luogo, possiamo definire una "causa negativa" o "prevenzione" o "inibitore" come un fattore che riduce la probabilità del suo "effetto" in tutte le situazioni di prova e una causa "mista" o "interagente" come una che influenza il probabilità del suo "effetto" in vari modi in diverse situazioni di prova. Dovrebbe essere evidente che quando si costruiscono situazioni di prova per A e B si dovrebbero anche tenere preventivi fissi e cause miste di B che sono indipendenti da A. Generalizzando ulteriormente, si potrebbero definire relazioni causali tra variabili non binarie, come l'apporto calorico e la pressione sanguigna. Nel valutare la rilevanza causale di X per Y, avremo bisogno di mantenere fissi i valori delle variabili che sono indipendenti in modo causale per Y. In linea di principio,ci sono infiniti modi in cui una variabile può dipendere probabilisticamente da un'altra, anche mantenendo fissa una particolare situazione di test. Pertanto, una volta generalizzata la teoria per includere variabili non binarie, non sarà possibile fornire una classificazione accurata dei fattori causali in cause e fattori di prevenzione.

Queste due generalizzazioni evidenziano un'importante distinzione. Una cosa è chiedere se A sia in qualche modo rilevante per B in qualche modo; è un altro chiedere in che modo A sia causalmente rilevante per B. Dire che A causa B è quindi potenzialmente ambiguo: potrebbe significare che A è in qualche modo pertinente a B in un modo o nell'altro; o potrebbe significare che A è causalmente rilevante per B in un modo particolare, che A promuove B o è un fattore positivo per il verificarsi di B. Ad esempio, se A impedisce B, allora A conta come causa di B nel primo senso, ma non nel secondo. Le teorie probabilistiche della causalità possono essere utilizzate per rispondere a entrambi i tipi di domande. A è causalmente rilevante per B se A fa una certa differenza per la probabilità di B in una situazione di test; mentre A è una causa positiva o promotrice di B se A aumenta la probabilità di B in tutte le situazioni di prova.

Il problema delle correlazioni spurie affligge anche alcune versioni della teoria delle decisioni. Ciò può accadere quando la scelta dell'azione è sintomatica di determinati esiti positivi o negativi, senza causare tali esiti. (L'esempio più noto di questo tipo è il problema di Newcomb.) In casi come questo, alcune versioni della teoria delle decisioni sembrano raccomandare che si agisca in modo da ricevere buone notizie su eventi al di fuori del proprio controllo, piuttosto che agire in modo da provocare eventi desiderabili che sono sotto il proprio controllo. In risposta, molti teorici delle decisioni hanno sostenuto versioni della teoria delle decisioni causali. Alcune versioni assomigliano molto a TS.

Letture consigliate: questa sezione segue più o meno gli sviluppi principali nella storia delle teorie probabilistiche della causalità. Versioni della teoria NSO si trovano in Reichenbach (1956, sezione 23) e Suppes (1970, capitolo 2). Good (1961, 1962) è un primo saggio sulla causalità probabilistica che è ricco di intuizioni, ma ha avuto sorprendentemente poca influenza sulla formulazione di teorie successive. Salmon (1980) è una critica influente di queste teorie. Le prime versioni di TS furono presentate in Cartwright (1979) e Skyrms (1980). Eells (1991, capitoli 2, 3 e 4) e Hitchcock (1993) eseguono le due generalizzazioni di TS descritte. Skyrms (1980) presenta una versione della teoria delle decisioni causali che è molto simile a TS. Vedi anche la voce "teoria della decisione: causale".

3.3 Asimmetria

Il secondo problema principale con l'idea di base per aumentare la probabilità è che la relazione di aumento della probabilità è simmetrica. Alcuni sostenitori delle teorie probabilistiche della causalità semplicemente affermano che le cause precedono i loro effetti nel tempo. Come abbiamo visto nella precedente Sezione 1.4, questa strategia presenta una serie di svantaggi. Si noti inoltre che mentre l'assegnazione di posizioni temporali a eventi particolari è del tutto coerente, non è così chiaro cosa significhi che una proprietà o un tipo di evento si verificano prima di un altro. Ad esempio, cosa significa che il fumo precede il cancro ai polmoni? Ci sono stati molti episodi di fumo e molti di cancro ai polmoni, e non tutti i primi si sono verificati prima di tutti i secondi. Questo sarà un problema per coloro che sono interessati a fornire una teoria probabilistica delle relazioni causali tra proprietà o tipi di eventi.

Alcuni difensori della manipolabilità o delle teorie di agenzia sulla causalità hanno sostenuto che la necessaria asimmetria è fornita dalla nostra prospettiva di agenti. Nel valutare se A è una causa di B, dobbiamo chiederci se A aumenta la probabilità di B, dove le probabilità condizionali rilevanti sono le probabilità degli agenti: le probabilità che B avrebbe se A (o meno- A) fossero realizzate dalla scelta di un agente libero. I critici si sono chiesti quali siano queste probabilità degli agenti.

Altri approcci tentano di individuare l'asimmetria tra causa ed effetto all'interno della struttura delle probabilità stesse. Una proposta molto semplice sarebbe quella di affinare il modo in cui sono costruite le situazioni di prova. (Vedi la sezione precedente per la discussione delle situazioni di test.) Nel valutare se A è una causa di B, dovremmo tenere fisse non solo le cause indipendenti di B, ma anche le cause di A. Pertanto, se B è una causa di A, anziché viceversa, A non aumenterà la probabilità di B nella situazione di test appropriata, poiché la presenza o l'assenza di B sarà già mantenuta fissa. Questa idea è integrata nella Condizione causale di Markov discussa nella Sezione 5 di seguito. I sostenitori delle tradizionali teorie probabilistiche della causalità non hanno adottato questa strategia. Ciò può essere dovuto al fatto che ritengono che questo raffinamento porterebbe la teoria troppo vicino alla circolarità viziosa: per valutare se A causa B, dovremmo già sapere se B causa A.

Un approccio più ambizioso al problema dell'asimmetria causale è dovuto a Hans Reichenbach. Supponiamo che i fattori A e B siano correlati positivamente:

1. P (A e B)> P (A) P (B)

È facile intuire che ciò sarà valido esattamente quando A aumenta la probabilità di B e viceversa. Supponiamo inoltre che esista un fattore C avente le seguenti proprietà:

2. P (A & B | C) = P (A | C) P (B | C)

3. P (A & B | not- C) = P (A | not- C) P (B | not- C)

4. P (A | C)> P (A | not- C)

5. P (B | C)> P (B | not- C).

In questo caso, si dice che il trio ACB formi una forcella congiuntiva. Le condizioni 2 e 3 stabiliscono che C e non C schermano A da B. Come abbiamo visto, questo a volte si verifica quando C è una causa comune di A e B. Le condizioni da 2 a 5 comportano 1, quindi in un certo senso C spiega la correlazione tra A e B. Se C si verifica prima di A e B e non vi è alcun evento soddisfacente da 2 a 5 che si verifica dopo A e B, si dice che ACB formi una forcella congiuntiva aperta al futuro. Analogamente, se esiste un fattore futuro che soddisfa da 2 a 5, ma nessun fattore passato, abbiamo una forcella congiuntiva aperta al passato. Se un fattore C passato e un fattore D futuro soddisfano entrambi da 2 a 5, l'ACBD forma un fork chiuso. La proposta di Reichenbach era che la direzione dalla causa all'effetto è la direzione in cui predominano le forcelle aperte. Nel nostro mondo,ci sono molte forcelle aperte al futuro, poche o nessuna aperta al passato. Questa proposta è strettamente correlata al principio di causa comune di Reichenbach, che afferma che se A e B sono positivamente correlati (cioè soddisfano la condizione 1), allora esiste una C, che è una causa sia di A che di B, e che le sottopone a screening fuori l'uno dall'altro. (Al contrario, gli effetti comuni non eliminano in generale le loro cause.)

Non è chiaro, tuttavia, che questa asimmetria tra forcelle aperte al passato e forcelle aperte al futuro sarà pervasiva come questa proposta sembra presupporre. Nella meccanica quantistica, ci sono effetti correlati che si ritiene non abbiano una causa comune che li elimini. Inoltre, se ACB forma una forcella congiuntiva in cui C precede A e B, ma C ha un effetto deterministico D che si verifica dopo A e B, allora ACBD formerà una forcella chiusa. Un'ulteriore difficoltà con questa proposta è che, poiché fornisce un ordinamento globale di cause ed effetti, sembra escludere a priori la possibilità che alcuni effetti possano precedere le loro cause. Sono stati offerti tentativi più complessi di derivare la direzione della causalità dalle probabilità; le questioni qui si intersecano con il problema della riduzione, discusso nella Sezione 6.4 di seguito.

Letture consigliate: Suppes (1970, capitolo 2) ed Eells (1991, capitolo 5) definiscono l'asimmetria causale in termini di asimmetria temporale. Price (1991) difende un resoconto dell'asimmetria causale in termini di probabilità degli agenti; vedere anche la voce "causalità e manipolazione". La proposta di Reichenbach è presentata nella sua (1956, capitolo IV). Alcune difficoltà con questa proposta sono discusse in Arntzenius (1993); vedi anche il suo ingresso in questa enciclopedia sotto "fisica: principio di causa comune di Reichenbach". Papineau (1993) è una buona discussione generale sul problema dell'asimmetria causale all'interno delle teorie probabilistiche. Hausman (1998) è uno studio dettagliato del problema dell'asimmetria causale.

4. Approcci controfattuali

Un approccio principale allo studio della causalità è stato quello di analizzare la causalità in termini di condizionali controfattuali. Una condizione controfattuale è una frase condizionale congiuntiva, il cui antecedente è contrario al fatto. Ecco un esempio: "se il voto delle farfalle non fosse stato usato a West Palm Beach, allora Albert Gore sarebbe stato il presidente degli Stati Uniti". Nel caso di esiti indeterministici, potrebbe essere opportuno utilizzare conseguenti probabilistici: "se il voto delle farfalle non fosse stato usato a West Palm Beach, allora Albert Gore avrebbe avuto la possibilità di essere eletto presidente.7". Una teoria probabilistica controfattuale di causalità (PC) mira ad analizzare la causalità in termini di questi controfattuali probabilistici. Si dice che l'evento B dipenda causalmente dall'evento distinto A nel caso in cui si verifichino entrambi e la probabilità che B si verifichi, al momento del verificarsi di A, era molto più elevata di quanto sarebbe stata al momento corrispondente se A non avesse si è verificato. Questo controfattuale deve essere compreso in termini di mondi possibili: è vero se, nel mondo o nei mondi possibili più vicini in cui A non si verifica, la probabilità di B è molto più bassa di quanto non fosse nel mondo reale. A questo proposito, la nozione rilevante di "aumento della probabilità" non è compresa in termini di probabilità condizionate, ma in termini di probabilità incondizionate in diversi mondi possibili. La situazione del test non è una congiunzione specificata di fattori, ma la somma totale di tutto ciò che rimane invariato nel passaggio al mondo o ai mondi possibili più vicini dove A non si verifica. Si noti che il PC è inteso specificamente come una teoria della causalità singolare tra eventi particolari e non come una teoria della causalità generale.

La dipendenza causale, come definita nel paragrafo precedente, è sufficiente, ma non necessaria, per la causalità. La causalità è definita come l'antenata della dipendenza causale; cioè A causa B nel caso in cui vi sia una sequenza di eventi C 1, C 2, …, C n, tale che C 1 dipende causalmente da A, C 2 dipende causalmente da C 1, …, B dipende causalmente da C n. Questa modifica garantisce che la causalità sarà transitiva: se A causa C e C causa B, allora A causa B. Questa modifica è utile anche per affrontare alcuni problemi discussi nella Sezione 6.2 di seguito.

I fautori delle teorie controfattuali della causalità tentano di derivare l'asimmetria della causalità da una corrispondente asimmetria nei valori di verità dei controfattuali. Ad esempio, potrebbe essere vero che se Mary non avesse fumato, avrebbe avuto meno probabilità di sviluppare il cancro ai polmoni, ma normalmente non saremmo d'accordo sul fatto che se Mary non avesse sviluppato il cancro ai polmoni, avrebbe avuto meno probabilità di fumare. I controfattuali ordinari non "fanno marcia indietro" dagli effetti alle cause. Questa prescrizione contro il backtracking risolve anche il problema delle correlazioni spurie: non diremmo che se la colonna di mecury non fosse aumentata, il calo della pressione atmosferica sarebbe stato meno probabile, e quindi anche la tempesta sarebbe stata meno probabile.

Una domanda importante è se i controfattuali che compaiono nell'analisi della causalità possono essere caratterizzati senza riferimento alla causalità. Per fare ciò, si dovrebbe dire cosa rende alcuni mondi più vicini di altri senza fare riferimento a nessuna nozione causale. Nonostante alcuni tentativi interessanti, non è chiaro se ciò possa essere fatto. In caso contrario, non sarà possibile fornire un'analisi riduttiva da parte del PC della causalità, sebbene possa essere ancora possibile articolare interessanti interconnessioni tra causalità, probabilità e controfattuali.

Il filosofo Igal Kvart è stato un critico persistente dell'affermazione secondo cui è possibile analizzare i controfattuali senza usare la causalità. Ha sviluppato una teoria probabilistica della causalità singolare che non utilizza controfattuali. Tuttavia, la sua teoria ha una serie di caratteristiche in comune con le teorie controfattuali: è un tentativo di analizzare la causalità singolare tra gli eventi; elabora l'idea di base per aumentare la probabilità nel tentativo di evitare alcuni dei problemi sollevati nella Sezione 6.2 seguente; e aspira ad essere un'analisi riduttiva della causalità, senza fare riferimento alle relazioni causali negli analisti.

Letture consigliate: Lewis (1986a) è il locus classicus per PC. Lewis (1986b) è un tentativo di spiegare la nozione di prossimità tra mondi possibili. I recenti tentativi di analizzare la causalità in termini di controfattuali probabilistici sono diventati piuttosto complessi; vedi ad esempio Noordhof (1999). Per ulteriori discussioni sulle teorie controfattuali della causalità, vedere la voce "causalità, teorie controfattuali". Per la teoria di Kvart, vedi ad esempio Kvart (1997).

5. Modellistica causale e causalità probabilistica

5.1 Modellazione causale

La "modellazione causale" è un nuovo campo interdisciplinare dedicato allo studio dei metodi di inferenza causale. Questo campo include contributi di statistica, intelligenza artificiale, filosofia, econometria, epidemiologia e altre discipline. All'interno di questo campo, i programmi di ricerca che hanno attirato il più grande interesse filosofico sono quelli dell'informatica Judea Pearl e dei suoi collaboratori, e dei filosofi Peter Spirtes, Clark Glymour e Richard Scheines (SGS). Non a caso, questi due programmi sono i più ambiziosi nelle loro affermazioni di aver sviluppato algoritmi per fare inferenze causali sulla base di dati statistici. Queste affermazioni hanno suscitato molte controversie, spesso piuttosto accese. specfically,sembra esserci una grande resistenza all'idea che le procedure automatizzate possano prendere il posto della conoscenza di base specifica del soggetto e del buon disegno sperimentale, le cose da cui l'inferenza causale è sempre dipesa. In una certa misura, questo dibattito riguarda l'enfasi e la pubblicità. Sia Pearl che SGS affermano espliciti presupposti che devono essere fatti prima che le loro procedure possano produrre risultati. I critici accusano, in primo luogo, che queste ipotesi sono sepolte in caratteri minuscoli mentre le procedure automatizzate sono pubblicizzate in grassetto; e in secondo luogo, che i presupposti richiesti sono raramente soddisfatti in casi realistici, rendendo le nuove procedure praticamente inutili. Queste accuse sono ortogonali alla questione se le tecniche si comportino come pubblicizzato quando valgono le ipotesi necessarie.le cose da cui l'inferenza causale è sempre dipesa. In una certa misura, questo dibattito riguarda l'enfasi e la pubblicità. Sia Pearl che SGS affermano espliciti presupposti che devono essere fatti prima che le loro procedure possano produrre risultati. I critici accusano, in primo luogo, che queste ipotesi sono sepolte in caratteri minuscoli mentre le procedure automatizzate sono pubblicizzate in grassetto; e in secondo luogo, che i presupposti richiesti sono raramente soddisfatti in casi realistici, rendendo le nuove procedure praticamente inutili. Queste accuse sono ortogonali alla questione se le tecniche si comportino come pubblicizzato quando valgono le ipotesi necessarie.le cose da cui l'inferenza causale è sempre dipesa. In una certa misura, questo dibattito riguarda l'enfasi e la pubblicità. Sia Pearl che SGS affermano espliciti presupposti che devono essere fatti prima che le loro procedure possano produrre risultati. I critici accusano, in primo luogo, che queste ipotesi sono sepolte in caratteri minuscoli mentre le procedure automatizzate sono pubblicizzate in grassetto; e in secondo luogo, che i presupposti richiesti sono raramente soddisfatti in casi realistici, rendendo le nuove procedure praticamente inutili. Queste accuse sono ortogonali alla questione se le tecniche si comportino come pubblicizzato quando valgono le ipotesi necessarie.in primo luogo, che queste ipotesi sono sepolte in caratteri minuscoli mentre le procedure automatizzate sono pubblicizzate in grassetto; e in secondo luogo, che i presupposti richiesti sono raramente soddisfatti in casi realistici, rendendo le nuove procedure praticamente inutili. Queste accuse sono ortogonali alla questione se le tecniche si comportino come pubblicizzato quando valgono le ipotesi necessarie.in primo luogo, che queste ipotesi sono sepolte in caratteri minuscoli mentre le procedure automatizzate sono pubblicizzate in grassetto; e in secondo luogo, che i presupposti richiesti sono raramente soddisfatti in casi realistici, rendendo le nuove procedure praticamente inutili. Queste accuse sono ortogonali alla questione se le tecniche si comportino come pubblicizzato quando valgono le ipotesi necessarie.

La nostra preoccupazione qui non sarà con l'efficacia di questi metodi di inferenza causale, ma piuttosto con le loro basi filosofiche. Seguiremo qui gli sviluppi di SGS, poiché questi hanno una somiglianza più forte con le teorie probabilistiche della causalità descritte nella precedente Sezione 3. (L'approccio di Pearl, almeno nel suo sviluppo più recente, ha una connessione più forte con approcci controfattuali.)

Letture consigliate: Pearl (2000) e Spirtes, Glymour e Scheines (2000) sono le presentazioni più dettagliate dei due programmi di ricerca discussi. Entrambe le opere sono piuttosto tecniche, sebbene l'epilogo di Pearl (2000) fornisca un'introduzione storica molto leggibile all'opera di Pearl. Pearl (1999) contiene anche un'introduzione ragionevolmente accessibile ad alcuni degli sviluppi più recenti di Pearl. Scheines (1997) è un'introduzione non tecnica ad alcune idee di SGS (2000). McKim and Turner (1997) è una raccolta di articoli sulla modellistica causale, tra cui alcune importanti critiche a SGS.

5.2 Condizioni di Markov e minimalità

Possiamo presentare qui solo una panoramica molto rudimentale del framework SGS. Iniziamo con un set V di variabili. L'insieme può, ad esempio, includere variabili che rappresentano il livello di istruzione, il reddito, il reddito dei genitori, ecc., Degli individui in una popolazione. Queste variabili sono diverse dai fattori che normalmente figurano nelle teorie probabilistiche della causalità. I fattori resistono alle variabili come determinano i determinabili. "Reddito" è una variabile; "avere un reddito di $ 40.000 all'anno" è un fattore. Dato un insieme di variabili, possiamo definire due diverse strutture matematiche su questo insieme. Innanzitutto, un grafico diretto G su V è un insieme di bordi diretti, o "frecce", con le variabili in Vcome i loro vertici. La variabile X è un 'genitore' di Y nel caso in cui vi sia una freccia da X a Y. X è un "antenato" di Y (equivalentemente, Y è un "discendente" di X) nel caso in cui vi sia un "percorso diretto" da X a Y costituito da frecce che collegano le variabili intermedie. Il grafico diretto è aciclico se non ci sono anelli, cioè se nessuna variabile è antenata di se stessa. Oltre a un grafo orientato aciclico sopra V, abbiamo anche una distribuzione di probabilità P sui valori delle variabili in V.

Il grafico aciclico diretto G su V può essere correlato alla distribuzione di probabilità in vari modi. Una condizione importante che i due potrebbero soddisfare è la cosiddetta condizione di Markov:

MC: Per ogni X in V e ogni set Y di variabili in V / DE (X), P (X | PA (X) & Y) = P (X | PA (X)); dove DE (X) è l'insieme dei discendenti di X e PA (X) è l'insieme dei genitori di X.

La notazione necessita di un piccolo chiarimento. Considera, ad esempio, il primo termine nell'uguaglianza. Poiché X è una variabile, non ha molto senso parlare della probabilità di X o della probabilità condizionale di X. Ha senso parlare della probabilità di avere un reddito di $ 40.000 all'anno (almeno se stiamo parlando di membri di una popolazione ben definita), ma non ha senso parlare della probabilità di "reddito". (Si noti che non intendiamo qui la probabilità di avere un reddito o altro. Quella probabilità è una, supponendo che consentiamo a zero di contare come valore del reddito.) Questa formulazione di MC utilizza una convenzione notazionale comune. Ogni volta che appare una variabile o un insieme di variabili, esiste un quantificatore tacito universale che va oltre i valori delle variabili in questione. Quindi MC dovrebbe essere inteso come asserire un'uguaglianza tra due probabilità condizionali che vale per tutti i valori della variabile X e per tutti i valori delle variabili in Y e PA (X). In parole, la condizione di Markov dice che i genitori di X schermano X da tutte le altre variabili, ad eccezione dei discendenti di X. Dati i valori delle variabili che sono i genitori di X, i valori delle variabili in Y (che non include discendenti di X), non fanno ulteriore differenza sulla probabilità che X assumerà un dato valore.

Come affermato, la Condizione di Markov descrive una relazione puramente formale tra entità astratte. Supponiamo, tuttavia, di dare interpretazioni empiriche al grafico e alla distribuzione di probabilità. Il grafico rappresenterà le relazioni causali tra le variabili in una popolazione e la distribuzione di probabilità rappresenterà la probabilità empirica che un individuo nella popolazione possieda determinati valori delle variabili pertinenti. Quando al grafico diretto viene data un'interpretazione causale, viene chiamato grafico causale. Ritorneremo presto alla domanda su cosa rappresentino esattamente le frecce in un grafico causale.

La Causal Markov Condition (CMC) afferma che MC detiene una popolazione quando al grafico diretto e alla distribuzione di probabilità vengono date queste interpretazioni. CMC non vale in generale, ma solo quando sono soddisfatte alcune ulteriori condizioni. Ad esempio, V deve comprendere tutte le cause comuni di variabili che sono inclusi nel V. Supponiamo, ad esempio, che V = {X, Y}, che nessuna delle variabili sia una causa dell'altra e che Z sia una causa comune di X e Y (la vera struttura causale è mostrata nella Figura 3 di seguito). Il grafico causale corretto su Vnon includerà frecce, poiché né X né Y causano l'altro. Ma X e Y saranno probabilisticamente correlati, a causa della causa comune sottostante. Questa è una violazione della CMC. Poiché il grafico causale corretto su {X, Y} non ha frecce, X non ha genitori o discendenti; quindi CMC implica che P (X | Y) = P (X). Questa uguaglianza è falsa, poiché X e Y sono in effetti correlati. La CMC può anche fallire per alcuni tipi di popolazioni eterogenee composte da sottopopolazioni con differenti strutture causali. E CMC fallirà per alcuni sistemi quantistici. Un'area di controversia riguarda la misura in cui le popolazioni reali soddisfano la CMC rispetto al tipo di insiemi di variabili che sono tipicamente impiegati nelle indagini empiriche. Ai fini di ulteriori discussioni, assumeremo che la CMC sia valida.

Figura 3
Figura 3

Figura 3

La Condizione causale di Markov è una generalizzazione del Principio di causa comune di Reichenbach, discussa nella precedente Sezione 3.3. Ecco alcune illustrazioni di come funziona.

Figura 4
Figura 4

Figura 4

Nelle figure 3 e 4, CMC implica che i valori di Z schermano i valori di X dai valori di Y.

Figura 5
Figura 5

Figura 5

Figura 6
Figura 6

Figura 6

Nelle figure 5 e 6, CMC implica nuovamente che i valori di Z schermano i valori di X dai valori di Y. Tuttavia, CMC non implica che i valori di W escludano i valori di X dai valori di Y nella Figura 5, mentre implica che i valori di W schermano i valori di X dai valori di Y nella Figura 6. Ciò dimostra che essere una causa comune di X e Y non è né necessario né sufficiente per escludere i valori di tali variabili.

Figura 7
Figura 7

Figura 7

Nella Figura 7, sia Z che W sono cause comuni di X e Y, tuttavia CMC non implica che nessuno dei due, da solo, sia sufficiente a schermare i valori di X e Y. Questo sembra ragionevole: se manteniamo fisso il valore di Z, dovremmo aspettarci che X e Y rimangano correlati a causa dell'azione di W. CMC implica che Z e W schermano congiuntamente X e Y; cioè quando condizioniamo i valori di Z e W, non ci sarà alcuna correlazione residua tra X e Y.

Una seconda relazione importante tra un grafico diretto e la distribuzione di probabilità è la Condizione di minimalità. Supponiamo che il grafico diretto G sull'insieme di variabili V soddisfi la condizione di Markov rispetto alla distribuzione di probabilità P. La Condizione di minimalità afferma che nessun sotto-grafico di G su V soddisfa anche la Condizione di Markov rispetto a P. La Condizione di minimalità causale afferma che la Condizione di minimalità vale quando Ge P ricevono le loro interpretazioni empiriche. Come illustrazione, considera l'insieme di variabili {X, Y}, lascia che ci sia una freccia da X a Y, e supponi che X e Y siano probabilisticamente indipendenti l'una dall'altra in P. Questo grafico soddisferebbe la condizione di Markov rispetto a P: nessuna delle relazioni di indipendenza commissionate da MC è assente (in effetti, MC non impone relazioni di indipendenza). Ma questo grafico violerebbe la Condizione di minimalità rispetto a P, poiché il sottografo che omette la freccia da X a Y soddisferebbe anche la Condizione di Markov.

Letture consigliate: Spirtes, Glymour and Scheines (2000) e Scheines (1997). Hausman e Woodward (1999) forniscono una discussione dettagliata della condizione causale di Markov.

5.3 Significato delle frecce

Ora siamo in una posizione migliore per dire qualcosa sul significato delle frecce in un grafico causale. Innanzitutto considera un semplice grafico con due variabili X e Y e una freccia da X a Y. La Condizione di minimalità richiede che le due variabili non siano probabilisticamente indipendenti. Ciò significa che devono esserci valori x e x 'di X e y di Y, tali che

P (Y = y | X = x)

non =
non =

P (Y = y | X = x ').

Questo non dice nulla su come X abbia a che fare con Y. Supponiamo ad esempio che abbiamo un modello a tre variabili, comprese le variabili fumo, esercizio fisico e malattie cardiache. Il grafico causale includerebbe (presumibilmente) una freccia dal fumo alle malattie cardiache e una freccia dall'esercizio fisico alle malattie cardiache. Nulla nel grafico indica che un aumento dei livelli di fumo aumenta il rischio e la gravità delle malattie cardiache, mentre un aumento dei livelli di esercizio (fino a un certo punto, comunque) riduce il rischio e la gravità delle malattie cardiache. Quindi una freccia in un grafico causale indica solo che una variabile è causalmente rilevante per un'altra e non dice nulla sul modo in cui è rilevante (sia che si tratti di una causa che promuove, inibisce o interagisce o che si trova in una relazione più complessa).

Figura 8
Figura 8

Figura 8

Si consideri la Figura 8. Si noti che differisce dalla Figura 4 in quanto vi è una freccia aggiuntiva che corre direttamente da X a Y. Cosa indica questa freccia da X a Y? Non indica semplicemente che X è causalmente rilevante per Y; nella Figura 4, è naturale aspettarsi che X sia rilevante per Y tramite il suo effetto su Z. Applicando le Condizioni causali di Markov e di minimalità, la freccia da X a Y indica che Y è probabilisticamente dipendente da X, anche quando teniamo fisso il valore di Z. Cioè, X fa una differenza probabilistica per Y, al di là della differenza che fa in virtù del suo effetto su Z. La Figura 8 indica quindi che X ha un effetto su Y attraverso due percorsi diversi: un percorso che attraversa la variabile Z e l'altro percorso che è diretto, cioè non mediato da qualsiasi altra variabile in V. A titolo di esempio, considera un esempio ben noto dovuto a Germund Hesslow. Il consumo di pillole anticoncezionali (X) è un fattore di rischio per la trombosi (Y). D'altra parte, le pillole anticoncezionali sono un efficace prevenzione della gravidanza (Z), che a sua volta è un potente fattore di rischio per la trombosi. L'uso di pillole anticoncezionali può quindi influenzare le possibilità di soffrire di trombosi in due modi diversi, uno "diretto" e uno attraverso l'effetto delle pillole sulle proprie possibilità di rimanere incinta. Se le pillole anticoncezionali aumentano o diminuiscono la probabilità di trombosi complessiva dipenderà dai punti di forza relativi di questi due percorsi. Le teorie probabilistiche del nesso di causalità descritte nella precedente Sezione 3 sono adatte per analizzare l'effetto totale o netto di un fattore o variabile su un altro,mentre le tecniche di modellazione causale discusse in questa sezione sono principalmente orientate alla decomposizione di un sistema causale in singole vie di influenza causale.

Letture consigliate: l'esempio della pillola anticoncezionale è stato originariamente presentato a Hesslow (1976). Hitchcock (2001a) discute la distinzione tra effetto totale o netto e influenza causale lungo le singole rotte.

5.4 La condizione di fedeltà

Un'ultima condizione di cui SGS fa ampio uso è la Condizione di Fedeltà. (Disporrò della distinzione tra le versioni causale e non causale.) La Condizione di Fedeltà afferma che tutte le indipendenze probabilistiche (condizionali e incondizionate) che esistono tra le variabili in V sono richieste dalla Condizione causale di Markov. Ad esempio, supponiamo che V= {X, Y, Z}. Supponiamo anche che X e Y siano incondizionatamente indipendenti l'uno dall'altro, ma dipendenti, subordinati a Z. (Le altre due coppie di variabili dipendono, sia condizionatamente che incondizionatamente.) Il grafico mostrato in Figura 8 non soddisfa la condizione di fedeltà rispetto a questa distribuzione (colloquialmente, il grafico non è fedele alla distribuzione). CMC, quando applicato al grafico di Figura 8, non implica l'indipendenza di X e Y. Al contrario, il grafico mostrato in Figura 9 è fedele alla distribuzione descritta. Si noti che la Figura 8 soddisfa la Condizione di minimalità; nessun sottografo soddisfa CMC rispetto alla distribuzione descritta. (Il grafico in Figura 9 non è un sottografo del grafico in Figura 8.)

Figura 9
Figura 9

Figura 9

La Condizione di Fedeltà implica che le influenze causali di una variabile su un'altra lungo molteplici rotte causali non "annullano". Ad esempio, supponiamo che la Figura 8 rappresenti correttamente la struttura causale sottostante. Quindi la Condizione di Fedeltà implica che X e Y non possono essere incondizionatamente indipendenti l'uno dall'altro nella distribuzione empirica. Nell'esempio di Hesslow, ciò significa che la tendenza delle pillole anticoncezionali a causare trombosi lungo la via diretta non può essere esattamente annullata dalla tendenza delle pillole anticoncezionali a prevenire la trombosi prevenendo la gravidanza. Questa condizione di "non cancellazione" sembra non plausibile come un vincolo metafisico o concettuale sulla connessione tra causalità e probabilità. Perché i percorsi causali concorrenti non possono annullarsi a vicenda? In effetti, la fisica newtoniana ci fornisce un esempio:la forza verso il basso sul mio corpo dovuta alla gravità innesca una forza ascendente uguale e opposta sul mio corpo dal pavimento. Il mio corpo risponde come se nessuna delle forze stesse agisse su di esso. La condizione di fedeltà sembra piuttosto essere un principio metodologico. Data una distribuzione su {X, Y, Z} in cui X e Y sono indipendenti, dovremmo dedurre che la struttura causale è quella rappresentata nella Figura 9, piuttosto che nella Figura 8. Questo non è perché la Figura 8 è definitivamente esclusa dal distribuzione, ma piuttosto perché è gratuitamente complessa: postula connessioni causali che non sono necessarie per spiegare il modello sottostante di dipendenze probabilistiche. La condizione di fedeltà è quindi una versione formale del rasoio di Ockham. Il mio corpo risponde come se nessuna delle forze stesse agisse su di esso. La condizione di fedeltà sembra piuttosto essere un principio metodologico. Data una distribuzione su {X, Y, Z} in cui X e Y sono indipendenti, dovremmo dedurre che la struttura causale è quella rappresentata nella Figura 9, piuttosto che nella Figura 8. Questo non è perché la Figura 8 è definitivamente esclusa dal distribuzione, ma piuttosto perché è gratuitamente complessa: postula connessioni causali che non sono necessarie per spiegare il modello sottostante di dipendenze probabilistiche. La condizione di fedeltà è quindi una versione formale del rasoio di Ockham. Il mio corpo risponde come se nessuna delle forze stesse agisse su di esso. La condizione di fedeltà sembra piuttosto essere un principio metodologico. Data una distribuzione su {X, Y, Z} in cui X e Y sono indipendenti, dovremmo dedurre che la struttura causale è quella rappresentata nella Figura 9, piuttosto che nella Figura 8. Questo non è perché la Figura 8 è definitivamente esclusa dal distribuzione, ma piuttosto perché è gratuitamente complessa: postula connessioni causali che non sono necessarie per spiegare il modello sottostante di dipendenze probabilistiche. La condizione di fedeltà è quindi una versione formale del rasoio di Ockham.dovremmo dedurre che la struttura causale è quella illustrata nella Figura 9, piuttosto che nella Figura 8. Ciò non è dovuto al fatto che la Figura 8 è definitivamente esclusa dalla distribuzione, ma piuttosto perché è gratuitamente complessa: postula connessioni causali che non sono necessarie per spiegare il modello sottostante di dipendenze probabilistiche. La condizione di fedeltà è quindi una versione formale del rasoio di Ockham.dovremmo dedurre che la struttura causale è quella illustrata nella Figura 9, piuttosto che nella Figura 8. Ciò non è dovuto al fatto che la Figura 8 è definitivamente esclusa dalla distribuzione, ma piuttosto perché è gratuitamente complessa: postula connessioni causali che non sono necessarie per spiegare il modello sottostante di dipendenze probabilistiche. La condizione di fedeltà è quindi una versione formale del rasoio di Ockham.

SGS usa le condizioni causali di Markov, minimalità e fedeltà per dimostrare una varietà di teoremi statistici di indistinguibilità. Questi teoremi ci dicono quando due distinte strutture causali possono o non possono essere distinte sulla base delle distribuzioni di probabilità a cui danno origine. Ritorneremo su questo problema nella Sezione 6.4 di seguito.

Letture consigliate: Spirtes, Glymour and Scheines (2000) e Scheines (1997).

6. Ulteriori problemi e problemi

6.1 Unanimità contestuale

Secondo TS, una causa deve aumentare la probabilità del suo effetto in ogni situazione di test. Questo è stato chiamato il requisito dell'unanimità contestuale. Questo requisito è vulnerabile al seguente tipo di controesempio. Supponiamo che esista un gene che ha il seguente effetto: quelli che possiedono il gene hanno una probabilità di contrarre il cancro ai polmoni quando fumano. Questo gene è molto raro, immaginiamolo (anzi, non è necessario che esista affatto nella popolazione umana, purché gli umani abbiano una probabilità diversa da zero di possedere questo gene, forse a causa di una mutazione molto improbabile). In questo scenario, ci sarebbero situazioni di test (quelle che mantengono fissa la presenza del gene) in cui il fumo riduce la probabilità di cancro ai polmoni: quindi il fumo non sarebbe una causa di cancro ai polmoni in base al requisito dell'unanimità di contesto. Tuttavia, sembra improbabile che la scoperta di un tale gene (o della mera possibilità del suo verificarsi) ci porti ad abbandonare l'affermazione che il fumo provoca il cancro ai polmoni.

Questa linea di obiezione ha sicuramente ragione sul nostro uso ordinario del linguaggio causale. È comunque aperto al difensore dell'unanimità contestuale rispondere che è interessata a fornire un concetto preciso per sostituire la vaga nozione di causalità che corrisponde al nostro uso quotidiano. In una popolazione composta da individui privi del gene, il fumo provoca il cancro ai polmoni. In una popolazione costituita interamente da individui che possiedono il gene, il fumo previene il cancro ai polmoni.

Si noti che questa controversia sorge solo nel contesto di una popolazione eterogenea. Limitandoci a una particolare situazione di test, entrambe le parti possono concordare sul fatto che il fumo provoca il cancro ai polmoni in quella popolazione di test nel caso in cui aumenti la probabilità di cancro ai polmoni in quella situazione di test.

La posizione di uno in questo dibattito dipenderà, in parte, da come si vogliono usare le affermazioni causali generali come "il fumo provoca il cancro ai polmoni". Se uno li concepisce come leggi causali, allora il requisito dell'unanimità contestuale può sembrare attraente. Se "il fumo provoca il cancro ai polmoni" è un tipo di legge, la sua verità non dovrebbe dipendere dalla scarsità del gene che inverte gli effetti del fumo. Al contrario, si può comprendere l'affermazione causale in un modo più pratico, trattandolo come una sorta di principio guida politico. Poiché il gene in questione è molto raro, sarebbe ancora razionale per le organizzazioni di sanità pubblica promuovere politiche che riducessero l'incidenza del fumo.

Bibliografia consigliata: Dupré; (1984) presenta questa sfida al requisito dell'unanimità di contesto e offre un'alternativa. Eells (1991, capitoli 1 e 2), difende l'unanimità dal contesto usando l'idea che le rivendicazioni causali siano fatte in relazione a una popolazione. Hitchock (2001b) contiene ulteriori discussioni e sviluppa l'idea di trattare le affermazioni causali generali come principi guida politici.

6.2 Potenziali controesempi

Data l'idea di base per aumentare la probabilità, ci si aspetterebbe che i controesempi putativi alle teorie probabilistiche della causalità siano di due tipi fondamentali: casi in cui le cause non aumentano le probabilità dei loro effetti e casi in cui le non cause aumentano le probabilità di non effetti. La discussione in letteratura si è concentrata quasi interamente sul primo tipo di esempio. Considera l'esempio seguente, dovuto a Deborah Rosen. Un giocatore di golf taglia una pallina da golf male, che si dirige verso il grezzo, ma poi rimbalza su un albero e nella tazza per un buco in uno. La fetta del giocatore di golf ha abbassato la probabilità che la palla si avvolgesse nella coppa, eppure ha causato questo risultato. Un modo per evitare questo problema è quello di occuparsi delle probabilità che vengono confrontate. Se etichettiamo la sezione A, non- A è una disgiunzione di diverse alternative. Una di queste alternative è un tiro pulito: rispetto a questa alternativa, la fetta ha ridotto la probabilità di un buco in uno. Un'altra alternativa non è affatto il tiro, rispetto al quale la fetta aumenta la probabilità di un buco in uno. Facendo quest'ultimo tipo di confronto, possiamo recuperare le nostre intuizioni originali sull'esempio.

Un diverso tipo di controesempio comporta la preemption causale. Supponiamo che un assassino metta un debole veleno nella bevanda del re, con una probabilità di morte del 30%. Il re beve il veleno e muore. Se l'assassino non avesse avvelenato la bevanda, il suo collega avrebbe aggiunto la bevanda con un elisir ancora più mortale (70% di probabilità di morte). Nell'esempio, l'assassino ha causato la morte del re avvelenando la sua bevanda, anche se ha ridotto la sua possibilità di morte (dal 70% al 30%). Qui la causa ha ridotto la probabilità di morte, perché ha predetto una causa ancora più forte.

Un approccio a questo problema, integrato nell'approccio controfattuale descritto nella precedente Sezione 4, è quello di invocare il principio di transitività della causalità. L'azione dell'assassino aumentò la probabilità e quindi causò la presenza di un debole veleno nella bevanda del re. La presenza di un debole veleno nella bevanda del re aumentava la probabilità e quindi causava la morte del re. (A questo punto, è già determinato che l'associato non avvelenerà la bevanda.) Per via della transitività, l'azione dell'assassino ha causato la morte del re. L'affermazione secondo cui il nesso di causalità è transitivo è tuttavia altamente controversa ed è soggetta a molti controesempi persuasivi.

Un altro approccio sarebbe quello di invocare una distinzione introdotta nella precedente sezione 5.3. L'azione dell'assassino influenza le possibilità di morte del re in due modi distinti: in primo luogo, introduce il debole veleno nella bevanda del re; secondo, impedisce l'introduzione di un veleno più forte. L'effetto netto è di ridurre le possibilità di morte del re. Tuttavia, possiamo isolare il primo di questi effetti (che sarebbe indicato da una freccia in un grafico causale). Lo facciamo mantenendo fissa l'inazione del socio: dato che il socio in effetti non ha avvelenato la bevanda, l'azione dell'assassino ha aumentato le possibilità di morte del re (da quasi zero a 0,3). Contiamo l'azione dell'assassino come causa di morte perché ha aumentato le probabilità di morte lungo una delle vie che collegano i due eventi.

Per un controesempio del secondo tipo, supponiamo che due uomini armati sparino a un bersaglio. Ognuno ha una certa probabilità di colpire e una certa probabilità di perdere. Supponiamo che nessuna delle probabilità sia una o zero. È un dato di fatto, il primo uomo armato colpisce, e il secondo uomo armato manca. Tuttavia, il secondo uomo armato ha sparato e, sparando, ha aumentato la probabilità che il bersaglio sarebbe stato colpito, cosa che è stata. Mentre è ovviamente errato affermare che il secondo colpo del pistolero ha causato il colpo al bersaglio, sembrerebbe che una teoria probabilistica della causalità sia impegnata in questa conseguenza. Un approccio naturale a questo problema sarebbe quello di provare a combinare la teoria probabilistica della causalità con un requisito di connessione spazio-temporale tra causa ed effetto, sebbene non sia affatto chiaro come funzionerebbe questa teoria ibrida.

Letture consigliate:L'esempio della pallina da golf, dovuto a Deborah Rosen, è presentato per la prima volta in Suppes (1970) Salmon (1980) e presenta diversi esempi di cause che riducono la probabilità. Hitchcock (1995) presenta una risposta. Lewis (1986a) discute casi di prelazione, vedi anche la voce "causalità: teorie controfattuali". Hithcock (2001a) presenta la soluzione in termini di decomposizione in rotte causali componenti. Woodward (1990) descrive la struttura che è istanziata nell'esempio dei due uomini armati. Humphreys (1989, sezione 14) risponde. Menzies (1989, 1996) discute esempi di prelazione causale in cui le non-cause aumentano le probabilità di non-effetti. Hitchcock (2002) fornisce una discussione generale di questi controesempi. Per una discussione sui tentativi di analizzare causa ed effetto in termini di processi contigui, vedere la voce "causalità:processi causali."

6.3 Causazione singolare e generale

Abbiamo notato nella precedente sezione 2 che facciamo almeno due diversi tipi di rivendicazione causale, singolare e generale. Con questa distinzione in mente, possiamo notare che i controesempi menzionati nella sezione precedente sono tutti formulati in termini di causalità singolare. Quindi una possibile reazione ai controesempi della sezione precedente sarebbe quella di sostenere che una teoria probabilistica della causalità è appropriata solo per la causalità generale e che la causalità singolare richiede una teoria filosofica distinta. Una conseguenza di questa mossa è che ci sono (almeno) due distinte specie di relazione causale, ognuna delle quali richiede il proprio resoconto filosofico - non una situazione del tutto felice.

Letture consigliate: la necessità di distinte teorie della causalità singolare e generale è difesa in Good (1961, 1962), Sober (1985) ed Eells (1991, introduzione e capitolo 6). Eells (1991, capitolo 6) offre una distinta teoria probabilistica della causalità singolare in termini di evoluzione temporale delle probabilità. Carroll (1991) e Hitchcock (1995) offrono due linee di risposta abbastanza diverse. Hitchcock (2001b) sostiene che ci sono davvero (almeno) due distinzioni diverse al lavoro qui.

6.4 Riduzione e circolarità

Ritornando alle teorie delineate nella sezione 3, ricordiamo che la teoria NSO era un tentativo di analisi riduttiva della causalità in termini di probabilità (e forse anche di ordine temporale). Al contrario, TS definisce le relazioni causali in termini di probabilità subordinate alle specifiche delle condizioni di prova, che sono esse stesse caratterizzate in termini causali. Quindi sembra che queste ultime teorie non possano essere analisi della causalità, poiché la causalità appare negli analisti. Dato che TS contiene molti miglioramenti necessari rispetto a NSO, sembra che non ci possa essere riduzione della causalità alle probabilità. Questo potrebbe però arrendersi troppo presto. Al fine di determinare se sia possibile una riduzione probabilistica della causalità, il problema centrale non è se la parola "causa" sia presente sia nell'analizzando che nell'analista; piuttosto,la domanda chiave dovrebbe essere se, data un'assegnazione di probabilità a un insieme di fattori, esiste un insieme unico di relazioni causali tra quei fattori compatibili con l'assegnazione di probabilità e la teoria in questione.

Il lavoro più importante in tal senso è stato svolto da Spirtes, Glymour e Scheines. Invece di riferire sui dettagli dei loro risultati, presentiamo qui una discussione più generalizzata. Supponiamo che venga fornito un insieme di fattori e un sistema di relazioni causali tra tali fattori: chiamatela struttura causale CS. Sia T una teoria che collega le relazioni causali tra i fattori con le relazioni probabilistiche tra i fattori. Quindi la struttura causale CS sarà probabilisticamente distinguibile rispetto a T, se per ogni assegnazione di probabilità ai fattori in CS che è compatibile con CS e T, CS è la struttura causale unica compatibile con T e quelle probabilità. (Si potrebbe formulare un senso più debole di distinguibilità richiedendo che solo un certo numero di probabilità determini in modo univoco CS). Intuitivamente,T consente di dedurre che la struttura causale è in realtà CS date le relazioni di probabilità tra i fattori. Data una teoria probabilistica della causalità T, è possibile immaginare molte diverse proprietà che potrebbe avere. Ecco alcune possibilità:

  1. Tutte le strutture causali sono probabilisticamente distinguibili rispetto a T
  2. Tutte le strutture causali aventi alcune proprietà interessanti sono probabilisticamente distinguibili rispetto a T
  3. Qualsiasi struttura causale può essere incorporata in una struttura causale che è probabilisticamente distinguibile rispetto a T
  4. L'attuale struttura causale del mondo (supponendo che esista una cosa del genere) è probabilisticamente distinguibile rispetto a T.

Non è ovvio quale tipo di proprietà di distinguibilità debba avere una teoria per costituire una riduzione della causalità alle probabilità. La questione se la causalità possa essere ridotta a probabilità è quindi meno univoca di quanto potrebbe apparire.

Letture consigliate: il trattamento più dettagliato della distinguibilità probabilistica è dato in Spirtes, Glymour and Scheines (2000); vedere in particolare il capitolo 4. Spirtes, Glymour e Scheines dimostrano (teorema 4.6) un risultato lungo le linee del 3 per una teoria che propongono. Questo lavoro è molto tecnico. Una presentazione accessibile è contenuta in Papineau (1993), che difende una posizione lungo le linee di 4.

Bibliografia

  • Arntzenius, Frank. (1993) "The Common Cause Principle", in Hull, Forbes e Okruhlik (1993), pagg. 227 - 237.
  • Bennett, Jonathan. (1988) Eventi e loro nomi. Indianapolis e Cambridge: Hackett.
  • Carroll, John. (1991) "Causazione a livello di proprietà?" Studi filosofici 63: 245-70.
  • Cartwright, Nancy. (1979)? Leggi usuali e strategie efficaci”, Noûs 13: 419-437.
  • Dupré, John. (1984) "Probabilistic Causality Emancipated", in Peter French, Theodore Uehling, Jr. e Howard Wettstein, eds., (1984) Midwest Studies in Philosophy IX (Minneapolis: University of Minnesota Press), pagg. 169 - 175.
  • Earman, John. (1986) A Primer on Determinism. Dordrecht: Reidel.
  • Eells, Ellery. (1991) Causalità probabilistica. Cambridge, Regno Unito: Cambridge University Press.
  • Good, IJ (1961) "A Causal Calculus I", British Journal for the Philosophy of Science 11: 305-18.
  • -----. (1962) "A Causal Calculus II", British Journal for the Philosophy of Science 12: 43-51.
  • Hausman, Daniel. (1998) Asimmetrie causali. Cambridge: Cambridge University Press.
  • Hausman, Daniel e Woodward, James. (1999) "Indipendenza, invarianza e condizione causale di Markov", British Journal for the Philosophy of Science 50: 1 - 63.
  • Hesslow, Germund. (1976) "Discussione: due note sull'approccio probabilistico alla causalità", Philosophy of Science 43: 290 - 292.
  • Hitchcock, Christopher. (1993) "Una teoria probabilistica generalizzata della rilevanza causale", Synthese 97: 335-364.
  • -----. (1995) "The Mishap at Reichenbach Fall: Singular vs. General Causation", Studi filosofici 78: 257 - 291.
  • ----. (2001a) "Una storia di due effetti", Revisione filosofica 110: 361 - 396.
  • -----. (2001b) "Generalizzazioni causali e buoni consigli", Monista 84: 218 - 241.
  • -----. (2002) "Tutte e solo le cause aumentano le probabilità degli effetti?" in John Collins, Ned Hall e LA Paul (a cura di), Causation and Counterfactuals (Cambridge MA: MIT Press, 2002).
  • Hull, David, Mickey Forbes e Kathleen Okruhlik, a cura di. (1993) PSA 1992, volume due. East Lansing: Philosophy of Science Association.
  • Hume, David. (1748) Un'inchiesta sulla comprensione umana.
  • Humphreys, Paul. (1989) The Chances of Explanation: Causal Explanations in the Social, Medical and Physical Sciences, Princeton: Princeton University Press.
  • Kvart, Igal. (1997) "Causa e qualche impatto causale positivo", Noûs 11: 401 - 432.
  • Lewis, David. (1986a) "Causation" e "Postscripts to 'Causation", in Lewis (1986c), pp. 172-213.
  • -----. (1986b) "Dipendenza controfattuale e la freccia del tempo" e "PostScript per" Dipendenza controfattuale e la freccia del tempo "," in Lewis (1986c), pagg. 32-66.
  • -----. (1986c) Philosophical Papers, Volume II. Oxford: Oxford University Press.
  • Mackie, John. (1974) Il cemento dell'Universo. Oxford: Clarendon Press.
  • McKim, Vaughn e Stephen Turner, a cura di. (1997) Causalità in crisi? Notre Dame: Università di Notre Dame Press.
  • Menzies, Peter. (1989) "Causazione probabilistica e processi causali: una critica di Lewis", Philosophy of Science 56: 642-63.
  • Menzies, Peter. (1996) "Probabilistic Causation and the Pre-emptionProblem", Mind 105: 85-117.
  • Mill, John Stuart. (1843) Un sistema di logica, rapporto e induttivo. Londra: Parker and Son.
  • Noordhof, Paul. (1999) "Probabilistic Causation, Preemption and Counterfactuals", Mind 108: 95-125.
  • Papineau, David. (1993) "Possiamo ridurre la direzione causale alle probabilità?" in Hull, Forbes e Okruhlik (1993), pagg. 238-252.
  • Perla, Giudea. (1999) "Ragionamento con causa ed effetto", in Atti della Conferenza internazionale congiunta sull'intelligenza artificiale (San Francisco: Morgan Kaufman), pagg. 1437-1449.
  • -----. (2000) Causalità: modelli, ragionamento e inferenza. Cambridge: Cambridge University Press.
  • Prezzo, Huw. (1991) "Agency and Probabalistic Causality", British Journal for the Philosophy of Science 42: 157 -76.
  • Reichenbach, Hans. (1956) La direzione del tempo. Berkeley e Los Angeles: University of California Press.
  • Salmone, Wesley. (1980) "Probabilistic Causality", Pacific Philosophical Quarterly 61: 50 - 74.
  • Scheines, Richard. (1997) "An Introduction to Causal Inference" in McKim and Turner (1997), pagg. 185 - 199.
  • Skyrms, Brian. (1980) Necessità causale. New Haven e Londra: Yale University Press.
  • Sobrio, Elliott. (1985) "Two Concepts of Cause" in Peter Asquith e Philip Kitcher, eds., PSA 1984, vol. II (East Lansing: Philosophy of Science Association), pagg. 405-424.
  • Spirtes, Peter, Clark Glymour e Richard Scheines. (2000) Causation, Prediction and Search, Seconda edizione. Cambridge, MA: MIT Press.
  • Suppes, Patrick. (1970) Una teoria probabilistica della causalità. Amsterdam: casa editrice dell'Olanda Settentrionale.
  • Woodward, James. (1990) "Supervenience and Singular Causal Claims", in Dudley Knowles, ed., Explanation and its Limits (Cambridge, Regno Unito: Cambridge University Press), pagg. 211-246.

Altre risorse Internet

[Si prega di contattare l'autore con suggerimenti.]

Raccomandato: