Paradoxo

Teorema de Bayes e o Paradoxo da Ilha

Tertuliano Franco e Diogo S. D. da Silva

Por Paradoxo, em Matemática, entende-se dois argumentos aparentemente corretos que são contraditórios. Neste artigo, veremos um paradoxo relacionado a probabilidade condicional, divertido e muito sutil, descrito por Ronald Meester em seu livro (Meester 2008, Exemplo 1.5.6). E corrigimos neste artigo uma falha na explicação apresentada pelo autor citado.

Probabilidade Condicional

Não entraremos em detalhes a respeito do que é um espaço de probabilidade. Há muitos livros para isso; veja (Franco 2020), por exemplo. Mas não ter definições precisas não nos impede de seguir em frente e nos divertirmos... Matemática é uma atividade altamente não-linear!

Sejam \(A\) e \(B\) dois eventos de um espaço de probabilidade. Intuitivamente, \(A\) e \(B\) são dois conjuntos de resultados possíveis. Supondo que \(\mathbb{P}(B)>0\), definimos a probabilidade condicional de \(A\) dado \(B\) por \[\mathbb{P}(A|B) = \frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}\,.\] Em palavras, a probabilidade condicional de \(A\) dado \(B\) consiste na probabilidade de \(A\) acontecer, sabendo a priori que \(B\) aconteceu.

Por exemplo, considere o lançamento de um dado honesto, cujas faces contêm todos os números de \(1\) a \(6\). Logo, cada número possui uma chance de \(1/6\) de ser sorteado. Se alguém vê o resultado mostrado e diz (de maneira confiável) que este resultado é um número par, qual a probabilidade deste ser o número \(2\)? Não é mais \(1/6\), e sim \(1/3\), porque, dado que o resultado é par, há apenas as possibilidades \(2\), \(4\) e \(6\).

Visualmente, podemos pensar na probabilidade condicional como a restrição do espaço amostral ao conjunto \(B\), veja a Figura 1.

Intuitivamente, condicionar ao conjunto \(B\) significa restringir o espaço amostral \(\Omega\) ao evento \(B\).

Dizemos que dois eventos \(A\) e \(B\) são independentes se \[\mathbb{P}(A\cap B) = \mathbb{P}(A) \cdot \mathbb{P}(B)\,.\] A probabilidade condicional nos permite motivar a definição acima: como se pode verificar, dois eventos \(A\) e \(B\) (para evitar chateação, suponha que ambos tenham probabilidades positivas) são independentes se, e somente se, ao condicionarmos na ocorrência de um deles, não alteramos a probabilidade do outro. Ou seja, se \(\mathbb{P}(A| B) = \mathbb{P}(A)\) e \(\mathbb{P}(B| A) = \mathbb{P}(B)\).

Como exemplo, pense em dois lançamentos sucessivos de um dado. Se \(A\) é o evento sair cara no primeiro lançamento e \(B\) é o evento sair cara no segundo lançamento, podemos verificar que \(A\) e \(B\) são independentes.

Também podemos definir independência (coletiva) de não apenas dois eventos, mas de uma quantidade finita ou mesmo infinita. Uma coleção de eventos é dita independente se, para qualquer subconjunto finito e não vazio de eventos dessa coleção, a probabilidade da interseção deles é igual ao produto das suas probabilidades.

A seguir, vejamos o Teorema de Bayes, que sob certas hipóteses, grosso modo permite:

1) escrever a probabilidade de um evento em termos de probabilidades condicionais deste evento com respeito a outros, e

2) reconstruir a probabilidade condicional de \(B\) dado \(A\) a partir da probabilidade condicional de \(A\) dado \(B\).

Teorema 1 (Teorema de Bayes). Sejam \(B_1,\ldots, B_n\) eventos, todos de probabilidade positiva, que particionem o espaço \(\Omega\), ou seja, são disjuntos e sua união é igual a \(\Omega\). Dado um evento \(A\), vale que

  1. \(\mathbb{P}(A)=\displaystyle\sum_{k=1}^n \mathbb{P}(A|B_k)\cdot \mathbb{P}(B_k)\).

  2. Suponha que \(\mathbb{P}(A)>0\). Então, para qualquer índice \(i=1, \ldots, n\), \[\mathbb{P}(B_i|A)= \frac{\mathbb{P}(A|B_i)\cdot \mathbb{P}(B_i)}{\sum_{k=1}^n \mathbb{P}(A|B_k)\cdot \mathbb{P}(B_k)}\;.\]

Proof. Como \(B_1,\ldots, B_n\) particionam o espaço, temos que \(\Omega= \cup_{k=1}^n B_k\). Portanto, \(A=A\cap \Omega= \cup_{k=1}^n (A\cap B_k)\). Como os eventos \(B_k\) são disjuntos, os eventos \(A\cap B_k\) também são. Pela aditividade da probabilidade, temos que \(\mathbb{P}(A\cap \Omega)= \sum_{k=1}^n \mathbb{P}(A\cap B_k)\), o que mostra o item (a) do enunciado. Para o item (b), \[\mathbb{P}(B_i|A)= \frac{\mathbb{P}(B_i\cap A)}{\mathbb{P}(A)}=\frac{\mathbb{P}(A|B_i)\cdot \mathbb{P}(B_i)}{\sum_{k=1}^n \mathbb{P}(A|B_k)\cdot \mathbb{P}(B_k)}\,,\] onde, na segunda igualdade, usamos o item (a) no denominador. ◻

Observação: O Teorema de Bayes também vale no caso de enumeráveis eventos \(B_1, B_2\ldots\), sendo a demonstração análoga.

O Assassinato

Considere uma ilha com \(n+2\) habitantes. Um deles é assassinado, restando portanto \(n+1\) habitantes, e sabe-se que o assassino é um dos habitantes do local. Assuma que a probabilidade de um habitante qualquer ser o assassino seja igual a \(1/(n+1)\).

Investigadores descobrem vestígios de sangue na cena do crime, não em quantidade suficiente para descobrir quem é o assassino, mas o bastante para estabelecer um certo perfil. Tipo sanguíneo, por exemplo, mas não DNA, que permitiria descobrir com certeza o culpado.

Sabe-se que a probabilidade de cada ser humano ter este perfil sanguíneo é igual a \(p\), com \(0<p<1\), e seres humanos são independentes com relação a esta propriedade.

Além disso, como o assassino está entre os habitantes, sabemos também que pelo menos um deles terá o perfil do assassino (ao menos o próprio assassino!).

A polícia começa a investigar, um por um, ao acaso, os habitantes da ilha. O primeiro a ser investigado é a pessoa que chamaremos de Yplison, e verifica-se que Yplison tem o perfil encontrado na cena do crime. Condicionado a este evento, qual é a probabilidade de que esta pessoa Yplison seja o assassino? Em outras palavras, em quanto muda a probabilidade de Yplison ser o assassino dado este evento no qual verifica-se ter Yplison o perfil do assassino?

Em outras palavras, denotando por \(Y\) o evento Yplison é o assassino, e por \(S\) o evento Yplison tem o perfil sanguíneo encontrado na cena do crime, quanto é \(\mathbb{P}(Y|S)\)? Vejamos “soluções” para o problema.

A Primeira Solução

Uma probabilidade condicional \(\mathbb{P}(\cdot|S)\) é uma probabilidade (fato da vida: o aceitaremos sem demonstração, ainda que não seja difícil prová-lo). Denote então \(\mathbb{P}_S(\cdot)=\mathbb{P}(\cdot|S)\). Seja \(T_k\) o evento no qual \(k\) habitantes da ilha, dentre os \(n\) habitantes (excluindo-se Yplison) têm o perfil sanguíneo do assassino.

Usando a parte (a) do Teorema de Bayes, podemos deduzir que \[\begin{aligned} \mathbb{P}_S(Y)& =\sum_{k=0}^n \mathbb{P}_S(Y|T_k)\cdot \mathbb{P}_S(T_k)\,. \end{aligned}\] Portanto, precisamos calcular \(\mathbb{P}_S(Y|T_k)\) e \(\mathbb{P}_S(T_k)\). Comecemos pela segunda. Faremos o seguinte: denote por \(L\) a lista de \(n+1\) entradas, cada uma sendo zero ou um, indicando se o tipo sanguíneo de cada pessoa coincide com o tipo sanguíneo do assassino. Estas entradas são independentes, e cada uma possui probabilidade \(p\) de valer \(1\). Seja \(E\in \{1,\ldots, n+1\}\) o número (aleatório) que representa a posição que Yplison ocupa nesta lista (usamos a letra \(E\) de escolhido pela polícia). Daí, temos que, para \(k\in \{0,\ldots, n\}\), \[\begin{aligned} \mathbb{P}_S(T_k) &= \mathbb{P}\Big[\sum_{j\neq E}L_j=k\Big|L_E=1\Big]\notag\\ & = \frac{\mathbb{P}\Big[\sum_{j\neq E}L_j=k,L_E=1\Big]}{\mathbb{P}\big[L_E=1\big]},\label{tag} \end{aligned}\] em que a vírgula dentro da probabilidade no denominador acima denota a interseção dos eventos. Calculemos separadamente as probabilidade no denominador e no numerador acima. Para isto, basta separar o evento em função do valor que \(E\) assume: \[\begin{aligned} \mathbb{P}\big[L_E=1\big] & = \mathbb{P}\Big[L_E=1, \bigcup_{k=1}^{n+1} [E=k] \Big]\\ & = \mathbb{P}\Big[ \bigcup_{k=1}^{n+1}([L_E=1]\cap [E=k]) \Big]\\ & = \sum_{k=1}^{n+1}\mathbb{P}\big( [L_E=1]\cap [E=k] \big)\\ & = \sum_{k=1}^{n+1}\mathbb{P}\big( [L_k=1]\cap [E=k] \big)\\ & \hspace{-0.2cm}\stackrel{\text{indep.}}{=} \sum_{k=1}^{n+1}\mathbb{P}\big[L_k=1\big] \cdot \mathbb{P} \big[E=k\big]\\ & = \sum_{k=1}^{n+1}p \cdot \frac{1}{n+1} =p\,. \end{aligned}\]

Para encontrar a probabilidade que está no numerador de [tag], fazemos um cálculo análogo separando o evento nos possíveis valores que \(E\) assume: \[\begin{aligned} &\mathbb{P}\Big[\sum_{j\neq E}L_j=k,L_E=1\Big]\\ & = \mathbb{\displaystyle}\sum_{\ell =1}^{n+1}\mathbb{P}\Big[\sum_{j\neq E}L_j=k,L_E=1, E = \ell\Big]\\ & = \mathbb{\displaystyle}\sum_{\ell =1}^{n+1} \mathbb{P}\Big[\sum_{j\neq \ell}L_j=k,L_\ell=1, E = \ell\Big]\\ & \hspace{-0.2cm}\stackrel{\text{indep.}}{=} \frac{p}{n+1} \displaystyle\sum_{\ell =1}^{n+1} \mathbb{P}\Big[\sum_{j\neq \ell}L_j=k\Big]. \end{aligned}\] É um exercício (ou faz parte de alguma aula) num curso básico de Combinatória provar que a soma de variáveis Bernoulli independentes com mesmo parâmetro é binomial. No nosso caso, isso corresponde a mostrar que \(\mathbb{P}\Big[\sum_{j\neq \ell}L_j=k\Big] = \binom{n}{k}p^k(1-p)^{n-k}\). Este é justamente o nosso caso, pois os \(L_j\) valem zero ou um (são Bernoulli) e são independentes. A probabilidade de uma determinada sequência com \(k\) uns e \(n-k\) zeros é \(p^k(1-p)^{n-k}\). Mas temos que contar quantas sequências têm \(k\) uns e \(n-k\) zeros. Estas são \(\frac{n!}{k!(n-k)!}\), pois temos \(k\) repetições de uns e \(n-k\) repetições de zeros (permutação com repetição, veja (Franco 2020) por exemplo). Assim, deduzimos que \(\mathbb{P}\Big[\sum_{j\neq \ell}L_j=k\Big] = \binom{n}{k}p^k(1-p)^{n-k}\) e, por conseguinte, que \[\begin{aligned} &\mathbb{P}\Big[\sum_{j\neq E}L_j=k,L_E=1\Big] = p\binom{n}{k}p^k(1-p)^{n-k}\,. \end{aligned}\] Dividindo as duas probabilidades correspondentes ao numerador e denominador de [tag], obtemos simplesmente \[\label{formula_binomial} \mathbb{P}_S(T_k) = \binom{n}{k}p^k(1-p)^{n-k}\,.\] Calculemos agora a primeira probabilidade requerida. Condicionado a \(T_k\), incluindo Yplison, temos \(k+1\) pessoas com o perfil sanguíneo do assassino. Assim, Yplison terá a probabilidade de \(1/(k+1)\) de ser o assassino. Ou seja, \[\mathbb{P}_S(Y|T_k)=\frac{1}{k+1}\,.\] Hum, a afirmação acima pode parecer um pouco forçada... para não deixar nenhuma sombra de dúvida, deixemos de preguiça e façamos as contas. Quem está na chuva é pra se molhar. Ou como diria Paulo Freire, ensinar é um ato de amor, logo um ato de coragem, não pode temer o debate. Denote por \(A\) o número aleatório em \(\{1,\ldots, n+1\}\) que corresponde ao assassino. Logo, o evento Yplison é o assassino é o evento \([E=A]\). Temos que \[\begin{aligned} &\mathbb{P}_S(Y|T_k)\notag\\ & = \mathbb{P} \Big[E=A\,\big| \sum_{j\neq E}L_j= k, L_E=L_A =1\Big]\notag\\ &= \frac{\mathbb{P} \Big[E=A\,, \sum_{j\neq E}L_j= k, L_E=L_A =1\Big]}{\mathbb{P} \Big[\sum_{j\neq E}L_j= k, L_E=L_A =1\Big]}\,.\label{tag2} \end{aligned}\] Calculemos as probabilidades no numerador e denominador acima, começando pelo numerador: \[\begin{aligned} &\mathbb{P} \Big[E=A\,, \sum_{j\neq E}L_j= k, L_E=L_A =1\Big] \\ & = \frac{p}{n+1}\binom{n}{k}p^k(1-p)^{n-k}\,. \end{aligned}\] Para calcular o denominador, separamos nos eventos \([E=A]\) e \([E\neq A]\), como segue: \[\begin{aligned} &\mathbb{P} \Big[\sum_{j\neq E}L_j= k, L_E=L_A =1\Big]\\ & = \mathbb{P} \Big[E=A\,, \sum_{j\neq E}L_j= k, L_E=L_A =1\Big]\\ & + \mathbb{P} \Big[E\neq A\,, \sum_{j\neq E}L_j= k, L_E=L_A =1\Big]\\ &= \frac{p}{n+1}\binom{n}{k}p^k(1-p)^{n-k}\\ &+ \frac{np^2}{n+1}\binom{n-1}{k-1}p^{k-1}(1-p)^{(n-1)-(k-1)}\,. \end{aligned}\] Fazendo o quociente entre numerador e denominador, inferimos que \[\begin{aligned} &\mathbb{P}_S(Y|T_k)\\ & = \frac{\frac{p}{n+1}\binom{n}{k}p^k(1-p)^{n-k}}{\frac{p}{n+1}\binom{n}{k}p^k(1-p)^{n-k}+ \frac{np^2}{n+1}\binom{n-1}{k-1}p^{k-1}(1-p)^{n-k}}\\ & = \frac{\binom{n}{k}}{\binom{n}{k}+n\binom{n-1}{k-1}} = \frac{\binom{n}{k}}{\binom{n}{k}+k\binom{n}{k}}=\frac{1}{k+1}\,, \end{aligned}\] como esperávamos (ufa!). Agora que já temos \(\mathbb{P}_S(T_k)\) e \(\mathbb{P}_S(Y|T_k)\), podemos terminar a solução: \[\begin{aligned} \mathbb{P}_S(Y)& =\sum_{k=0}^n \mathbb{P}_S(Y|T_k)\cdot \mathbb{P}_S(T_k)\\ &= \sum_{k=0}^n \frac{1}{k+1}\binom{n}{k}p^k(1-p)^{n-k}\\ &= \sum_{k=0}^n \frac{1}{(k+1)}\frac{n!}{k!(n-k)!}p^k(1-p)^{n-k}\\ &= \sum_{k=0}^n \frac{n!}{(k+1)!(n-k)!}p^k(1-p)^{n-k}\\ & = \frac{1}{p(n+1)}\sum_{k=1}^{n+1}\binom{n+1}{k}p^k(1-p)^{(n+1)-k}\\ & =\frac{1-(1-p)^{n+1}}{p(n+1)}\,. \end{aligned}\]

A Segunda Solução

Vamos usar a parte (b) do Teorema de Bayes para uma segunda solução. Ou seja, vamos “inverter” a probabilidade condicional. Denote por \(Y^\complement\) o complementar de \(Y\), ou seja, \(Y^\complement = \Omega - Y\), que corresponde ao evento Yplison não é o assassino.

Note que \(Y\) e \(Y^\complement\) formam uma partição do espaço amostral. Além disso, \(\mathbb{P}(S|Y)=1\), pois se Yplison é o assassino, o evento no qual ele tem o perfil sanguíneo tem probabilidade um. Por outro lado, se Yplison não é o assassino, a probabilidade condicional de Yplison ter o mesmo perfil sanguíneo do assassino é igual a \(p\). Logo, \(\mathbb{P}(S|Y^\complement)=p\). Daí, aplicando o item (b) do Teorema de Bayes, temos que \[\begin{aligned} \displaystyle \mathbb{P}(Y|S)& =\frac{\mathbb{P}(S|Y)\mathbb{P}(Y)}{\mathbb{P}(S|Y)\mathbb{P}(Y)+ \mathbb{P}(S|Y^\complement)\mathbb{P}(Y^\complement)}\\ & = \frac{1\cdot \frac{1}{n+1}}{1\cdot \frac{1}{n+1}+p\cdot (1-\frac{1}{n+1})}\\ & = \frac{\frac{1}{n+1}}{ \frac{1}{n+1}+p\cdot (\frac{n}{n+1})}\\ &= \frac{1}{1+pn}\,. \end{aligned}\]

Muito mais fácil, né? Mas esta resposta não bate com a primeira solução! Temos um paradoxo, pois as duas parecem corretas. Onde está a falha?

A Terceira Solução

Bem, como as respostas na primeira e segunda soluções não coincidem, pelo menos uma não pode estar correta. Mas qual seria? Antes de encontrar onde está o lapso, vejamos uma terceira solução, bastante simples e precisa, que nos indicará qual das duas soluções anteriores é a correta.

Considere, como antes, \(E\in \{1,\ldots, n+1\}\) a pessoa escolhida aleatoriamente pela polícia de maneira uniforme e \(A\in \{1,\ldots, n+1\}\) o assassino, que também é aleatório e uniforme, e \(L \in \{0,1\}^{n+1}\) a lista aleatória de zeros ou uns que determina o perfil sanguíneo de cada pessoa. Além disso, cada pessoa (ou seja, cada entrada de \(L\)) é independente e tem probabilidade \(p\) de ser igual a \(1\), e \(E\), \(A\) e \(L\) são independentes. Então \[\begin{aligned} \mathbb{P}_S(Y) & \;=\; \mathbb{P} \big[E=A\vert L_A=L_E=1\big]\\ & \;=\; \frac{\mathbb{P} \big[E=A, L_A=L_E=1\big]}{\mathbb{P} \big[L_A=L_E=1\big]}\,. \end{aligned}\] O numerador acima é dado por \[\begin{aligned} \mathbb{P} \big[E=A, L_A=L_E=1\big] = \frac{p}{n+1} \end{aligned}\] e, para calcular o denominador, separamos nos eventos nos quais Yplison é o assassino ou não: \[\begin{aligned} \mathbb{P} \big[L_A=L_E=1\big] & = \mathbb{P} \big[L_A=L_E=1, E=A\big]\\ & + \mathbb{P} \big[L_A=L_E=1, E\neq A\big]\\ & = \frac{p}{n+1}+ \Big(1-\frac{1}{n+1}\Big)p^2 \,. \end{aligned}\] Dividindo os valores obtidos, chegamos em \[\begin{aligned} \mathbb{P}_S(Y) = \frac{\frac{p}{n+1}}{ \frac{p}{n+1}+ \frac{np^2}{n+1}} = \frac{1}{1+pn}\,, \end{aligned}\] que coincide com a segunda solução.

A Correção

Por incrível que pareça, o erro na primeira solução por assim dizer, é mais de interpretação do problema do que de matemática. Isto o torna mais sutil e difícil de ser corrigido. Todos os passos nos cálculos mostrados na primeira solução são válidos.

Como (Meester 2008, página 26) aponta corretamente, a falha na primeira solução tem a ver com a fórmula [formula_binomial] para a probabilidade \(\mathbb{P}_S(T_k)\). Contudo, comete um lapso em sua justificativa (que atire o primeiro livro aquele ou aquela que nunca errou uma demonstração). O autor diz que:

In method (1), we said that the probability that there are \(k\) other people with John Smiths’ profile is given by [formula_binomial]. This seems obvious, but is, in fact, not correct. The fact that the first person to be checked has the particular DNA profile, says something about the total number of individuals with this profile.

Em tradução livre e adaptada:

Na primeira solução, dissemos que a probabilidade de que \(k\) pessoas, dentre aquelas excluindo-se Yplison, tenham o perfil sanguíneo é dado por [formula_binomial]. Isto parece óbvio, mas é, deveras, incorreto. O fato que a primeira pessoa verificada tem o perfil sanguíneo diz algo sobre o total de indivíduos com este perfil.

Ou seja, (Meester 2008) argumenta que Yplison testar positivo altera a distribuição da amostra, em outras palavras, causa um viés, e que a fórmula [formula_binomial] está errada por tal motivo. O seguinte argumento empírico parece fortalecer esta ideia:

Imagine que você tem em mãos um saco de balas, que podem ser de morango ou de menta, de maneira independente com parâmetro \(p\). Se você enfia a mão no saco, e retira um punhado de balas, e todas as balas retiradas são de morango, então seria mais provável que as balas que restaram no saco sejam de morango, certo?

Na vida real, é razoável pensar neste caso que retirar um punhado de balas, todas, de morango, enviesa a amostra. Se são \(100\) balas no saco, e você tirou ao acaso \(98\) balas, todas de morango, vale a pena apostar que as duas últimas também são de morango. Tal situação é muito comum em Estatística1, onde o objetivo seria encontrar (estimar) o parâmetro \(p\), que não é conhecido. E se um punhado de balas causa um viés, uma única bala também causa. Podemos então transpor este argumento para o problema do assassino na ilha, onde esta única bala seria Yplison, que deu positivo.

Mas este não é o caso no problema do ilha, onde \(p\) é dado a priori! Se cada bala possui probabilidade \(p\) e estas são independentes, retirar um punhado de balas, todas de morango, não afeta a distribuição das que restaram, que continuam sendo Bernoulli de parâmetro \(p\). Bem, para \(p=1/2\), digamos, retirar um montão de balas, todas de morango, é bem improvável. Mas caso isso aconteça, isso não afetará a distribuição das balas restantes! Foi precisamente isso que demonstramos ao provar [formula_binomial]. Bem, mostramos no caso de uma bala, mas vale também para um punhado de balas. Em resumo, a nossa prova de [formula_binomial] está correta sim.

Então, qual o problema? Há um viés, de fato, mas não devido a Yplison testar positivo. O viés decorre da existência do assassino, que não foi considerada. Imagine que Yplison, que testou positivo, não é o assassino. Então o assassino está entre as outras \(n\) pessoas, e isso sim causa um viés, porque o assassino tem o tipo sanguíneo encontrado na cena do crime.

Em outras palavras, a fórmula [formula_binomial] foi deduzida corretamente, mas não representa o problema, porque condiciona apenas no evento em que Yplison testa positivo, e não considera a existência do assassino (que é positivo e que pode ou não ser Yplison). Eis a escondida, sutil falha de interpretação do enunciado na primeira solução. O evento em que condicionamos para encontrar \(\mathbb{P}_S(T_k)\) deveria ser \([L_E=1, L_A=1]\) e não \([L_E=1]\). Note que em [tag2] consideramos \([L_E=1, L_A=1]\) no condicionamento, o que levou corretamente a \(\mathbb{P}_S(Y|T_k)=\frac{1}{k+1}\), bem como na terceira solução do problema que apresentamos.

A seguir, recalculemos \(\mathbb{P}_S(T_k)\) para corrigir a primeira solução. Para \(k\in \{0,\ldots, n\}\), \[\begin{aligned} \mathbb{P}_S(T_k) &= \mathbb{P}\Big[\sum_{j\neq E}L_j=k\Big|L_E=L_A= 1\Big]\notag\\ & = \frac{\mathbb{P}\Big[\sum_{j\neq E}L_j=k,L_E=L_A=1\Big]}{\mathbb{P}\big[L_E=L_A= 1\big]}\,.\label{tag3} \end{aligned}\] O denominador em [tag3] é dado por \[\begin{aligned} \mathbb{P}\big[L_E=L_A= 1\big] & = \mathbb{P}\big[L_E=L_A= 1, E=A\big]\\ & + \mathbb{P}\big[L_E=L_A= 1, E\neq A\big]\\ & = \frac{p}{n+1}+\frac{p^2n}{n+1}\\ \end{aligned}\] e o numerador em [tag3] é dado por \[\begin{aligned} &\mathbb{P}\Big[\sum_{j\neq E}L_j=k,L_E=L_A=1, E=A\Big]\\ & +\mathbb{P}\Big[\sum_{j\neq E}L_j=k,L_E=L_A=1, E\neq A\Big]\\ &= \frac{p}{n+1}\binom{n}{k}p^k(1-p)^{n-k}\\ &+\frac{p^2n}{n+1}\binom{n-1}{k-1}p^{k-1}(1-p)^{(n-1)-(k-1)}\,. \end{aligned}\] Fazendo o quociente, obtemos \[\begin{aligned} \mathbb{P}_S(T_k) &= \frac{k+1}{1+pn}\binom{n}{k}p^k(1-p)^{n-k}\,. \end{aligned}\] E, usando esta expressão, podemos corrigir a segunda solução: \[\begin{aligned} \mathbb{P}_S(Y)& =\sum_{k=0}^n \mathbb{P}_S(Y|T_k)\cdot \mathbb{P}_S(T_k)\\ & = \sum_{k=0}^n \frac{1}{k+1}\cdot \frac{k+1}{1+pn}\binom{n}{k}p^k(1-p)^{n-k}\\ &= \frac{1}{1+pn}\,. \end{aligned}\]

O Problema das Crianças

Vejamos um problema de condicionamento famoso, o Problema das Crianças, e tracemos um paralelo com o problema anterior. Vejamos.

Para aquecer, analisemos a seguinte questão. Uma família tem duas crianças. Qual a probabilidade de serem duas meninas?

Embora não tenha sido dito, é comum supor implicitamente indepêndencia e uniformidade em problemas assim. Logo, temos \(1/2 \times 1/2 = 1/4\) como resposta.

Continuando: Uma família tem duas crianças. Dado que há pelo menos uma menina, qual a probabilidade (condicional) de serem duas meninas?

Denote \(\Omega = \{(a,a), (o,o), (a, o) , (a, o)\}\) o espaço amostral, no qual \(a\) representa gênero feminino, \(o\) gênero masculino, a posição no par ordenado indica quem é mais velho, e assumamos que este espaço é equiprovável. Condicionar a saber que há pelo menos uma menina significa condicionar no evento \(B= \{(a,a), (a, o) , (o, a)\}\). Usando a definição de probabilidade condicional, temos que \[\mathbb{P}(\{(a,a)\}|B)=\frac{1/4}{1/4+1/4+1/4}=1/3\,.\]

Vejamos agora o problema das crianças com sua respectiva pseudo-solução: Uma família tem duas crianças e sabe-se que há pelo menos uma menina2. Você toca a campainha e uma menina abre a porta. Como já sabíamos que havia pelo menos uma menina, isto não traz nenhuma informação adicional. Assim, a probabilidade de que sejam duas meninas continua sendo \(1/3\).

Errado, a criança abrir a porta traz informação sim. É uma situação similar ao que fizemos na dedução de [formula_binomial], condicionando na existência de uma pessoa positiva (que aqui corresponde a haver pelo menos uma menina). Inicialmente, cada pessoa era independente com probabilidade \(p\). Aí condicionamos em haver uma pessoa positiva (e o total de pessoas deixa de ter distribuição binomial). Depois testamos uma pessoa, Yplison, que dá positivo (a criança abre a porta e é uma menina). E isto torna a distribuição dos demais novamente binomial com o parâmetro original \(p\).

Vejamos o argumento dado por Meester neste caso, que é bastante simples e ilustrativo. Meester argumenta que o espaço amostral \(\Omega = \{(a,a), (o,o), (a, o) , (a, o)\}\) não é adequado, pois não caracteriza quem abriu a porta.

Como espaço amostral, precisamos aqui de algo como \[\begin{aligned} \overline{\Omega} = \{& (a^*,a), (o^*,o), (a^*, o) , (o^*, a)\\ & (a,a^*), (o,o^*), (a, o^*) , (o, a^*)\}\,, \end{aligned}\] onde o asterisco indica quem abre a porta. Por exemplo, o evento \(\{(o, a^*)\}\) representa a primeira criança ser um menino, e a segunda criança ser menina e ter aberto a porta. Considere este espaço amostral com uma probabilidade equiprovável. Assim, o problema acima corresponde a descobrir a probabilidade de \(\{(a^*, a), (a, a^*)\}\) condicionado ao evento \[\{ (a^*, o), (o, a^*), (a^*, a) , (a, a^*)\}\] que é igual a \(1/2\), não a \(1/3\)! Para encerrar, note que o Problema das Crianças não é o mesmo que o Problema da Ilha, pois não tem o viés da presença do assassino, que pode não ser Yplison.

Conclusão

Paradoxos são ferramentas pedagógicas poderosas. Nada como um paradoxo para testar (nossos próprios) conhecimentos e profundidade de compreensão. Como disse o físicoNiels Bohr certa vez, “Encontramos um paradoxo! Agora poderemos avançar!”.

Agradecimentos

Gostaríamos de agradecer a Milton Jara (IMPA) e a Renato dos Santos (UFMG) por discussões que contribuíram muito e também ao estudante Henrique Caldas que reportou um pequeno lapso em (Franco 2020), relacionado ao presente artigo.

image

Tertuliano Franco é bacharel em Física pela UFBA, e mestre e doutor em Matemática pelo IMPA (2011). É professor do Departamento de Matemática do IME-UFBA desde 2012, com passagens diversas em universidades no exterior. Faz pesquisa em Probabilidade, especialmente a respeito de limites de escala de sistemas de partículas interagentes e suas conexões com Equações Diferenciais Parciais e Mecânica Estatística. Já orientou diversos alunos e alunas de iniciação científica, mestrado, doutorado e pós-doutorado, e é autor de um livro para a graduação em Matemática, “Princípios de Combinatória e Probabilidade”, publicado pela Coleção Matemática Universitária (IMPA) em 2020. É apaixonado pelo que faz, e também toca um pouco de gaita de boca. Seus vizinhos até hoje não reclamaram do barulho de sua gaita, de onde ele deduz estar agradando bastante, e segue tocando.

image

Diogo S. Dórea da Silva é nascido e criado em Feira de Santana, e sofre pelo Fluminense de Feira desde tempos imemoriais. Cursou o bacharelado, mestrado e doutorado em Matemática pela UFBA, tendo sido orientado (ou desorientado, segundo o outro autor deste artigo) em todas as ocasiões pelo Professor Tertuliano Franco. Desde 2018, leciona no IFBA, Campus Valença. É um excelente professor e também exímio imitador de Ariano Suassuna (e de colegas também!).

Bibliografia

Franco, T. 2020. Princípios de Combinatória e Probabilidade. 1ª ed. IMPA, Coleção Matemática Universitária.
Meester, R. 2008. A Natural Introduction to Probability Theory. 2ª ed. Birkhäuser Verlag, Basel.
Oakley, Ann. 2017. “Sexo e Gênero.” Revista Feminismos 4 (1).

  1. Em Estatística, o objetivo grosso modo é estimar a distribuição de probabilidade, que é desconhecida ou, ao menos, apenas parcialmente conhecida.↩︎

  2. Mantivemos o enunciado original do problema por uma questão histórica. É importante ressaltar que questões de gênero são muito mais complexas e profundas do que simplesmente feminino/masculino. Veja a excelente referência (Oakley 2017) sobre o assunto, por exemplo.↩︎