Na teoria da credibilidade , um ramo de estudo da ciência atuarial , o modelo de Bühlmann é um modelo de efeitos aleatórios (ou "modelo de componentes de variância" ou modelo linear hierárquico ) usado para determinar o prêmio apropriado para um grupo de contratos de seguro. O modelo tem o nome de Hans Bühlmann, que publicou uma descrição pela primeira vez em 1967.
Descrição do modelo
Considere i riscos que geram perdas aleatórias para os quais dados históricos de m sinistros recentes estão disponíveis (indexados por j ). Um prêmio pelo i ésimo risco deve ser determinado com base no valor esperado dos sinistros. Um estimador linear que minimiza o erro quadrático médio é procurado. Escreva
X ij para a j -ésima reivindicação sobre o i- ésimo risco (assumimos que todas as reivindicações para i- ésimo risco são independentes e distribuídas de forma idêntica )
X
¯
Eu
=
1
m
∑
j
=
1
m
X
Eu
j
{\ displaystyle \ scriptstyle {\ bar {X}} _ {i} = {\ frac {1} {m}} \ sum _ {j = 1} ^ {m} X_ {ij}}
para o valor médio.
Θ
Eu
{\ displaystyle \ Theta _ {i}}
- o parâmetro para a distribuição do i-ésimo risco
m
(
ϑ
)
=
E
[
X
Eu
j
|
Θ
Eu
=
ϑ
]
{\ displaystyle m (\ vartheta) = \ operatorname {E} \ left [X_ {ij} | \ Theta _ {i} = \ vartheta \ right]}
Π
=
E
(
m
(
ϑ
)
|
X
Eu
1
,
X
Eu
2
,
.
.
.
X
Eu
m
)
{\ displaystyle \ Pi = \ operatorname {E} (m (\ vartheta) | X_ {i1}, X_ {i2}, ... X_ {im})}
- prêmio pelo i-ésimo risco
µ
=
E
(
m
(
ϑ
)
)
{\ displaystyle \ mu = \ operatorname {E} (m (\ vartheta))}
s
2
(
ϑ
)
=
Var
[
X
Eu
j
|
Θ
Eu
=
ϑ
]
{\ displaystyle s ^ {2} (\ vartheta) = \ operatorname {Var} \ left [X_ {ij} | \ Theta _ {i} = \ vartheta \ right]}
σ
2
=
E
[
s
2
(
ϑ
)
]
{\ displaystyle \ sigma ^ {2} = \ operatorname {E} \ left [s ^ {2} (\ vartheta) \ right]}
v
2
=
Var
[
m
(
ϑ
)
]
{\ displaystyle v ^ {2} = \ operatorname {Var} \ left [m (\ vartheta) \ right]}
Nota: e são funções de parâmetro aleatório
m
(
ϑ
)
{\ displaystyle m (\ vartheta)}
s
2
(
ϑ
)
{\ displaystyle s ^ {2} (\ vartheta)}
ϑ
{\ displaystyle \ vartheta}
O modelo Bühlmann é a solução para o problema:
uma
r
g
m
Eu
n
uma
Eu
0
,
uma
Eu
1
,
.
.
.
,
uma
Eu
m
E
[
(
uma
Eu
0
+
∑
j
=
1
m
uma
Eu
j
X
Eu
j
-
Π
)
2
]
{\ displaystyle {\ underset {a_ {i0}, a_ {i1}, ..., a_ {im}} {\ operatorname {arg \, min}}} \ operatorname {E} \ left [\ left (a_ { i0} + \ sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} - \ Pi \ direita) ^ {2} \ direita]}
onde é o estimador de premium e arg min representa os valores dos parâmetros que minimizam a expressão.
uma
Eu
0
+
∑
j
=
1
m
uma
Eu
j
X
Eu
j
{\ displaystyle a_ {i0} + \ sum _ {j = 1} ^ {m} a_ {ij} X_ {ij}}
Π
{\ displaystyle \ Pi}
Solução modelo
A solução para o problema é:
Z
X
¯
Eu
+
(
1
-
Z
)
µ
{\ displaystyle Z {\ bar {X}} _ {i} + (1-Z) \ mu}
Onde:
Z
=
1
1
+
σ
2
v
2
m
{\ displaystyle Z = {\ frac {1} {1 + {\ frac {\ sigma ^ {2}} {v ^ {2} m}}}}}
Podemos dar a este resultado a interpretação de que a parte Z do prêmio é baseada nas informações que temos sobre o risco específico e a parte (1-Z) é baseada nas informações que temos sobre toda a população.
Prova
A prova a seguir é ligeiramente diferente da do papel original. É também mais geral, porque considera todos os estimadores lineares, enquanto a prova original considera apenas os estimadores baseados na afirmação média.
Lema. O problema pode ser declarado alternativamente como:
f
=
E
[
(
uma
Eu
0
+
∑
j
=
1
m
uma
Eu
j
X
Eu
j
-
m
(
ϑ
)
)
2
]
→
min
{\ displaystyle f = \ mathbb {E} \ left [\ left (a_ {i0} + \ sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} -m (\ vartheta) \ right) ^ {2} \ right] \ to \ min}
Prova:
E
[
(
uma
Eu
0
+
∑
j
=
1
m
uma
Eu
j
X
Eu
j
-
m
(
ϑ
)
)
2
]
=
E
[
(
uma
Eu
0
+
∑
j
=
1
m
uma
Eu
j
X
Eu
j
-
Π
)
2
]
+
E
[
(
m
(
ϑ
)
-
Π
)
2
]
+
2
E
[
(
uma
Eu
0
+
∑
j
=
1
m
uma
Eu
j
X
Eu
j
-
Π
)
(
m
(
ϑ
)
-
Π
)
]
=
E
[
(
uma
Eu
0
+
∑
j
=
1
m
uma
Eu
j
X
Eu
j
-
Π
)
2
]
+
E
[
(
m
(
ϑ
)
-
Π
)
2
]
{\ displaystyle {\ begin {alinhados} \ mathbb {E} \ left [\ left (a_ {i0} + \ sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} -m (\ vartheta ) \ right) ^ {2} \ right] & = \ mathbb {E} \ left [\ left (a_ {i0} + \ sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} - \ Pi \ direita) ^ {2} \ direita] + \ mathbb {E} \ esquerda [\ esquerda (m (\ vartheta) - \ Pi \ direita) ^ {2} \ direita] +2 \ mathbb {E} \ esquerda [\ esquerda (a_ {i0} + \ sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} - \ Pi \ direita) \ esquerda (m (\ vartheta) - \ Pi \ direita) \ right] \\ & = \ mathbb {E} \ left [\ left (a_ {i0} + \ sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} - \ Pi \ right) ^ {2} \ right] + \ mathbb {E} \ left [\ left (m (\ vartheta) - \ Pi \ right) ^ {2} \ right] \ end {alinhado}}}
A última equação segue do fato de que
E
[
(
uma
Eu
0
+
∑
j
=
1
m
uma
Eu
j
X
Eu
j
-
Π
)
(
m
(
ϑ
)
-
Π
)
]
=
E
Θ
[
E
X
[
(
uma
Eu
0
+
∑
j
=
1
m
uma
Eu
j
X
Eu
j
-
Π
)
(
m
(
ϑ
)
-
Π
)
|
X
Eu
1
,
…
,
X
Eu
m
]
]
=
E
Θ
[
(
uma
Eu
0
+
∑
j
=
1
m
uma
Eu
j
X
Eu
j
-
Π
)
[
E
X
[
(
m
(
ϑ
)
-
Π
)
|
X
Eu
1
,
…
,
X
Eu
m
]
]
]
=
0
{\ displaystyle {\ begin {alinhados} \ mathbb {E} \ left [\ left (a_ {i0} + \ sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} - \ Pi \ right ) \ left (m (\ vartheta) - \ Pi \ right) \ right] & = \ mathbb {E} _ {\ Theta} \ left [\ mathbb {E} _ {X} \ left. \ left [\ left (a_ {i0} + \ sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} - \ Pi \ direita) (m (\ vartheta) - \ Pi) \ direita | X_ {i1}, \ ldots, X_ {im} \ right] \ right] \\ & = \ mathbb {E} _ {\ Theta} \ left [\ left (a_ {i0} + \ sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} - \ Pi \ right) \ left [\ mathbb {E} _ {X} \ left [(m (\ vartheta) - \ Pi) | X_ {i1}, \ ldots, X_ { im} \ right] \ right] \ right] \\ & = 0 \ end {alinhado}}}
Estamos usando aqui a lei da expectativa total e o fato de que
Π
=
E
[
m
(
ϑ
)
|
X
Eu
1
,
…
,
X
Eu
m
]
.
{\ displaystyle \ Pi = \ mathbb {E} [m (\ vartheta) | X_ {i1}, \ ldots, X_ {im}].}
Em nossa equação anterior, decompomos a função minimizada na soma de duas expressões. A segunda expressão não depende dos parâmetros usados na minimização. Portanto, minimizar a função é o mesmo que minimizar a primeira parte da soma.
Vamos encontrar pontos críticos da função
1
2
∂
f
∂
uma
01
=
E
[
uma
Eu
0
+
∑
j
=
1
m
uma
Eu
j
X
Eu
j
-
m
(
ϑ
)
]
=
uma
Eu
0
+
∑
j
=
1
m
uma
Eu
j
E
(
X
Eu
j
)
-
E
(
m
(
ϑ
)
)
=
uma
Eu
0
+
(
∑
j
=
1
m
uma
Eu
j
-
1
)
µ
{\ displaystyle {\ frac {1} {2}} {\ frac {\ partial f} {\ partial a_ {01}}} = \ mathbb {E} \ left [a_ {i0} + \ sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} -m (\ vartheta) \ right] = a_ {i0} + \ sum _ {j = 1} ^ {m} a_ {ij} \ mathbb {E} (X_ {ij}) - \ mathbb {E} (m (\ vartheta)) = a_ {i0} + \ esquerda (\ sum _ {j = 1} ^ {m} a_ {ij} -1 \ direita) \ mu}
uma
Eu
0
=
(
1
-
∑
j
=
1
m
uma
Eu
j
)
µ
{\ displaystyle a_ {i0} = \ left (1- \ sum _ {j = 1} ^ {m} a_ {ij} \ right) \ mu}
Pois temos:
k
≠
0
{\ displaystyle k \ neq 0}
1
2
∂
f
∂
uma
Eu
k
=
E
[
X
Eu
k
(
uma
Eu
0
+
∑
j
=
1
m
uma
Eu
j
X
Eu
j
-
m
(
ϑ
)
)
]
=
E
[
X
Eu
k
]
uma
Eu
0
+
∑
j
=
1
,
j
≠
k
m
uma
Eu
j
E
[
X
Eu
k
X
Eu
j
]
+
uma
Eu
k
E
[
X
Eu
k
2
]
-
E
[
X
Eu
k
m
(
ϑ
)
]
=
0
{\ displaystyle {\ frac {1} {2}} {\ frac {\ partial f} {\ partial a_ {ik}}} = \ mathbb {E} \ left [X_ {ik} \ left (a_ {i0} + \ sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} -m (\ vartheta) \ direita) \ direita] = \ mathbb {E} \ esquerda [X_ {ik} \ direita] a_ {i0} + \ sum _ {j = 1, j \ neq k} ^ {m} a_ {ij} \ mathbb {E} [X_ {ik} X_ {ij}] + a_ {ik} \ mathbb {E} [X_ {ik} ^ {2}] - \ mathbb {E} [X_ {ik} m (\ vartheta)] = 0}
Podemos simplificar a derivada, observando que:
E
[
X
Eu
j
X
Eu
k
]
=
E
[
E
[
X
Eu
j
X
Eu
k
|
ϑ
]
]
=
E
[
cov
(
X
Eu
j
X
Eu
k
|
ϑ
)
+
E
(
X
Eu
j
|
ϑ
)
E
(
X
Eu
k
|
ϑ
)
]
=
E
[
(
m
(
ϑ
)
)
2
]
=
v
2
+
µ
2
E
[
X
Eu
k
2
]
=
E
[
E
[
X
Eu
k
2
|
ϑ
]
]
=
E
[
s
2
(
ϑ
)
+
(
m
(
ϑ
)
)
2
]
=
σ
2
+
v
2
+
µ
2
E
[
X
Eu
k
m
(
ϑ
)
]
=
E
[
E
[
X
Eu
k
m
(
ϑ
)
|
Θ
Eu
]
=
E
[
(
m
(
ϑ
)
)
2
]
=
v
2
+
µ
2
{\ displaystyle {\ begin {alinhados} \ mathbb {E} [X_ {ij} X_ {ik}] & = \ mathbb {E} \ left [\ mathbb {E} [X_ {ij} X_ {ik} | \ vartheta] \ right] = \ mathbb {E} [{\ text {cov}} (X_ {ij} X_ {ik} | \ vartheta) + \ mathbb {E} (X_ {ij} | \ vartheta) \ mathbb { E} (X_ {ik} | \ vartheta)] = \ mathbb {E} [(m (\ vartheta)) ^ {2}] = v ^ {2} + \ mu ^ {2} \\\ mathbb {E } [X_ {ik} ^ {2}] & = \ mathbb {E} \ left [\ mathbb {E} [X_ {ik} ^ {2} | \ vartheta] \ right] = \ mathbb {E} [s ^ {2} (\ vartheta) + (m (\ vartheta)) ^ {2}] = \ sigma ^ {2} + v ^ {2} + \ mu ^ {2} \\\ mathbb {E} [X_ {ik} m (\ vartheta)] & = \ mathbb {E} [\ mathbb {E} [X_ {ik} m (\ vartheta) | \ Theta _ {i}] = \ mathbb {E} [(m ( \ vartheta)) ^ {2}] = v ^ {2} + \ mu ^ {2} \ end {alinhado}}}
Tomando as equações acima e inserindo na derivada, temos:
1
2
∂
f
∂
uma
Eu
k
=
(
1
-
∑
j
=
1
m
uma
Eu
j
)
µ
2
+
∑
j
=
1
,
j
≠
k
m
uma
Eu
j
(
v
2
+
µ
2
)
+
uma
Eu
k
(
σ
2
+
v
2
+
µ
2
)
-
(
v
2
+
µ
2
)
=
uma
Eu
k
σ
2
-
(
1
-
∑
j
=
1
m
uma
Eu
j
)
v
2
=
0
{\ displaystyle {\ frac {1} {2}} {\ frac {\ partial f} {\ partial a_ {ik}}} = \ left (1- \ sum _ {j = 1} ^ {m} a_ { ij} \ right) \ mu ^ {2} + \ sum _ {j = 1, j \ neq k} ^ {m} a_ {ij} (v ^ {2} + \ mu ^ {2}) + a_ { ik} (\ sigma ^ {2} + v ^ {2} + \ mu ^ {2}) - (v ^ {2} + \ mu ^ {2}) = a_ {ik} \ sigma ^ {2} - \ left (1- \ sum _ {j = 1} ^ {m} a_ {ij} \ right) v ^ {2} = 0}
σ
2
uma
Eu
k
=
v
2
(
1
-
∑
j
=
1
m
uma
Eu
j
)
{\ displaystyle \ sigma ^ {2} a_ {ik} = v ^ {2} \ left (1- \ sum _ {j = 1} ^ {m} a_ {ij} \ right)}
O lado direito não depende de k . Portanto, todos são constantes
uma
Eu
k
{\ displaystyle a_ {ik}}
uma
Eu
1
=
⋯
=
uma
Eu
m
=
v
2
σ
2
+
m
v
2
{\ displaystyle a_ {i1} = \ cdots = a_ {im} = {\ frac {v ^ {2}} {\ sigma ^ {2} + mv ^ {2}}}}
Da solução para nós temos
uma
Eu
0
{\ displaystyle a_ {i0}}
uma
Eu
0
=
(
1
-
m
uma
Eu
k
)
µ
=
(
1
-
m
v
2
σ
2
+
m
v
2
)
µ
{\ displaystyle a_ {i0} = (1-ma_ {ik}) \ mu = \ left (1 - {\ frac {mv ^ {2}} {\ sigma ^ {2} + mv ^ {2}}} \ direita) \ mu}
Finalmente, o melhor estimador é
uma
Eu
0
+
∑
j
=
1
m
uma
Eu
j
X
Eu
j
=
m
v
2
σ
2
+
m
v
2
X
Eu
¯
+
(
1
-
m
v
2
σ
2
+
m
v
2
)
µ
=
Z
X
Eu
¯
+
(
1
-
Z
)
µ
{\ displaystyle a_ {i0} + \ sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} = {\ frac {mv ^ {2}} {\ sigma ^ {2} + mv ^ { 2}}} {\ bar {X_ {i}}} + \ left (1 - {\ frac {mv ^ {2}} {\ sigma ^ {2} + mv ^ {2}}} \ right) \ mu = Z {\ bar {X_ {i}}} + (1-Z) \ mu}
Referências
Citações
Fontes
<img src="https://en.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">