Рубрики
Без рубрики

Оценка долгосрочной вероятности дефолта (LRPD) с помощью усеченных нормальных допущений

Хотите оценить долгосрочную вероятность дефолта (LRPD), но у вас недостаточно данных и/или нет серьезных спадов в ваших данных? В этом посте подробно описывается новый метод оценки LRPD в таких обстоятельствах с помощью усеченной нормали

Автор оригинала: ZJ.

В рамках Базельского соглашения II/III о капитале для продвинутых банков (A-IRB) мы используем так называемую “базельскую формулу” для расчета минимальных требований к капиталу. Формула основана на асимптотической модели единого фактора риска (ASRF). Долгосрочная вероятность дефолта (LRPD) является ключевым компонентом при расчете минимальных требований к капиталу. Это сообщение в блоге направлено на то, чтобы представить упрощенный вывод компонента формулы PD и представить новую методику оценки долгосрочной вероятности дефолта (LRPD) с помощью усеченных нормальных допущений.

У нас есть Z , |/ϵ |/∼ |/N ( 0 , 1 ) Z, \epsilon \sim \mathcal{N}(0,\,1) Z , ϵ |/∼ N ( 0 , 1 ) где Z Z Z – макроэкономический фактор и ϵ \epsilon ϵ – индивидуальный фактор для каждого сегмента PD.

P D = Пиар ( γ Z + 1 − γ ϵ < B ) PD = \Pr\left( \sqrt{\gamma}Z +\sqrt{1 – \gamma}\epsilon < B\right) P D = Пиар ( √ ​ γ ​ ​ ​ Z + √ ​ 1 − γ ​ ​ ​ ϵ < B )

для некоторого барьера B B B|/. Переставив значения внутри Pr \Pr Pr , мы получим

P D = Пиар ( ϵ < B − γ Z 1 − γ ) PD = \Pr\left(\epsilon < \frac{B – \sqrt{\gamma}Z}{\sqrt{1 – \gamma}}\right) P D = Пиар ( ϵ < ​ √ ​ 1 − γ ​ ​ ​ ​ ​ B − √ ​ γ ​ ​ ​ Z ​ ​ )

напомним, что ϵ N ( 0 , 1 ) \epsilon \sim \mathcal{N}(0,\,1) ϵ N ( 0 , 1 ) таким образом, RHS можно записать в терминах CDF N ( 0 , 1 ) \mathcal{N}(0,\,1) N ( 0 , 1 ) , который является Φ \Phi Φ , давая

P D = Φ ( B − γ Z 1 − γ ) PD = \Phi\left(\frac{B – \sqrt{\gamma}Z}{\sqrt{1 – \gamma}}\right) P D = Φ ( ​ √ ​ 1 − γ ​ ​ ​ ​ ​ B − √ ​ γ ​ ​ ​ Z ​ ​ )

Мы можем приблизить P D PD P D как наблюдаемую норму по умолчанию ( O D R ) \влево(ИЛИ\вправо) ( O D R|/) , что приведет к

O D R ≈ P D = Φ ( B − γ Z 1 − γ ) ИЛИ \approx PD = \Phi\left(\frac{B – \sqrt{\gamma}Z}{\sqrt{1 – \gamma}}\right) O D R ≈ P D = Φ ( ​ √ ​ 1 − γ ​ ​ ​ ​ ​ B − √ ​ γ ​ ​ ​ Z ​ ​ )

мы также признаем, что часть внутри Φ \Phi Φ является нормальной, потому что это линейное преобразование нормальной переменной. Пусть B γ Z 1 γ N ( μ , σ 2 ) \frac{B – \sqrt{\gamma}Z}{\sqrt{1 – \gamma}}\sim \mathcal{N}(\mu,\sigma^2) 1 γ B γ |/Z /∼ |/N ( μ , σ 2 ) таким образом , мы можем сделать подстановки переменных и переписать их, используя μ \mu μ и σ \sigma σ , что дает

O D R ≈ P D = Φ ( μ − σ Z ) ODR \approx PD = \Phi\left(\mu – \sigma Z\right) O D R ≈ P D = Φ ( μ − σ Z )

У нас есть разные Z t Z_t Z t | для каждого момента времени, t t t , поэтому добавьте в индекс t t t

O D R t ≈ Φ ( μ − σ Z t ) ODR_t \approx \Phi\left(\mu – \sigma Z_t\right) O D R ​ t ​ ​ ≈ Φ ( μ − σ Z ​ t ​ ​ )

и Φ \Phi Φ обратимо, поэтому примените Φ 1 \Phi^{-1} Φ 1 с обеих сторон

Φ − 1 ( O D R t ) ≈ μ − σ Z t \\Phi^{-1}\left(OVER_t\right) \approx \mu – \sigma Z_t Φ ​ − 1 ​ ​ ( O D R ​ t ​ ​ ) ≈ μ − σ Z ​ t ​ ​

таким образом, если базельская формула близка к описанию реальности (а не просто математическому удобству), то из вышеизложенного следует, что Φ 1 ( O D R t ) \Phi^{-1}\left(ODR_t\right) Φ 1 ( O D R |/t ) (который легко вычислить) нормально распределенt \forall \,t t . Следовательно, чтобы разработать LRPD, вам просто нужно оценить μ \mu μ и σ \sigma σ (для нормального распределения это легко сделать) и выполнить следующий интеграл (поверьте мне, это также легко сделать, поскольку у него есть аналитическое решение). Пусть ϕ ( Z ) \phi(Z) ϕ ( Z ) будет функцией плотности вероятности (pdf) Z Z Z

L R P D ^ = E ( Φ ( μ ^ − σ ^ Z ) ) = ∫ − ∞ ∞ Φ ( μ ^ − σ ^ Z ) ϕ ( Z ) d Z \\the{LRPD} = \mathbb{E}\left(\Psi\left(\hat{\mu}-\hat{\sigma} Z\right)\right) = \int^\infty_{-\infty} \Psi\left(\hat{\mu}-\hat{\sigma} Z\right)\phi(Z)dZ ​ L R P D ​ ^ ​ ​ = E ( Φ ( ​ μ ​ ^ ​ ​ − ​ σ ​ ^ ​ ​ Z ) ) = ∫ ​ − ∞ ​ ∞ ​ ​ Φ ( ​ μ ​ ^ ​ ​ − ​ σ ​ ^ ​ ​ Z ) ϕ ( Z ) d Z

что дает (вы должны доверять моей математике в этом)

L R P D ^ = Φ ( μ ^ 1 + σ ^ 2 ) \hat{LRPD} = \Phi\left(\frac{\hat{\mu}}{\sqrt{1+\hat{\sigma}^2}}\right) ​ L R P D ​ ^ ​ ​ = Φ ( ​ √ ​ 1 + ​ σ ​ ^ ​ ​ ​ 2 ​ ​ ​ ​ ​ ​ ​ ​ μ ​ ^ ​ ​ ​ ​ )

написав вышеизложенное в той же форме, что и базельская формулировка, мы получим

L R P D ^ = ∫ − ∞ ∞ Φ ( B − γ Z 1 − γ ) ϕ ( Z ) d Z \hat{LRPD} = \int^\infty_{-\infty} \Phi\left(\frac{B – \sqrt{\gamma}Z}{\sqrt{1 – \gamma}}\right)\phi(Z)dZ ​ L R P D ​ ^ ​ ​ = ∫ ​ − ∞ ​ ∞ ​ ​ Φ ( ​ √ ​ 1 − γ ​ ​ ​ ​ ​ B − √ ​ γ ​ ​ ​ Z ​ ​ ) ϕ ( Z ) d Z

что дает

L R P D ^ = Φ ( B ^ ) \hat{LRPD} = \Phi\left(\hat{B}\right) ​ L R P D ​ ^ ​ ​ = Φ ( ​ B ​ ^ ​ ​ )

Мы начали с

P D = Φ ( B − γ Z 1 − γ ) PD = \Phi\left(\frac{B – \sqrt{\gamma}Z}{\sqrt{1 – \gamma}}\right) P D = Φ ( ​ √ ​ 1 − γ ​ ​ ​ ​ ​ B − √ ​ γ ​ ​ ​ Z ​ ​ )

и, как мы видели выше, Φ 1 ( L R P D ^ ) = B ^ \Phi^{-1}\left(\hat{LRPD}\right) = \hat{B} Φ 1 ( L R P D ^ ) = B ^ , таким образом, подставляя это, мы получаем

P D = Φ ( Φ − 1 ( L R P D ^ ) − γ Z 1 − γ ) PD = \Phi\left(\frac{\Phi^{-1}\left(\hat{LRPD}\right) – \sqrt{\gamma}Z}{\sqrt{1 – \gamma}}\right) P D = Φ ​ ⎝ ​ ⎛ ​ ​ ​ √ ​ 1 − γ ​ ​ ​ ​ ​ Φ ​ − 1 ​ ​ ( ​ L R P D ​ ^ ​ ​ ) − √ ​ γ ​ ​ ​ Z ​ ​ ​ ⎠ ​ ⎞ ​ ​

а если я хочу, чтобы значение риска (VAR) составляло 99,9%? Один из способов-сначала вычислить PD плитки 99,9%, P D 0 . 9 9 9 PD_{0.999} P D 0 . 9 9 9 . Чтобы сделать это, просто замените Z Z Z на плитку Z Z на 99,9%, которая является Φ 1 ( 0 . 9 9 9 ) \Phi^{-1}\left(0.999\right) Φ 1 ( 0 . 9 9 9 ) , у нас есть

P D 0 . 9 9 9 = Φ ( Φ − 1 ( L R P D ^ ) − γ Φ − 1 ( 0 . 9 9 9 ) 1 − γ ) PD_{0.999} = \Phi\left(\frac{\Phi^{-1}\left(\hat{LRPD}\right) – \sqrt{\gamma}\Phi^{-1}\left(0.999\right)}{\sqrt{1 – \gamma}}\right) P D ​ 0 . 9 9 9 ​ ​ = Φ ​ ⎝ ​ ⎛ ​ ​ ​ √ ​ 1 − γ ​ ​ ​ ​ ​ Φ ​ − 1 ​ ​ ( ​ L R P D ​ ^ ​ ​ ) − √ ​ γ ​ ​ ​ Φ ​ − 1 ​ ​ ( 0 . 9 9 9 ) ​ ​ ​ ⎠ ​ ⎞ ​ ​

или эквивалентно

P D 0 . 9 9 9 = Φ ( Φ − 1 ( L R P D ^ ) 1 − γ − γ Φ − 1 ( 0 . 9 9 9 ) 1 − γ ) PD_{0.999} = \Phi\left(\frac{\Phi^{-1}\left(\hat{LRPD}\right)}{\sqrt{1 – \gamma}} – \frac{\sqrt{\gamma}\Phi^{-1}\left(0.999\right)}{\sqrt{1 – \gamma}}\right) P D ​ 0 . 9 9 9 ​ ​ = Φ ​ ⎝ ​ ⎛ ​ ​ ​ √ ​ 1 − γ ​ ​ ​ ​ ​ Φ ​ − 1 ​ ​ ( ​ L R P D ​ ^ ​ ​ ) ​ ​ − ​ √ ​ 1 − γ ​ ​ ​ ​ ​ √ ​ γ ​ ​ ​ Φ ​ − 1 ​ ​ ( 0 . 9 9 9 ) ​ ​ ​ ⎠ ​ ⎞ ​ ​

что является “компонентом непредвиденных потерь” в формуле базельского капитала.

Возвращаясь к основной теме, мы показали, что LRPD может быть выражен просто с помощью

  • среднее значение, μ \mu μ , и
  • стандартное отклонение, σ \sigma σ , из
  • Φ 1 ( O D R t ) \Phi^{-1}\left(ODR_t\right) Φ 1 ( O D R |/t ) ‘s

по нашей интерпретации базельской формулировки ПД:

L R P D ^ = Φ ( μ ^ 1 + σ ^ 2 ) \hat{LRPD} = \Phi\left(\frac{\hat{\mu}}{\sqrt{1+\hat{\sigma}^2}}\right) ​ L R P D ​ ^ ​ ​ = Φ ( ​ √ ​ 1 + ​ σ ​ ^ ​ ​ ​ 2 ​ ​ ​ ​ ​ ​ ​ ​ μ ​ ^ ​ ​ ​ ​ )

Однако в австралийском контексте большинство (если не все) банков и финансовых учреждений не имеют данных о тяжелой рецессии ( мы должны были иметь ) с начала 90-х годов. Поэтому мы не можем просто взять прямое среднее значение, поскольку это может быть предвзятой оценкой.

В этом посте в блоге мы обсуждаем один из способов преодолеть предвзятость, который заключается в предположении, что Z Z Z исходит из усеченной нормали. В принципе, мы предполагаем, что доля Z Z Z , которая может привести к высоким PDs, недоступна для выборки. Ниже приведен график pdf усеченного нормального распределения.

В этом посте в блоге мы обсуждаем один из способов преодолеть предвзятость, который заключается в предположении, что || Z || Z || Z || исходит из усеченной нормали. В принципе, мы предполагаем, что доля || Z || Z || Z||, которая может привести к высоким PDs, недоступна для выборки. Ниже приведен график pdf усеченного нормального распределения.

Если мы предположим, что Z Z Z находится от усеченной нормали, то необходимо оценить точки усечения. Можно использовать MLE для оценки точек усечения. Для этого мы пишем вероятность, L L L , для наблюдения за данными, как показано ниже

L = ∏ t ϕ ( Φ − 1 ( O D R t ) , μ , σ 2 ) Φ ( u , μ , σ 2 ) − Φ ( l , μ , σ 2 ) L = \frac{\prod_t\phi(\Phi^{-1}\left(ODR_t\right), \mu, \sigma^2)}{\Phi(u,\mu,\sigma^2) – \Phi(l,\mu,\sigma^2)} L = ​ Φ ( u , μ , σ ​ 2 ​ ​ ) − Φ ( l , μ , σ ​ 2 ​ ​ ) ​ ​ ∏ ​ t ​ ​ ϕ ( Φ ​ − 1 ​ ​ ( O D R ​ t ​ ​ ) , μ , σ ​ 2 ​ ​ ) ​ ​

где u u u и l l l являются верхней и нижней точкой усечения. В моделировании капитала консервативные предположения хороши, поэтому мы можем предположить, что Z Z Z отбирается из распределения, где некоторые из худших Z Z Z усекаются (напомним, что более низкий Z Z Z означает более высокий PD), но все лучшие Z Z Z могут быть отобраны. Этого консерватизма можно достичь, установив u = u = -\infty u = , уступчивость

L = ∏ t ϕ ( Φ − 1 ( O D R t ) , μ , σ 2 ) Φ ( u , μ , σ 2 ) L = \frac{\prod_t\phi(\Phi^{-1}\left(ODR_t\right), \mu, \sigma^2)}{ \Phi(u,\mu,\sigma^2)} L = ​ Φ ( u , μ , σ ​ 2 ​ ​ ) ​ ​ ∏ ​ t ​ ​ ϕ ( Φ ​ − 1 ​ ​ ( O D R ​ t ​ ​ ) , μ , σ ​ 2 ​ ​ ) ​ ​

L = \frac{\prod_t\phi(\Phi^{-1}\left(ODR_t\right), \mu, \sigma^2)}{ \Phi(u,\mu,\sigma^2)}

это можно доказать (определенно ВЕРНО!!! но не интуитивно для многих), что

u M L E ^ = максимум t Φ − 1 ( O D R t ) \\hat{u_{ML}} = \max_t \Phi^{-1}\left(OVER_t\right) ​ u ​ M L E ​ ​ ​ ^ ​ ​ = ​ t ​ максимум ​ ​ Φ ​ − 1 ​ ​ ( O D R ​ t ​ ​ )

Я представил набросок доказательства в более позднем разделе.

Постановка задачи: MLE усеченных нормальных параметров

Формулировка задачи такова: задано Q 1 , Q 2 , . . . , Q n ∼ |/i i |/d N ( μ , σ 2 , , u ) Q_1,\, Q_2,\, …,\, Q_n \sim^{iid} \mathcal{N}(\mu,\,\sigma^2,\,-\infty,\, u) Q 1 , Q 2 , . . . , Q |/n i i d //N ( μ , σ 2 , , u ) где N ( μ , σ 2 , , u ) \mathcal{N}(\mu,\,\sigma^2,\, -\infty,\, u) N ( μ , σ 2 , , u ) – усеченная нормаль с верхней точкой усечения u u u . Каковы оценки максимального правдоподобия (MLE) параметров μ , σ , |/u \mu,\,\sigma,\,u μ , σ , |/u|/?

Формулировка задачи такова: задано || Q|| 1 || , || Q|| 2 || , || . || . || . || , || Q || n || ∼ |/i || i |/d || N || ( || μ || , || σ|| 2 || , || − || ∞ || , || u || ) || Q_1,\, Q_2,\, ...,\, Q_n \sim^{iid} \mathcal{N}(\mu,\,\sigma^2,\,-\infty,\, u) || Q|||| 1 |||||| , || Q|||| 2 |||||| , || . || . || . || , || Q || |/n|||||| ∼ |||| i || i || d || ||//N || ( || μ || , || σ|||| 2 |||||| , || − || ∞ || , || u || ) || где || N || ( || μ || , || σ|| 2 || , || − || ∞ || , || u || ) || \mathcal{N}(\mu,\,\sigma^2,\, -\infty,\, u) || N || ( || μ || , || σ|||| 2 |||||| , || − || ∞ || , || u||) || - усеченная нормаль с верхней точкой усечения || u || u || u || . Каковы оценки максимального правдоподобия (MLE) параметров || μ || , || σ||, |/u || \mu,\,\sigma,\,u || μ || , || σ||, |/u|/?

В этом случае мы хотим решить проблему, когда распределение усекается сверху, но не снизу.

Предположим, что распределение имеет функцию плотности вероятности (pdf), p p p , тогда его усеченное распределение pdf с нижней и верхней точками усечения l l l и u u u является

p t r u n c ( x ) = p ( x ) ∫ l u p ( x ) d x p_{trunc}(x) = \frac{p(x)}{\int^u_lp(x)\mathrm{d}x} p ​ t r u n c ​ ​ ( x ) = ​ ∫ ​ l ​ u ​ ​ p ( x ) d x ​ ​ p ( x ) ​ ​

где l ≤ |/x ≤ |/u l \le x \le u l x u и это должно быть 0 0 0 в любом другом месте.

Интуитивно, p ( x ) d x = 1 \int_{-\infty}^{\infty}p(x)\mathrm{d}x p ( x ) d x = 1 но если мы усечем распределение, то

  1. pdf-файл усечения должен по-прежнему соответствовать форме оригинала, если он не усечен; и
  2. он все равно должен интегрироваться в 1 по всему диапазону

Тогда нетрудно понять, что

p t r u n c ( x ) = p ( x ) ∫ l u p ( x ) d x p_{trunc}(x) = \frac{p(x)}{\int^u_lp(x)\mathrm{d}x} p ​ t r u n c ​ ​ ( x ) = ​ ∫ ​ l ​ u ​ ​ p ( x ) d x ​ ​ p ( x ) ​ ​

это единственная форма, которая удовлетворяет обоим критериям. На самом деле, если мы позволим P P P быть кумулятивной функцией распределения (cdf) усеченного распределения, то pdf усеченного распределения может быть записан как

p t r u n c ( x ) = p ( x ) P ( u ) − P ( l ) p_{trunc}(x) = \frac{p(x)}{P(u) – P(l)} p ​ t r u n c ​ ​ ( x ) = ​ P ( u ) − P ( l ) ​ ​ p ( x ) ​ ​

В этом конкретном случае усеченных нормалей мы позволяем ϕ \phi ϕ и Φ \Phi Φ быть pdf и cdf соответственно и замечаем, что l = l = -\infty l = как мы только хотели, чтобы trucknated сверху; и поэтому Φ ( l ) = Φ ( ) = 0 \Phi(l) = Φ ( l ) = Φ ( ) = 0 . Поэтому pdf становится

ϕ t r u n c ( x ) = ϕ ( x , μ , σ ) Φ ( u , μ , σ ) \phi_{trunc}(x) = \frac{\phi(x,\mu,\sigma)}{\Phi(u,\,\mu,\sigma)} ϕ ​ t r u n c ​ ​ ( x ) = ​ Φ ( u , μ , σ ) ​ ​ ϕ ( x , μ , σ ) ​ ​

\phi_{trunc}(x) = \frac{\phi(x,\mu,\sigma)}{\Phi(u,\,\mu,\sigma)}

Минимальное значение, которое u u u может принять max Q t \max Q_t max Q |/t |//. Пусть u ^ \hat{u} |/u ^ будьте оценщиком MLE для u u u , мы можем написать

максимум Q t ≤ u ^ \max Q_t \le \hat{u} максимум Q ​ t ​ ​ ≤ ​ u ​ ^ ​ ​

cdf Φ \Phi Φ является монотонно возрастающей функцией, поэтому мы имеем

Φ ( максимум Q t , μ , σ ) ≤ Φ ( u ^ , μ , σ ) \Phi(\max Q_t,\,\mu,\,\sigma) \le \Phi(\hat{u},\,\mu,\,\sigma) Φ ( максимум Q ​ t ​ ​ , μ , σ ) ≤ Φ ( ​ u ​ ^ ​ ​ , μ , σ )

принимая взаимность обеих сторон,

1 Φ ( максимум Q t , μ , σ ) ≥ 1 Φ ( u ^ , μ , σ ) \frac{1}{\Phi(\max Q_t,\,\mu,\,\sigma)} \ge \frac{1}{\Phi(\hat{u},\,\mu,\,\sigma)} ​ Φ ( максимум Q ​ t ​ ​ , μ , σ ) ​ ​ 1 ​ ​ ≥ ​ Φ ( ​ u ​ ^ ​ ​ , μ , σ ) ​ ​ 1 ​ ​

теперь умножьте обе стороны на ϕ ( Q i , μ , σ ) \phi(Q_i,\mu,\sigma) ϕ ( Q i , μ , σ ) , мы видим, что

ϕ ( Q i , μ , σ ) Φ ( максимум Q t , μ , σ ) ≥ ϕ ( Q i , μ , σ ) Φ ( u ^ , μ , σ ) \frac{\phi(Q_i,\mu,\sigma)}{\Phi(\max Q_t,\,\mu,\,\sigma)} \ge \frac{\phi(Q_i,\mu,\sigma)}{\Phi(\hat{u},\,\mu,\,\sigma)} ​ Φ ( максимум Q ​ t ​ ​ , μ , σ ) ​ ​ ϕ ( Q ​ i ​ ​ , μ , σ ) ​ ​ ≥ ​ Φ ( ​ u ​ ^ ​ ​ , μ , σ ) ​ ​ ϕ ( Q ​ i ​ ​ , μ , σ ) ​ ​

правая сторона (RHS) теперь выглядит как cdf, и немного размышлений должно привести нас к выводу, что для максимизации вероятности нам нужно иметь

u ^ = максимум Q t \hat{u} = \max Q_t ​ u ​ ^ ​ ​ = максимум Q ​ t ​ ​

поскольку именно там находится максимальный предел вероятности (плотности). Поэтому задача оптимизации MLE является двумерной в μ \mu μ и σ \sigma σ .

Стоит отметить, что эта логика может быть применена к любому усеченному распределению, а не только к нормальному. Действительно, MLE верхней точки усечения всегда является максимумом наблюдаемых значений.

Стоит отметить, что эта логика может быть применена к любому усеченному распределению, а не только к нормальному. Действительно, MLE верхней точки усечения всегда является максимумом наблюдаемых значений.

Также обратите внимание, что настройка u ^ = max Q t \hat{u} = \max Q_t |/u ^ = max Q /t приведет к более высокой PDs, чем любая другая оценка u ^ \hat{u} |/u ^ дано u ^ > = max Q t \hat{u} >= \max Q_t |/u ^ > = макс Q t |/|/.

Более субъективный способ выбрать uuu-использовать логику, подобную следующей: “У меня есть данные за 20 лет, поэтому я не наблюдал худших 5% PDs, поэтому Φ(u)=0,95 Φ(u)=0,95”.

Таким образом, если мы можем оценить μ \mu μ и σ \sigma σ из приведенного выше уравнения, то у нас есть оценка LRPD в усеченной нормальной структуре. Эргашев и др. показали , что при заданном u u u существует необходимое условие для максимизации вышеуказанной вероятности, и решение μ \mu μ и σ \sigma σ является решением простой задачи оптимизации поиска корней (1 строка кода для решения в R).

необходимое условие подразумевает что-то важное. Существуют определенные значения Φ 1 ( O D R t ) \Phi^{-1}\left(ODR_t\right) Φ 1 ( O D R t /|) |/для которых нет уникального решения! БЕДА!!!

Многообещающий способ, который я использовал в прошлом для решения этой проблемы, состоит в том, чтобы признать, что точки усечения, u s e g 1 u_{seg1} u |/s e g 1 и u s e g 2 u_{seg2} u |/s e g 2 , для некоторых сегментов s e g 1 seg1 s e g 1 и s e g 2 seg2 s e g 2 должно удовлетворять

Φ ( u s e g 1 , μ s e g 1 , σ s e g 1 2 ) = Φ ( u s e g 2 , μ s e g 2 , σ s e g 2 2 ) \Phi\left(u_{seg1},\mu_{seg1},\sigma^2_{seg1}\right) = \Phi\left(u_{seg2},\mu_{seg2},\sigma^2_{seg2}\right) Φ ( u ​ s e g 1 ​ ​ , μ ​ s e g 1 ​ ​ , σ ​ s e g 1 ​ 2 ​ ​ ) = Φ ( u ​ s e g 2 ​ ​ , μ ​ s e g 2 ​ ​ , σ ​ s e g 2 ​ 2 ​ ​ )

то есть процентиль , на котором они сидят, должен быть одинаковым, даже если они могут иметь разные значения! Это добавляет ограничение к модели, которая на практике почти всегда дает уникальные решения! Проблема РЕШЕНА!!!

Хотя использование нормальных распределений дает хорошие аналитические решения, но подход

  1. установка дистрибутива в ODR через F 1 ( O D R ) F^{-1}\left(ODR\right) F 1 ( O D R ) для некоторой функции F F F
  2. оцените точку усечения распределения
  3. смоделируйте (или численно интегрируйте) из всего (не усеченного распределения), чтобы восстановить оценку LRPD

должно работать для любых распределений, предполагая, что реальный мир следует распределению в крайних точках! Верите ли вы в это-вопрос для другого дня.

Приведенные наблюдения Q 1 , Q 2 , . . . , Q n ∼ |/i i |/d N ( μ , σ 2 , , u ) Q_1,\, Q_2,\, …,\, Q_n \sim^{iid} \mathcal{N}(\mu,\,\sigma^2,\,-\infty,\, u) Q 1 , Q 2 , . . . , Q |/n i i d //N ( μ , σ 2 , , u ) , где Q i = μ − |/σ Z i Q_i = \mu – \sigma Z_i Q |/i | = μ − |/σ Z /i | и что Z i N ( 0 , 1 ) Z_i\sim \mathcal{N}(0,\,1) Z |/i //∼ N ( 0 , 1 ) . Мы стремимся найти параметры μ \mu μ и σ \sigma σ , которые оптимизируют эту вероятность

L = ∏ ( ϕ ( Q i , μ , σ ) Φ ( максимум Q t , μ , σ ) ) L = \prod\left(\frac{\phi(Q_i,\mu,\sigma)}{\Phi(\max Q_t,\mu,\sigma)}\right) L = ∏ ( ​ Φ ( максимум Q ​ t ​ ​ , μ , σ ) ​ ​ ϕ ( Q ​ i ​ ​ , μ , σ ) ​ ​ )

часто мы пытаемся оптимизировать вероятность журнала

бревно L = l = ( ∑ i бревно ϕ ( Q i , μ , σ ) ) − n бревно Φ ( максимум Q t , μ , σ ) \log = \left(\sum_i \log\phi(Q_i,\mu,\sigma)\right) – n\log\Phi(\max Q_t,\mu,\sigma) Ло g L = l = ( ​ i ​ ∑ ​ ​ Ло g ϕ ( Q ​ i ​ ​ , μ , σ ) ) − n Ло g Φ ( максимум Q ​ t ​ ​ , μ , σ )

Численные решения в Julia, R и Python/SciPy

В другом сообщении в блоге я закодировал решения вышеуказанной проблемы в Julia , R и Python/Scipy .

Пусть O D R t ODR_t O D R t |/ быть наблюдаемой ставкой по умолчанию в момент времени t t t

  1. Compute Q t = Φ 1 ( D R t ) t Q_t = \Phi^{-1}\left(ODR_t\right) \,\forall t Q т = Φ 1 ( D R t ) t
  2. Найдите MLE для M \mu M и S \sigma s//путем численной оптимизации этой вероятности |/L = ( ϕ ( Q | i , m |, /s //F (//max//Q//t//,//M///S//////L = \prod\left (\frac{\phi (Q_i,\mu,\sigma)} {\Phi (\max Q_t,\mu,\sigma)} \ right)//L = ( это первый раз, когда я его вижу, и это первый раз, когда я его вижу. ) Затем

L R P D ^ = Φ ( μ ^ M L E 1 + σ ^ M L E 2 ) \\hat{LRPD} = \Phi\left(\frac{\hat{\mu}_{ML}}{\sqrt{1+\hat{\sigma}_{MLE}^2}}\right) ​ L R P D ​ ^ ​ ​ = Φ ( ​ √ ​ 1 + ​ σ ​ ^ ​ ​ ​ M L E ​ 2 ​ ​ ​ ​ ​ ​ ​ ​ μ ​ ^ ​ ​ ​ M L E ​ ​ ​ ​ )

using Distributions, StatPlots, Plots

plot(
    Truncated(
        Normal(0,1),
    -1.75, 1.8)
    , xlim = (-2,2)
    , ylim = (0, 0.5)
    , fill = (0, 0.5, :red)
    , xticks =([ -1.75, -1, 0, 1, 1.8], string.([ -1.75, -1, 0, 1, 1.8]))
    , xlabel = "Z"
    , label = "Truncated Normal pdf"
    , title = "Truncated normal"
)
savefig("1.png")
plot(
    Truncated(
        Normal(0,1),
    -1.75, Inf)
    , xlim = (-3,3)
    , ylim = (0, 0.5)
    , fill = (0, 0.5, :red)
    , xticks =([-1.75, -1, 0, 1, 2], string.([-1.75,-1, 0, 1, 2]))
    , label = "Truncated Normal pdf - with conservatism"
    , xlabel = "Z"
    , title = "Truncated normal pdf - with conservatism"
)
savefig("2.png")

plot(
    Truncated(
        Normal(-2.6,0.1^2),
    -Inf, -2.58)
    , xlim = (-2.65,-2.55)
    # , ylim = (0, 0.5)
    , fill = (0, 0.5, :green)
    , xticks =(reverse(-2.6 .+ -0.1.*[-1.75, -1, 0, 1, 2]), string.(reverse(-2.6 .+ -0.1.*[-1.75, -1, 0, 1, 2])))
    , label = "Truncated Normal pdf - with conservatism"
    , xlabel = "\Phi^-1 ODR = \mu - \sigma Z"
    , title = "Truncated normal pdf - with conservatism"
)
savefig("3.png")

Не стесняйтесь, пишите мне по адресу dzj@analytixware.com или посетите http://evalparse.io для получения дополнительной информации.