При цьому значення Mt() є дисперсією апостеріорного розподілу. Якщо кількість повідомлень невелика, говорити про вузькість апостеріорного розподілу порівняно з апріорним вже не можна, однак і тут у силі залишається вихідне міркування про те, що цінність апріорних даних зменшується зі збільшенням точності оцінок. В оптимальному виявителі рішення виноситься за результатом порівняння величини з порогом, рівним Q/2 - G0ln [р/(1-р)], де р - ймовірність наявності сигналу в суміші, що спостерігається. До завдання нелінійної фільтрації. Якщо розглянута задача вирішена в першому варіанті - визначено апостеріорний розподіл / (A, t / X It0, t]), то можна легко отримати і оптимальну оцінку за будь-якого критерію Q. Наприклад, для критерію Q М [v7E (t) ET (f ) х], прийнятого під час вирішення завдання Колмогорова - Вінера у параграфі 4 гл. IV, знайдено, що найкраща оцінка є умовним апостеріорним математичним очікуванням оцінюваного вектора (див. стор. Ця вправа може бути витлумачена як твердження, що апостеріорний розподіл припише істинному значенню W малу ймовірність лише з малою ж ймовірністю. бачили в попередніх параграфах, апостеріорні розподіли параметрів, що цікавлять нас, часто є приблизно нормальними. Розділи ми вивчимо деякі граничні властивості апостеріорних розподілів, коли кількість спостережень у повторній вибірці прагне до нескінченності.називаються в літературі непараметричними [22, 41, 101] на відміну від підходів (зокрема, байєсова), при яких оцінюване повідомлення є невідомим параметром відомого апостеріорного розподілу. Як зазначалося, це вказує на те, що апостеріорний розподіл, отриманий на основі великої кількості інформації, не повинен дуже сильно залежати від точної форми апріорного розподілу. Сама оцінка у своїй виражається через ті чи інші параметри апостеріорного розподілу, що передбачається відомим. Таким чином, результати наступних параграфів застосовні у всіх випадках, коли апостеріорний розподіл може бути знайдено. Оцінку величини 100р0 можна отримати, обчисливши математичне очікування апостеріорного розподілу ймовірностей. Зважаючи на теорему 2 випливає, що коефіцієнт варіації апостеріорного розподілу W убуває певним заздалегідь відомим чином, коли обсяг вибірки зростає. D після закінчення спостережень використовується тільки байєсовське рішення, що відповідає апостеріорному розподілу параметра W. Тому далі при розгляді процедур послідовного рішення ми явно не вказуватимемо вирішальне правило. Результат вдається отримати, тільки припустивши, що з часом апостеріорний розподіл стає гаусовим і досить вузьким, тому нелінійні щодо параметра функції Ki, Ki, F можуть бути лінеаризовані. Так як при симетричній функції втрат і гаусовому апріорному розподілі оцінка збігається з апостеріорним середнім х (t) хапост (t), отримана система рівнянь безпосередньо визначає структуру системи оцінки у вигляді нелінійного замкнутого пристрою. Зрозуміло, таке наближене рішення не дозволяє судити про те, наскільки швидко настає нормалізаціяапостеріорного розподілу (і чи настає вона взагалі) і якою має бути структура системи оцінки на початковому періоді спостереження.
Після того, як знайдено функцію правдоподібності L (х) і визначено апостеріорний розподіл w (х г) kw (x) L (х), залишається знайти оцінку, що забезпечує мінімум середнього ризику. На виході ідеального приймача виявляється розподіл ймовірностей можливих значень вимірюваного параметра (апостеріорний розподіл), обчислений на основі прийнятої реалізації суміші сигналу з перешкодою та статистичних даних про сигнал і перешкоду, відомих апріорно. Це означає, що якщо спостереження проводяться в кілька етапів, то апостеріорний розподіл можна обчислювати на кожному етапі, беручи в якості апріорного розподілу для наступного етапу апостеріорний розподіл, отриманий на попередньому. З наших міркувань також випливає, що якщо апостеріорний розподіл W при X х і Y у обчислюється в два прийоми, то остаточний результат не залежить від того, яка випадкових величин, X або Y, спостерігалася спочатку. Ми показали, що в деяких завданнях статистичних рішень середнє та медіана апостеріорного розподілу одновимірного параметра W є байєсовськими оцінками. Для випадку векторного параметра W вектор середніх апостеріорних розподілів також є байєсовською оцінкою при квадратичній функції втрат. Оскільки немає стандартного визначення медіани багатовимірного розподілу, то випадку векторного параметра немає й аналогічних викладеним в § 11.3 результатів. Із наведеної теореми випливає корисний для практики висновок: при сформульованих обмеженнях на апостеріорний розподіл та функцію втрат оптимальне рішення інваріантне до вигляду останньої. Це дозволяє вибрати функцію втрат так, щобаналітичні труднощі, пов'язані зі знаходженням оптимальної оцінки, були мінімальними, або призвести до вже вирішеної в літературі. З теорії статистичних рішень далі відразу виводиться, що у статистичній задачі навчання апостеріорний розподіл ймовірностей гіпотез у системи з засмученою поведінкою буде ближче до рівномірного розподілу, ніж у системи з нормальною поведінкою. З (3) і (5) видно, що дисперсія g апостеріорного розподілу Х3 змінюється від кроку до кроку детермінованим чином, оскільки ні значення спостережень, ні значення вибраних управлінь не входять у вираз дисперсії. За відсутності перешкод для будь-якої функції втрат рішення відповідає значенню повідомлення, у якому апостеріорний розподіл відмінно від нуля. У цьому параграфі ми покажемо, що при великій кількості п спостережень функція правдоподібності та апостеріорний розподіл можуть бути апроксимовані деяким нормальним розподілом.