Отличие приоры 2 от приоры: Лада Приора 1 и 2

Содержание

Что лучше ВАЗ 2112 или Приора

Как говорят, «на вкус и цвет товарищей нет», поэтому судить о том, какой автомобиль лучше и спорить на эту тему можно бесконечно. Так или иначе, автовладельцы могут стоять горой за свою машину, потому что для каждого именно его марка самая лучшая, удобная и комфортная.

Попробуем разобраться, что лучше ВАЗ 2112 или Приора. Изначально, Приора – это рестайлинговая модель ВАЗ 2110. В принципе, можно рассуждать таким образом: вследствие того, что ВАЗ 2112 уже не выпускают, лучше брать новый автомобиль, в данном случае это Приора, ведь еще Генри Форд сказал: «Лучший автомобиль – это новый автомобиль». Если же речь идет о машинах, бывших в употреблении, то в этом моменте стоит разобраться поподробнее:

1. Выбирая между ВАЗ 2112 или Приора, обратите внимание на общие детали: у обеих моделей есть варианты кузова хэтчбек, универсал и седан. Можно выбирать нужный кузов и в той и в другой модели. Но длина кузова, к примеру, в хэтчбеке, будет разной – ВАЗ 2112 имеет 4170 мм, а Приора – 4210 мм.

Про высоту можно сказать следующее – ВАЗ 2112 – 1420 мм, Приора – 1435 мм.

Эти показатели отмечаются при одинаковой колесной базе в 2492 мм. Тоже самое прослеживается и в других вариантах кузова, другими словами, если вам нужна машина с более крупными габаритами, чем у ВАЗа, стоит обратить внимание на Приору.

2. Если говорить об эксплуатационных показателях, то разница между автомобилями Приора или ВАЗ 2112 тоже есть. Максимальная скорость у ВАЗа – 180 км/ч, а у Приоры – немногим больше – 183км/ч. Разгоняются они от 0 до 100 км/ч по-разному – ВАЗ за 12 секунд, Приора за 11,5 секунд. В принципе, разница не настолько велика, но расход топлива в Приоре будет чуть поменьше – 7,2 литра на 100 км при смешанном цикле, а у ВАЗа 2112 – 7,7 литров на 100 км.

3. Что касается двигателей в этих моделях, одинаковые показатели у них по критериям – объема двигателя (1596 куб. см.), тип топлива (бензин), рядное расположение цилиндров и их количество, а также количество клапанов. Но отличия есть в мощности автомобилей – Приора имеет 98 л/c, а ВАЗ всего 89 л/с.

4. Трансмиссия одинакова в обеих моделях авто, а вот подвеска разная, в Приоре она более современная – пружинная, типа МакФерсон.

По оснащенности автомобили имеют существенные различия, потому как выпускались они в разные годы. ВАЗ менее оснащен, в нем нет многих приборов, которые есть у Приоры, например: датчика наружной температуры, дисплея на панели приборов и маршрутного компьютера, аудиоподготовки, подогрева и регулировки зеркал заднего вида, а также антиблокировочной системы.

В принципе, для владельцев автомобиля ВАЗ 2112 нет преград в тюнинге своей «ласточки». Сделать данное авто более совершенным для них не составляет труда. Например, можно установить поршневую от Приоры на ВАЗ 2112. Замена такой системы будет уместна после прохождения автомобилем более 150 тысяч километров, просто в силу износа деталей.

Точно также, многие устанавливают стойки на ВАЗ 2112 от Приоры. Такая модификация позволяет улучшить ходовые качества автомобиля – все неровности, ямки и ухабы практически станут неощутимы, а в поворотах авто будет гораздо более маневренным.

В любом случае, выбор остается за автолюбителем, потому как каждый выбирает сам на чем ездить, и тут играет роль не только марка автомобиля, но и размер кошелька.

Фазы Приоры — Quto.ru

На АвтоВАЗе уже готов усиленный кузов Приоры. Крыша, передние стойки, моторный щит, более прочные двери с новым наклонным брусом безопасности, пол, пороги — везде усилители, а всего — 36 новых кузовных деталей. Кроме того, подготовлена к производству и версия Люкс — с двумя подушками безопасности Autoliv и передними ремнями, оборудованными преднатяжителями и ограничителями усилия. Но где она, эта безопасная Приора? Пока в лаборатории ударных испытаний АвтоВАЗа. Вазовцы вновь использовали грамотный пиар-ход: предваряя публикацию статьи Авторевю о краш-тесте серийной Приоры, они пригласили журналистов на демо-удар Прио­ры Люкс с усиленным кузовом.

— При доводке Приоры мы разбили 15 прототипов, — рассказали в Тольятти. — И это не считая стендовых испытаний и виртуальных краш-тестов на математической модели, для которой пришлось оцифровать бумажные чертежи. Клетка салона теперь гораздо жестче, сейчас сами увидите….

Разгон, удар… Первое впечатление от усиленной Приоры очень благоприятное: подушки сработали четко, излом на крыше невелик, руль смещен назад на 52 мм и на 68 мм вправо. Пол деформирован незначительно: педали сцепления и тормоза ушли назад всего на 60 и 80 мм соответственно. Намного меньше, чем у той Приоры, что мы разбили двумя неделями раньше!

А как показали себя удерживающие системы — подушки и ремни? Пиропатроны выбрали 100 мм слабины ремней, и ограничители усилия выполнили свою миссию: сжатие ребер манекенов водителя и переднего пассажира не превысило 29 мм. Пассажирская подушка хорошо защитила голову и шею манекена: HIC снизился до 329, изгибающий момент в «позвонках» тоже стал меньше. Но водительская подушка, «вылупившаяся» из ступицы руля на 30-й миллисекунде после начала удара, могла бы сработать и лучше. «Водитель» не испытал серьезных нагрузок (HIC — 381), но на 141-й миллисекунде произошел «пробой» подушки. За острый пик замедления — один балл долой. Когда «водитель» уткнулся головой в подушку, он повернул голову вправо и чуть не соскользнул с нее — за нестабильный контакт Приора Люкс могла бы лишиться еще одного балла.

Меньше деформация передней панели — меньше нагрузки на ноги: на правое бедро «водителя» пришлось всего 1,4 кН (на машине, приобретенной Авторевю, было 5,2 кН). Но «кость» левого бедра сжимали уже 5,5 кН — вазовцы намерены уменьшить жесткость энергопоглощающих вставок. Травмо­опасный фиксатор рулевой колонки не позволяет оценить защиту бедер выше чем «удовлетворительно». Зато стопы и голени обоих седоков в полной безопасности — лишь сжимающая нагрузка на правую голень пассажира в 2,4 кН немного превысила «зеленый» предел в 2 кН.

Посчитаем рейтинг. За защиту головы и шеи — три балла (минус один штрафной балл за пробой подушки). За защиту груди только 2,2 балла из-за незначительного залома на пороге — минус балл за «потерю структурной целостности» кузова (пусть и формальную). За сохранность коленей и бедер — еще 1,7 балла, голеней и стоп — 3,7 балла. Итого — 10,6 балла. Значительно больше, чем у серийной Приоры — почти как у седанов Renault Logan (12 баллов), Symbol (11) и Chevrolet Lanos (10,5). Более того, с точки зрения защиты пристегнутых передних седоков Приора Люкс лучше, чем Fiat Albea (8,5 балла).

Но если суммировать оценки за фронтальный удар (10,6) и за боковой краш-тест (9,1), то выйдет всего 19,7 балла. Это уверенные три звезды. А вот до заветных 25 баллов, которые открывают двери в четырехзвездный рейтинг EuroNCAP, даже Приоре Люкс еще далековато.

Page not found — автомануал заказ автокниг с доставкой в любую точку мира

НАШИ ПАРТНЕРЫ:

Любой современный легковой или грузовой автомобиль можно обслуживать и ремонтировать самостоятельно, в обычном гараже. Все что для этого потребуется – набор инструмента и заводское руководство по ремонту с подробным (пошаговым) описанием выполнения операций. Такое руководство должно содержать типы применяемых эксплуатационных жидкостей, масел и смазок, а самое главное – моменты затяжки всех резьбовых соединений деталей узлов и агрегатов автомобиля. Итальянские автомобили – Fiat (Фиат) Alfa Romeo (Альфа Ромео) Lancia (Лянча) Ferrari (Феррари) Mazerati (Мазерати) имеют свои конструктивные особенности. Также в особую группу можно выделить все французские машины – Peugout (Пежо), Renault (Рено) и Citroen (Ситроен). Немецкие машины сложные. Особенно это относится к Mercedes Benz (Мерседес Бенц), BMW (БМВ), Audi (Ауди) и Porsche (Порш), в чуть меньшей — к Volkswagen (Фольксваген) и Opel (Опель). Следующую большую группу, обособленную по конструктивным признакам составляют американские производители- Chrysler, Jeep, Plymouth, Dodge, Eagle, Chevrolet, GMC, Cadillac, Pontiac, Oldsmobile, Ford, Mercury, Lincoln. Из Корейских фирм следует отметить Hyundai/Kia, GM-DAT (Daewoo), SsangYong.

Совсем недавно японские машины отличались относительно низкой первоначальной стоимостью и доступными ценами на запасные части, но в последнее время они догнали по этим показателям престижные европейские марки. Причем это относится практически в одинаковой степени ко всем маркам автомобилей из страны восходящего солнца – Toyota (Тойота), Mitsubishi (Мицубиси), Subaru (Субару), Isuzu (Исудзу), Honda (Хонда), Mazda (Мазда или как говорили раньше Мацуда), Suzuki (Сузуки), Daihatsu (Дайхатсу), Nissan (Ниссан). Ну, а машины, выпущенные под японо-американскими брендами Lexus (Лексус), Scion (Сцион), Infinity (Инфинити), Acura (Акура) с самого начала были недешевыми.

 

Отечественные автомобили также сильно изменились с введением норм евро-3. лада калина, лада приора и даже лада нива 4х4 теперь значительно сложнее в обслуживании и ремонте.

что делать если машина не заводится, как зарядить аккумулятор, как завести машину в мороз. ответы на эти вопросы можно найти на страницах сайта и книг. представленных здесь же

Автомануал — от англ. manual — руководство. Пособие по ремонту автомобиля или мотоцикла. различают заводские руководства и книги , выпущенные специализированными автомобильными издательствами.

Cайт Автомануал не несет никакой ответственности за возможные повреждения техники или несчастные случаи, связанные с использованием размещенной информации.

Лада Приора — это… Что такое Лада Приора?

LADA Priora

LADA Priora на викискладе

Общие данные

Года пр-ва: март 2007 — н.в.
Другое имя: LADA 2170 (экспортное)
ВАЗ-21126 (97,9 л.с.)
Марка: ВАЗ-21126 (97,9 л.с.)
Тип: бензиновый (АИ-95)
Объём: 1596 см3
Максимальная мощность: 72 кВт (98 л.с.), при 5600 об/мин
Максимальный крутящий момент: 145 Н·м, при 4000 об/мин
Конфигурация: рядный, четырёхцилиндровый
Цилиндров: 4
Клапанов: 16
Макс. скорость: 183 км/час
Седан

Года производства: март 2007 — н.в.
Тип кузова: 4‑дв. седан
Колёсная база: 2492 мм
Длина: 4350 мм
Ширина: 1680 мм
Высота: 1420 мм
Колея передняя: 1410 мм
Колея задняя: 1380 мм
Клиренс: 165 мм
Изображения на Викисладе?: Седан
Хэтчбек
Года производства: февраль 2008 — н.в.
Другое имя: ВАЗ-2172
Предшественник: ВАЗ-2110
Тип кузова: 5‑дв. хетчбэк
Колёсная база: 2492 мм
Длина: 4210 мм
Ширина: 1680 мм
Высота: 1420 мм
Колея передняя: 1410 мм
Колея задняя: 1380 мм
Клиренс: 165 мм
Универсал
Года производства: май 2009 — н.в.
Другое имя: ВАЗ-2171
Предшественник:
ВАЗ-2111
Тип кузова: 5‑дв. универсал
Колёсная база: 2492 мм
Длина: 4330 мм
Ширина: 1680 мм
Высота: 1480 мм
Колея передняя: 1410 мм
Колея задняя: 1380 мм

Характеристики

Скоростные характеристики

Макс. скорость: 172 км/ч (8 кл.)/ 183 км/ч (16 кл.)

На рынке

Другое

Масса: Снаряженная — 1088 кг
Полная — 1578 кг
Расход топлива: Трасса — 5,4 л
Город — 9.8 л
Смешанный — 7,2 л (16 кл.) и 7,6 л (8 кл.)
Объём бака: 43 л

LADA Priora (Лада Приора) — семейство российских легковых автомобилей класса «C» по европейской классификации, выпускаемых ОАО «АвтоВАЗ». В марте 2007 года с конвейера сошло чуть более тысячи новых седанов. А 21 апреля 2007 года начались продажи автомобиля с кузовом седан. Выпуск модели с кузовом хэтчбек начался в феврале 2008 года. Модификацию с кузовом универсал показали на автосалоне в Краснодаре в октябре 2008 года. Производство модели с этим кузовом началось 27 мая 2009 года. Кроме этого, ОАО «АвтоВАЗ» планирует выпуск малыми сериями модификацию купе и даже ведет разработку кабриолета на его базе.

С начала 2009 года семейство «Приора» полностью вытеснило с конвейера семейство «Лада 110»[1].

Основные отличия от ВАЗ 2110

Экстерьер: передние и задние крылья, капот и крышка багажника, светотехника, бамперы, облицовка радиатора, молдинги и орнаменты.

Интерьер: панель приборов, обивка салона, мультиплексная система управления электроприводами в дверях, подушка безопасности водителя, уплотнители ветрового и заднего стекол, шумоизоляция.

Силовой агрегат: двигатель ВАЗ-21116 мощностью 81 л.с. (8 кл.) или ВАЗ-21126 мощностью 98 л.с. (16 кл.), усиленное сцепление, механизм привода коробки передач с подшипниками закрытого типа. Позже планируется устанавливать бензиновый агрегат объёмом 1.8 литра.

Ходовая часть: новые стойки передней подвески с бочкообразными пружинами и амортизаторы задней подвески, безредукторный электроусилитель руля, более эффективная тормозная система.

Безопасность

В комплектации «Норма» автомобиль оснащается подушкой безопасности водителя. Кузов автомобиля усилен с целью повышения пассивной безопасности. Также возросла жесткость кузова на кручение. С мая 2008 года автомобиль «Лада-Приора» выпускается в комплектации «Люкс», которая включает подушку безопасности переднего пассажира, АБС и систему безопасной парковки автомобиля. В результате краш-теста, проведенного «Авторевю» [2] по стандарту EuroNCAP, Лада Приора получила 10,56 баллов из 16 возможных.

Технические характеристики версии ВАЗ-21703 (с 16-клапанным двигателем)

Общие данные
Радиус поворота 5.5 м
Объём багажника 430 л
Время разгона 0-100 км/ч 11.5 с
Максимальная скорость 200 км/ч
Двигатель
Объём двигателя 1596 см³
Число клапанов 16
Мощность 72 кВт / 98 л.с. при 5600 об/мин
145 Н*м при 4000 об/мин
Топливо АИ-95
Ходовая часть
Подвеска спереди типа «Мак-Ферсон»
Подвеска сзади упругая поперечная балка
Рулевое управление Реечное с электроусилителем
Тормоза передние Дисковые вентилируемые
Тормоза задние Барабанные
Шины 185/65R14

Модификации

ВАЗ-2170 — Седан, серийное производство с марта 2007 года;

ВАЗ-2170 СПГ — Седан, битопливная модификация на сжатом природном газе (СПГ) и бензине. Ожидаемое серийное производство с 2009 года;

ВАЗ-2172 — Хэтчбек, серийное производство с февраля 2008 года.

ВАЗ-2171 — Универсал, серийное производство с мая 2009 года.

ВАЗ-21708 Priora Premier — удлиненная на 175 мм версия седана. Мелкосерийное производство ведется партнером АвтоВАЗа — тольяттинской компанией ЗАО «Супер-Авто» с осени 2008 года. Оснащается 1,8-литровым двигателем ВАЗ-21128 мощностью 100 л.с. В 2008 году собрано 26 стрейчей, в 2009 планируется собрать 200 «премьеров» [3].

ВАЗ-2172 Купе — мелкосерийное производство трёхдверной модели на базе хэтчбека планирует организовать фирма «Супер-Авто».

Модификации
Седан (ВАЗ-2170) Хэтчбек (ВАЗ-2172) Универсал (ВАЗ-2171) «Премьер» седан-стрейч (ВАЗ-21708)
Длина, мм 4350 4210 4330 4525
Ширина, мм 1680
Высота, мм 1420 1480 1420
Колесная база, мм 2492 2667
Колея передняя, мм 1410
Колея задняя, мм 1380

Битопливная Priora CNG на сжатом природном газе

Седан-стрейч LADA 708 Priora Premier производства фирмы «Супер-Авто»

Двигатель

На автомобиль устанавливаются бензиновые четырёхцилиндровые двигатели ВАЗ-21126 объёмом 1.6 л с 8-клапанной и 16-клапанной головками блока цилиндров.

В отличие от двигателя ВАЗ-21124, который устанавливался на автомобиль Лада 111, новые двигатели имеют облегчённую шатунно-поршневую группу.

См. также

Примечания

Ссылки

Wikimedia Foundation. 2010.

Глава 9 Рассмотрение предыдущих распределений

Один из наиболее часто задаваемых вопросов при первом знакомстве с байесовской статистикой: «Как мы выбираем априорные значения?» Хотя ни в какой ситуации не бывает одного «идеального» априора, в этой главе мы обсудим некоторые вопросы, которые следует учитывать при выборе априора. Но сначала, вот несколько общих идей, которые следует иметь в виду.

  • Байесовский вывод основан на апостериорном распределении, а не на априорном. Поэтому апостериор требует гораздо большего внимания, чем априор.
  • Априор — это только часть байесовской модели. Вероятность — это другая часть. И есть данные, которые используются для подгонки модели. Выбор априора — это лишь одно из многих допущений моделирования, которые необходимо оценить и проверить.
  • Во многих ситуациях апостериорное распределение не слишком чувствительно к разумным изменениям априорного. В этих ситуациях важным вопросом является не «что является априорным?» а скорее «есть ли вообще априор»? То есть вы принимаете байесовский подход, рассматриваете параметры как случайные величины и количественно оцениваете неопределенность параметров с помощью вероятностных распределений?
  • Критика байесовской статистики в целом и априорных оценок в частности заключается в том, что они субъективны.Однако любой статистический анализ по своей сути субъективен, наполнен множеством предположений и решений. За исключением простейших ситуаций, если вы спросите пять статистиков, как решить конкретную проблему, вы, скорее всего, получите пять разных ответов. Априорные анализы и байесовский анализ данных по своей сути не более субъективны, чем любое из множества других предположений, сделанных в статистическом анализе.

Субъективность допустима и часто полезна. Выбор субъективного априорного значения позволяет нам явно включить в наш анализ богатый прошлый опыт.

Пример 9.1 Ксиомара утверждает, что она может предсказать, каким образом приземлится монетка. Рохелио утверждает, что чувствует разницу между кока-колой и пепси.

Прежде чем читать дальше, остановитесь и задумайтесь: чье заявление — Ксиомары или Рохелио — изначально более убедительно? Или вы так же убеждены? Почему? Иными словами, к чьему утверждению вы изначально отнеслись более скептически? Или вы так же настроены скептически? Иными словами, чье заявление потребует больше данных, чтобы убедить вас?

Чтобы проверить утверждение Ксиомары, вы подбрасываете правильную монету 10 раз, и она правильно предсказывает результат 9 из 10 бросков.(Можно предположить, что монета честная, броски независимы, и в сборе данных нет ничего смешного.)

Чтобы проверить утверждение Рохелио, вы даете ему слепой тест на дегустацию 10 чашек, подбрасывая монету для каждой чашки, чтобы определить, подавать ли кока-колу или песпи. Рохелио правильно определяет 9 из 10 чашек. (Можно предположить, что монета честная, броски независимы, и в сборе данных нет ничего смешного.)

Пусть \(\theta_X\) будет вероятностью того, что Ксиомара правильно угадает результат честного подбрасывания монеты.Пусть \(\theta_R\) будет вероятностью того, что Рохелио правильно угадает газировку (Coke или Pepsi) в случайно выбранной чашке.

  1. Как специалист по частоте может поступить в этой ситуации? Каким будет вывод?
  2. Рассмотрим байесовский подход. Опишите в общих чертах ваши предыдущие распределения для двух параметров. Как они сравниваются? Как это повлияет на ваши выводы?
\iffalse{} Решение. к примеру 9.1
  1. Для Ксиомара частотник может провести проверку нулевой гипотезы \(H_0:\theta_X = 0.5\) по сравнению с альтернативной гипотезой: \(H_a:\theta_X > 0,5\). Значение p будет около 0,01, вероятность наблюдения по крайней мере 9 из 10 успехов из биномиального распределения с параметрами 10 и 0,5 ( 1 - pbinom(8, 10, 0,5) ). Установка Рохелио была бы аналогичной и давала бы такое же значение p. Таким образом, строгий частотник был бы в равной степени убежден в обоих утверждениях.
  2. До наблюдения за данными мы, вероятно, более скептически относимся к заявлению Ксиомары, чем к заявлению Рохелио.Поскольку подбрасывание монеты непредсказуемо, у нас было бы сильное априорное убеждение, что \(\theta_X\) близко к 0,5 (что было бы, если бы она просто угадывала). Наш априор для \(\theta_X\) будет иметь среднее значение 0,5 и небольшое априорное стандартное отклонение, чтобы отразить, что только значения, близкие к 0,5, кажутся правдоподобными. Следовательно, потребуется много доказательств, чтобы поколебать наши прежние убеждения.
    С другой стороны, мы можем быть знакомы с людьми, которые могут отличить кока-колу от пепси; может быть, мы даже можем сами.Наш априор для \(\theta_R\) будет иметь меньшее априорное SD, чем для \(\theta_X\), чтобы обеспечить более широкий диапазон правдоподобных значений. У нас может быть даже априорное среднее для \(\theta_R\) выше 0,5, если у нас есть опыт работы с большим количеством людей, которые могут определить разницу между кока-колой и пепси. Учитывая выборочные данные, наша апостериорная вероятность того, что \(\theta_R>0,5\), будет больше, чем апостериорная вероятность того, что \(\theta_X > 0,5\), и нас больше убедит заявление Рохелио, чем заявление Ксиомары.

Даже если априорное значение не представляет сильных априорных убеждений, само наличие априорного распределения позволяет провести байесовский анализ. Помните, что и байесовский, и частотный подходы являются допустимыми подходами к статистическому анализу, каждый из которых имеет свои преимущества и недостатки. Тем не менее, есть некоторые проблемы с частотными подходами, которые устраняются включением априорного распределения и применением байесовского подхода. (Честно говоря, в предстоящем исследовании будут рассмотрены некоторые недостатки байесовского подхода по сравнению с частотным подходом.)

Пример 9.2 Тамика — баскетболистка, которая на протяжении всей своей карьеры имела вероятность 0,5 любой трехочковой попытки. Однако ее тренер опасается, что ее трехочковые броски стали хуже. Чтобы проверить это, тренер заставляет Тамику бросить серию из трех очков; она составляет 7 из 24. Есть ли у тренера доказательства того, что Тамике стало хуже?

Пусть \(\theta\) будет вероятностью того, что Тамика успешно сделает любую попытку с тремя очками.Предположим, что попытки независимы.
  1. Перед сбором данных тренер решает, что у него будут убедительные доказательства того, что Тамике стало хуже, если p-значение меньше 0,025. Предположим, тренер сказал Тамике сделать выстрелов из 24 попыток, а затем остановить и подсчитать количество успешных попыток. Используйте программное обеспечение для вычисления p-значения. Тренер уверен, что Тамике стало хуже?
  2. Перед сбором данных тренер решает, что у него будут убедительные доказательства того, что Тамике стало хуже, если p-значение меньше 0.025. Предположим, тренер сказал Тамике бросить бросков, пока она не сделает 7 трехочковых, а затем остановить и подсчитать общее количество попыток. Используйте программное обеспечение для вычисления p-значения. Тренер уверен, что Тамике стало хуже? (Подсказка: общее количество попыток имеет отрицательное биномиальное распределение.)
  3. Теперь предположим, что тренер использует байесовский подход и предполагает априорное распределение бета(\(\alpha\), \(\beta\)) для \(\theta\). Предположим, тренер сказал Тамике сделать выстрелов из 24 попыток, а затем остановить и подсчитать количество успешных попыток.Определите функцию правдоподобия и апостериорное распределение \(\theta\).
  4. Теперь предположим, что тренер использует байесовский подход и предполагает бета(\(\альфа\), \(\бета\)) априорное распределение для \(\тета\). Предположим, тренер сказал Тамике бросить бросков, пока она не сделает 7 трехочковых, а затем остановить и подсчитать общее количество попыток. Определите функцию правдоподобия и апостериорное распределение \(\theta\).
  5. Сравните байесовский и частотный подходы в этом примере.Зависит ли «сила доказательств» от того, как были собраны данные?
\iffalse{} Решение. к примеру 9.2
  1. Нулевая гипотеза: \(H_0:\theta = 0,5\), альтернативная гипотеза: \(H_a:\theta < 0,5\). Если нулевая гипотеза верна и Тамике не стало хуже, то \(Y\), число успешных попыток, имеет биномиальное (24, 0,5) распределение. Значение p равно \(P(Y \le 7) = 0,032\) из pbinom(7, 24, 0,5) . Используя строгий порог 0.025, тренер НЕ был убежден, что Тамике стало хуже.
  2. Нулевая гипотеза: \(H_0:\theta = 0,5\), альтернативная гипотеза: \(H_a:\theta < 0,5\). Если нулевая гипотеза верна и Тамике не стало хуже, то \(N\), общее количество попыток, необходимых для достижения 7 успешных попыток, имеет отрицательное биномиальное (7, 0,5) распределение. Значение p равно \(P(N \ge 24) = 0,017\) от 1 — pnbinom(23 — 7, 7, 0,5) . (В R nbinom подсчитывает только общее количество неудач, а не общее количество попыток.{17}, \qquad 0 < \theta < 1. \] (\(\binom{24 - 1}{7 - 1}\) следует из того факта, что последняя попытка должна быть успешной.) Обратите внимание, что форма вероятности как функции \(\theta\) имеет вид то же, что и в предыдущей части. Следовательно, апостериорное распределение - это бета-(\(\альфа + 7\), \(\бета + 17\)) распределение.
  3. Несмотря на то, что оба частотных сценария предполагают 7 успешных попыток из 24, значение p, измеряющее силу доказательств для отклонения нулевой гипотезы, различалось в зависимости от того, как были собраны данные.Использование строгого порога 0,025 привело к тому, что тренер отклонил нулевую гипотезу в одном сценарии, но не в другом. Однако байесовский анализ одинаков в любом сценарии, поскольку апостериорные распределения были одинаковыми. Для байесовского анализа все, что имело значение в данных, это то, что в 24 попытках было 7 успешных попыток.

Байесовский анализ данных рассматривает параметры как случайные величины с вероятностным распределением. Априорное распределение количественно определяет неопределенность исследователя в отношении параметров до данных наблюдения.Некоторые вопросы, которые следует учитывать при выборе предыдущего, включают в произвольном порядке:

.
  • Предыдущие убеждения исследователя! Априорное распределение является частью статистической модели и должно согласовываться со знаниями о лежащей в основе научной проблеме. Исследователи часто являются экспертами с богатым прошлым опытом, который может быть явно включен в анализ посредством априорного распределения. Такой априор называется информативным или слабоинформативным априором.
  • Упорядочивающий приор.Приоритет, который при правильной настройке уменьшает переоснащение или «чрезмерную реакцию» на данные.
  • Неинформативный априор, также известный как справочный, расплывчатый, плоский априорный. Ищется априор, который играет минимальную роль в выводе, чтобы «данные могли говорить сами за себя».
  • Математическое удобство. Априорное значение выбирается таким образом, чтобы упростить вычисление апостериорного, как в случае сопряженных априорных значений.
  • Интерпретация. Апостериорный анализ — это компромисс между данными и априорным.Некоторые априорные значения позволяют легко интерпретировать относительный вклад данных и предшествующих апостериорных значений. Например, подумайте об интерпретации «предыдущих успехов и предыдущих неудач» в бета-биномиальной модели.
  • Prior на основе данных прошлых . Байесовское обновление можно рассматривать как итеративный процесс. Апостериорное распределение, полученное в ходе одного раунда сбора данных, может информировать об априорном распределении для другого раунда.

Для тех, кто поначалу вообще скептически относился к априорным распределениям, стратегия всегда выбирать неинформативные или плоские априорные распределения может оказаться привлекательной.Плоские априоры распространены, но редко являются лучшим выбором с точки зрения моделирования. Точно так же, как вы не хотели бы предполагать нормальное распределение вероятности в каждой проблеме, вы не должны использовать плоскую априорную вероятность в каждой проблеме.

Более того, при попытке выбрать неинформативный априор возникают некоторые тонкие проблемы.

Пример 9.3 Предположим, мы хотим оценить \(\theta\), долю студентов Калифорнийского политехнического университета, которые вчера хоть раз носили носки.

  1. Каковы возможные значения для \(\theta\)? Какое априорное распределение вы могли бы считать неинформативным априорным распределением?
  2. Вы можете выбрать предыдущую версию Uniform(0, 1), также известную как предыдущую версию Beta(1, 1). Вспомним, как мы интерпретировали параметры \(\alpha\) и \(\beta\) в бета-биномиальной модели. Представляет ли собой распределение Beta(1, 1) «отсутствие предварительной информации»?
  3. Предположим, что из выборки из 20 студентов 4 вчера носили носки. Как бы вы оценили \(\theta\) с одним числом, основываясь только на данных?
  4. Предположим, что предыдущая версия Beta(1, 1) и выборочные данные 4/20.Определите апостериорное распределение. Напомним, что одна байесовская точечная оценка \(\theta\) является апостериорным средним. Найдите апостериорное среднее \(\theta\). Означает ли это, что «данные говорят сами за себя»?
  5. Как можно изменить \(\alpha\) и \(\beta\) в дистрибутиве бета-версии, чтобы не отображалась предварительная информация? Нарисуйте приору. Видите ли вы какие-либо потенциальные проблемы?
  6. Предположим, что Beta(0, 0) априорно для \(\theta\) и выборочных данных 4/20. Определите апостериорное распределение.Найдите апостериорную моду \(\theta\). Означает ли это, что «данные говорят сами за себя»?
  7. Теперь предположим, что параметр, который вы хотите оценить, представляет собой шансов того, что учащийся вчера был в носках, \(\phi=\frac{\theta}{1-\theta}\). Каковы возможные значения \(\phi\)? Как может выглядеть неинформативный априор? Это правильный приор?
  8. Предположим, что Beta(1, 1) предшествует \(\theta\). Используйте моделирование для аппроксимации априорного распределения шансов \(\phi\).Можно ли сказать, что это неинформативный априор для \(\phi\)?
\iffalse{} Решение. к примеру 9.3
  1. \(\theta\) принимает значения в (0, 1). Мы могли бы предположить плоскую априорную оценку для (0, 1), то есть равномерную (0, 1) априорную.

  2. Мы интерпретировали \(\alpha\) как «предыдущие успехи» и \(\beta\) как «предыдущие неудачи». Таким образом, Бета (1, 1) в каком-то смысле эквивалентна «размеру априорной выборки», равному 2. Конечно, не так много априорной информации, но это и не «отсутствие априорной информации».

  3. Доля выборки, 4/20 = 0,2.

  4. С априорным значением Бета(1, 1) и данными выборки 4/20 апостериорное распределение равно Бета(5, 17). Апостериорное среднее \(\тета\) равно 5/22 = 0,227. Апостериорное среднее представляет собой средневзвешенное значение априорного среднего и доли выборки: 0,227 = (0,5) (2/22) + (0,2) (20/22).{16}, 0 < \theta <1\).{16 - 1}, \qquad 0 <\theta < 1 \] То есть апостериорное распределение — это бета-распределение (4, 16). Апостериорное среднее 4/20=0,2, пропорция выборки. Однако апостериорная мода равна \(\frac{4-1}{4 + 16 -2}= \frac{3}{18} = 0,167\). Таким образом, апостериорная мода не позволяет «данным говорить только за себя».

  5. Если \(\theta=0\), то \(\phi=0\); если \(\theta=1\), то \(\phi = \infty\). Итак, \(\phi\) принимает значения в \((0, \infty)\). Мы могли бы выбрать плоский априор для \((0,\infty)\), \(\pi(\phi) \propto 1, \phi > 0\).Однако это было бы неправильным априором.

  6. Смоделируйте значение \(\theta\) из бета-(1, 1) распределения, вычислите \(\phi = \frac{\theta}{1-\theta}\) и повторите несколько раз. Результаты моделирования ниже. (Распределение сильно смещено вправо, поэтому мы отображаем только значения в (0, 50).)

      тета = rбета (1000000, 1, 1)
    шансы = тета / (1 - тета)
    hist(шансы[шансы<50], перерывы = 100, xlab = "шансы", частота = ЛОЖЬ,
     ylab = "плотность",
     main = "Предварительное распределение шансов, если предварительное распределение вероятности Равномерно (0, 1)")  

    Несмотря на то, что априорное значение для \(\theta\) было плоским, априорное преобразование \(\theta\) — нет.

неправильное априорное распределение — это априорное распределение, которое не интегрируется до 1, поэтому не является правильной плотностью вероятности. Однако неправильное собственное часто приводит к правильному апостериорному распределению. Таким образом, на практике иногда используются неправильные априорные распределения.

Плоские априоры являются обычным выбором в некоторых ситуациях, но редко когда-либо являются лучшим выбором с точки зрения моделирования. Кроме того, плоские априоры, как правило, не сохраняются при преобразованиях параметров.2\) и наоборот.

Пример 9.4 Предположим, что \(\theta\) представляет долю взрослых, страдающих определенным редким заболеванием.

  1. Объясните, почему вы можете не захотеть использовать однозначную априорную форму (0, 1) для \(\theta\).
  2. Примите априорную форму (0, 1). Предположим, вы проверите \(n=100\) подозрительных случаев. Используйте моделирование для аппроксимации априорного прогностического распределения числа больных в выборке. Это кажется разумным?
  3. Примите априорную форму (0, 1).Предположим, что в \(n=100\) подозреваемых случаях ни у кого на самом деле нет заболевания. Найдите и интерпретируйте заднюю медиану. Это кажется разумным?
\iffalse{} Решение. к примеру 9.4
  1. Мы знаем, что это редкое заболевание! Мы хотим сконцентрировать большую часть нашей априорной вероятности для \(\theta\) около 0,

  2. .
  3. Если заболевание редкое, мы можем не ожидать каких-либо фактических случаев в выборке из 100, может быть, 1 или 2. Однако априорное прогностическое распределение говорит, что любое значение между 0 и 100 фактическими случаями равновероятно! Это кажется очень необоснованным, учитывая, что заболевание встречается редко.

      theta_sim = руниф(10000)
    y_sim = rbinom (10000, 100, theta_sim)
    история(y_sim,
         xlab = "Смоделированное количество успехов",
         main = "Предварительное прогнозное распределение")  

  4. Апостериорное распределение — это бета-распределение (1, 101). Задняя медиана равна 0,007 ( qbeta(0,5, 1, 101) ). На основе выборки из 100 подозреваемых случаев без реальных случаев апостериорная вероятность 50% больше 0.7% людей страдают этим заболеванием. Показатель 7 фактических случаев на 1000 — это не очень редкое заболевание, и мы думаем, что есть 50% вероятность того, что этот показатель еще выше? Опять же, это кажется не очень разумным, основываясь на наших знаниях о том, что это заболевание встречается редко.

Распределения априорных прогнозов можно использовать для проверки обоснованности априорных данных для данной ситуации перед просмотром выборочных данных. Соответствуют ли смоделированные образцы тому, что вы могли бы ожидать от данных, исходя из ваших базовых знаний о ситуации? Если нет, другой предыдущий может быть более разумным.

байесовский метод (1). Предварительное распределение | by Xichu Zhang

Априорное распределение

Рис. 0.1 Бета-распределение с различными параметрами. (Изображение автора)

Легко найти огромное количество хороших статей о введении байесовской статистики. Однако большинство из них знакомят только с тем, что такое байесовская статистика и как работает байесовский вывод, и не затрагивают многих математических деталей. Кроме того, это интересная и сложная область для изучения.

Поэтому я планирую написать серию статей, чтобы больше рассказать о теории байесовской статистики, которая будет включать в себя выбор априорных значений, функцию потерь в байесовском выводе и взаимосвязь между байесовской статистикой и некоторыми частотными подходами. В этом посте будет представлено предварительное распределение , используемое в байесовской статистике. Зачем нам нужно этому учиться? Поскольку выбор априорного распределения — это один из первых шагов, нам нужно использовать байесовский вывод.А знание о них помогает с выбором.

Здесь мы начнем с краткого обзора того, как работает байесовская статистика, и здесь также представлены некоторые обозначения, которые мы будем использовать позже. В байесовской статистике мы предполагаем априорное распределение вероятностей, а затем обновляем его, используя имеющиеся у нас данные. Это обновление дает нам апостериорное распределение вероятностей. Мы обозначаем апостериорную вероятность как π(θ| x ) ( π может показаться очень раздражающим, поскольку это также очень распространенная константа в математике, но в этом контексте π напоминает нам, что распределение связано с параметром распределения населения) и рассчитывается как

Eq 1.1 Формула для вычисления апостериорной вероятности

где Θ — пространство (здесь под «пространством» мы понимаем «выборочное пространство») всех возможных значений параметров и π( x |θ) есть вероятность — условная вероятность того, что при истинном значении параметра, равном θ , наблюдается выход x . Поскольку θ ∈ Θ является параметром, связанным с априорным распределением n, вместо распределения населения мы можем θ гиперпараметр . И, как всегда, мы используем полужирный шрифт ( x ) для обозначения вектора. Знаменатель также известен как свидетельство , , которое является нормирующим множителем (константой), чтобы сделать апостериорную вероятность π(θ| x ) распределением вероятностей (сумма до единицы). Это очень легко проверить.

Тогда априорная вероятность может быть записана в виде . Это условная вероятность, которая представляет собой распределение вероятностей наблюдения y при данных x . Он рассчитывается как

Уравнение 1.3 Прогнозирующее распределение

, где красная часть представляет собой функцию плотности вероятности нового наблюдения при заданном параметре θ .Уравнение 1.3 поначалу может показаться немного запутанным, но после внимательного изучения мы увидим, что на самом деле оно рассчитывается с использованием закона полной вероятности (который так же прост, как взвешенное среднее) — это интегрирование произведения распределение вероятности Y при заданном значении параметра θ и вероятность того, что параметр примет значение θ при заданных данных x .

Априорную оценку иногда называют «верой» в данные.[2] Это означает, что мы выбираем априорное значение в соответствии с нашими знаниями о данных. Конечно, это не совсем субъективный вопрос, как можно предположить из слова «вера».

Свойства априора

Обратите внимание, что распределение параметра может быть неограниченным, что означает, что плотности вероятности его неотрицательны, но их сумма или интеграл бесконечны. Мы называем такое распределение параметра неправильным априорным распределением .

Согласно Википедии, информативный априор выражает конкретную, определенную информацию о переменной.Обычно этого избегают любой ценой, но если доступна априорная информация, информативные априорные данные являются подходящим способом введения информации в модель. [7]

Когда мы мало что знаем о наших данных и распределении параметра, имеет смысл выбрать так называемый «расплывчатый априор», который отражает минимальные знания. Следовательно, нам нужно априорное распределение без базы населения, что затрудняет его построение и играет минимальную роль в апостериорном распределении.Такая априорная плотность называется неинформативной априорной или диффузной априорной. И некоторые люди скорее думают, что предыдущее распределение всегда содержит некоторую информацию. Иногда для представления такого расплывчатого априора используются неправильные априорные значения. Позже мы увидим примеры этого.

Родственный термин — слабоинформативный априорный, который содержит частичную информацию, что означает, что его достаточно, чтобы дать разумные границы апостериорному распределению, но не полностью отражает научные знания о параметре.[3]

Очень интересным свойством априорного распределения является сопряженность , что означает, что апостериорное распределение имеет ту же параметрическую форму, что и априорное распределение. Мы можем видеть, что этот вид априорных данных тесно связан с апостериорными, поэтому мы говорим, что они содержат сильных априорных знаний . [5] Преимущество сопряженных априорных значений очевидно — апостериорное распределение будет известным распределением.

Примеры некоторых распространенных априорных распределений

  1. Равномерное априорное распределение

Наиболее интуитивно понятным и простым априорным является равномерное априорное распределение, если значение параметра ограничено.Этот априор неинформативен (иногда его также называют «малоинформационным априором» [2]), он предполагает, что все параметры в пространстве параметров Θ равновероятны. Например, если мы хотим использовать распределение Бернулли для моделирования данных (как в известном примере — подбрасывание монеты), параметр p — это вероятность, попадающая в интервал [0, 1] . В этом случае априорная вероятность становится π(θ) = 1 , для θ в [0, 1] .

2. Haldane Prior

Минимальные знания не обязательно означают, что все параметры равновероятны. Также возможно множество других неинформативных априорных значений. Другим примером неинформативного априора является Холдейн априор, предложенный Дж. Б. С. Холдейном для оценки редких событий. Приор Холдейна на самом деле является бета-распределением с параметром α=0, β=0. Следовательно, Haldane Prior равен

Eq. 2.1 Haldane Prior

, где B(α, β) — бета-функция.Напомним, бета-функция выглядит следующим образом:

Уравнение 2.3 Бета-функция

, которую также можно записать в терминах гамма-функции

Уравнение 2.4 Бета-функция в терминах гамма-функции

Обратите внимание, что Бета(0,0 ) не определено, но мы можем рассмотреть, к чему оно аппроксимируется в точке (0,0) , что показано на следующем графике

Уравнение 2.5 Предельное поведение бета-распределения с параметром α=0, β=0

Апостериорное распределение π(θ| x ) пропорционально θ⁻¹(1-θ)⁻¹ (напомним, что теорему Байеса можно записать в виде уравнения 1.2), что означает

Уравнение 2.6 Априор Холдейна без нормализующего коэффициента

Этот априор дает наибольший вес θ=1 и θ=0 . Это можно пояснить на примере из [5]: рассмотрим сценарий, в котором мы наблюдаем, растворится ли неизвестное соединение в воде. Сначала мы совершенно не знаем о результате. Поэтому, заметив, что растворяется небольшой образец, мы сразу же предполагаем, что это произойдет со всеми образцами; если это не так, мы предполагаем, что ни один образец не может раствориться.

3. Сопряженное априорное — бета-распределение

Третий пример — бета-распределение , это сопряженное априорное биномиальное распределение. И обратите внимание, что, поскольку распределение Бернулли является частным случаем биномиального распределения (так же, как B(1, 1) ), бета-распределение также является сопряженным априором распределения Бернулли. Это типичный пример сопряженного априора (он появился в Википедии, [3] и ).

Здесь мы покажем, почему бета-распределение сопряжено биномиальному распределению.Во-первых, напомним, что функция массы вероятности биномиального распределения равна

. Уравнение 2.7 Функция массы вероятности (pmf) биномиального распределения

, где n — общее количество испытаний, k — количество успешных попыток, а p — вероятность успеха. Следовательно, вероятность равна

. Уравнение 2.8 Вероятность

Ссылаясь на то, что мы видели в разделе основ, вероятность обозначается как π( x |θ) , где x

7 наблюдаемое значение, поэтому

x = (k, n-k).Это означает, что

параметры биномиального распределения становятся наблюдаемым значением, а «параметром» в этой вероятности является гиперпараметр.

Затем мы выбираем бета-распределение в качестве априорного. Мы хотим показать, что апостериорное распределение того же типа, что и априорное.

Уравнение 2.9 Выберите бета-распределение в качестве предшествующего.

Апостериорное распределение получается следующим образом.

4. Приор Джеффриса

Приор Джеффриса — это неинформативный априор, определяемый в терминах квадратного корня из определителя информационной матрицы Фишера.

Def 2.11 Определение Джеффриса до

Информация Фишера и информационная матрица Фишера были представлены здесь, но для удобства мы также упоминаем их здесь снова. Первоначально информация Фишера определяется как дисперсия оценки

Def 2.12 Определение информации Фишера

, где нижний индекс θ означает, что ожидаемое значение относится к θ, а матричная форма записывается как

Уравнение 2 .13 Информационная матрица Фишера

, но при некоторых определенных условиях (функция плотности f является дифференцируемой второго порядка и условиями регулярности, хорошее резюме которых можно найти здесь).

Уравнение 2.14 Информация Фишера при определенных условиях

Уравнение 2.14 представляет собой формулу для случая с одной переменной (когда имеется несколько параметров, мы используем матричную форму). Давайте попробуем вычислить априор Джеффриса для испытания Бернулли, которое представляет собой случай с одной переменной. Есть причины, по которым мы используем этот дистрибутив для демонстрации, которые мы увидим позже.Мы знаем, что распределение вероятностей распределения Бернулли равно

. Уравнение 2.15. Функция плотности распределения Бернулли

. Теперь нам нужно рассчитать информацию Фишера для функции плотности (уравнение 2.15). одномерная (одна переменная), информация Фишера — это просто число, которое также является определителем, и у нас есть априорное распределение

Уравнение 1.27

Внимательно посмотрите на уравнение 1.27, и мы обнаружим, что априор Джеффриса похож на Холдейн настоятель.Но в отличие от приора Холдейна, приор Джеффриса правильный. График уравнения 1.27 выглядит следующим образом.

Резюме

Этот пост в основном посвящен априорному распределению в байесовском выводе. В начале кратко представлены основы байесовского вывода. Затем мы смотрим на типы априорных распределений, а затем выбираем некоторые общие априорные распределения.

Ссылки :

[1] Lee, T.S., & Mumford, D. (2003). Иерархический байесовский вывод в зрительной коре . JOSA A , 20 (7), 1434–1448.

[2] Surya, Tokdar, Выбор предыдущего распространения , по состоянию на 4 декабря 2021 г.

[3] Гельман, А., Карлин, Дж. Б., Стерн, Х. С., и Рубин, Д. Б. (1995). Байесовский анализ данных . Чепмен и Холл/CRC.

[4] Эц, А., и Вагенмакерс, Э.Дж. (2017). Вклад Дж. Б. С. Холдейна в проверку гипотезы фактора Байеса. Статистическая наука , 313–329.

[5] Джейнс, Э. Т. (1968). Априорные вероятности. IEEE Transactions по системным наукам и кибернетике , 4 (3), 227–241.

[6] Стэнфорд, Дж. Л., и Вардеман, С. Б. (1994). Статистические методы для физических наук (Том 28). Академическая пресса.

[7] Гольчи, С. (2016, октябрь). Информативные априорные и байесовские вычисления.На международной конференции IEEE 2016 г. по науке о данных и расширенной аналитике (DSAA) (стр. 782–789). IEEE.

[8] Нисенбойм, Б., Шад, Д. Дж., и Васишт, С. (2021). Введение в байесовский анализ данных для когнитивной науки .

[9] Jeremy Orloff and Jonathan Bloom, Conjugate Priors: Beta и normal , по состоянию на 11 декабря 2021 г. Для получения дополнительной информации о теории вероятностей:

Для получения дополнительной информации о сравнении байесовского и частотного подходов:

Дополнение :

код, использованный для создания рисунка 0.1

 x.v <- seq(0, 1, by=0.01) 
n <- length(x.v)
m <- матрица(nrow=n, ncol=1) для (i in seq(0.1, 5, 0.3) ) {
y.v <- dbeta(x.v, shape1=i, shape2=15)
m <- cbind(y.v, m)
}
for (j in seq(0.1, 5, 0.3)) {
y.v <- dbeta (x.v, shape1=15, shape2=j)
m <- cbind(y.v, m)
}
for (i in seq(0.1, 10, 1)) {
y.v <- dbeta(x.v, shape1=i, shape2=i)
m <- cbind(y.v, m)
}
n.c <- ncol(m)
n.c
# удалить последний столбец с Nas
m <- m[,-n.c]
par(mar = c(3, 4, 1, 2))
matplot(x=x.v, y=m, type="l", col="black", ylim=c(0,11), xlab="", ylab="PDF")

Границы | Важность априорного анализа чувствительности в байесовской статистике: демонстрации с использованием интерактивного приложения Shiny

Введение

Благодаря недавнему систематическому обзору литературы по психологическим наукам мы знаем, что использование байесовских методов растет (van de Schoot et al., 2017). Однако этот обзор также выявил неприятный факт: многие прикладные пользователи байесовских методов не применяют должным образом методы или не сообщают о них.Целью данной статьи является решение одного из основных вопросов, выделенных в этом систематическом обзоре, а именно изучение влияния предшествующих распределений с помощью анализа чувствительности. Понимание влияния априорных значений, а затем принятие последующих решений по этим априорным данным, возможно, является самым сложным элементом реализации байесовских методов. Многие пользователи байесовских методов оценки пытаются избежать этой проблемы, используя «рассеянные» априорные значения, но это не всегда жизнеспособный подход, поскольку некоторым моделям требуются информативные априорные значения.Влияние априорных значений (рассеянных или иных) в значительной степени зависит от проблем, связанных со сложностью модели и структурой данных. Наша статья посвящена тому, как прозрачно исследовать влияние предыдущих распределений.

В качестве мотивирующего примера мы провели небольшое имитационное исследование, иллюстрирующее влияние различных предварительных спецификаций на окончательные результаты моделирования. Это имитационное исследование показывает важность тщательного изучения влияния предварительных данных с помощью анализа чувствительности.Мы также разработали интерактивное веб-приложение (например, Shiny App), чтобы пользователи могли больше узнать о влиянии априорных данных и необходимости анализа чувствительности в эмпирических ситуациях. Это приложение позволяет пользователям изучить влияние различных настроек предварительного распределения на окончательные результаты модели, гарантируя, что пользователь полностью осознает существенное влияние предварительного выбора. Изучение влияния априорных данных имеет центральное значение для того, являются ли байесовские результаты жизнеспособными, полностью понятными и правильно переданными.Наше приложение Shiny помогает проиллюстрировать эту проблему.

Цели текущей статьи

Данная статья предоставляет читателям пошаговый способ осмысления байесовской статистики и использования априорных значений. Априорные распределения оказываются одним из наиболее важных элементов любого байесовского анализа, в основном из-за того, какой вес и влияние они могут иметь в отношении окончательных результатов моделирования и существенных выводов. Наши цели следующие:

1. Предложите читателям дружеское введение в байесовские методы и использование априорных значений.Мы стремимся сделать документ доступным для людей, представляющих широкий спектр статистических знаний, а также из самых разных областей.

2. Проиллюстрируйте тот факт, что изучение влияния априорных данных является невероятно важной задачей при интерпретации окончательных результатов моделирования в условиях прикладного исследования. Мы используем небольшое симуляционное исследование, чтобы проиллюстрировать этот момент.

3. Представить новое интерактивное приложение Shiny, которое мы разработали, чтобы помочь визуализировать важные элементы предыдущего анализа чувствительности.

4. Продемонстрируйте потенциальное влияние предшествующих событий на эмпирическом примере с использованием интерактивного приложения Shiny и предоставленных нами данных, которые предоставляют читателям инструмент для изучения предшествующих воздействий в практической обстановке.

5. Представьте набор часто задаваемых вопросов, касающихся априорных данных и априорного анализа чувствительности, а также откровенные ответы на каждый вопрос.

Предполагаемая аудитория и организация статьи

Этот документ предназначен для начинающих пользователей байесовской методологии.Мы разработали документ, чтобы помочь студентам и исследователям из самых разных статистических областей. Например, студенты бакалавриата могут найти приложение Shiny полезным для экспериментов с некоторыми основами байесовской статистики и визуализации того, как выглядят различные предварительные настройки. Более продвинутые аспиранты или исследователи могут счесть симуляционное исследование полезной иллюстрацией для понимания важности предшествующих анализов чувствительности. В свою очередь, они также могут счесть приложение, представленное в Shiny App, особенно полезным для понимания конкретного влияния априорных оценок на представленную здесь модель.Статья и приложение Shiny были созданы, чтобы помочь студентам и исследователям из самых разных областей социальных и поведенческих наук, и все материалы для реконструкции представленных здесь анализов доступны в Интернете по адресу: https://osf.io/eyd4r. /.

Оставшаяся часть этого документа организована следующим образом. В следующем разделе освещаются основные причины, по которым можно потенциально захотеть использовать байесовские методы в контексте прикладных исследований. Одна из основных причин, которую мы рассматриваем в этом разделе, заключается в том, что некоторые исследователи могут захотеть включить предыдущие знания в процесс оценки.Обычно это делается с помощью чего-то, называемого предварительным распространением (или до ), и в следующем разделе описывается потенциальное влияние априоров. Этот раздел особенно актуален для приложения Shiny, которое мы разработали, и проблемы, связанные с априорными анализами, в значительной степени остаются ключевыми в распознавании случаев неправильного использования или неточности байесовских методов.

Далее мы представляем информацию о модели множественной регрессии, на которую есть ссылки в последующих разделах.Затем мы представляем небольшое симуляционное исследование, целью которого является выявление влияния различных предварительных настроек на точность полученных окончательных оценок модели. Эти результаты подводят к важности проведения предварительного анализа чувствительности. В следующем разделе представлена ​​информация о нашем приложении Shiny, о том, как оно работает и какую пользу читатели могут извлечь из его использования. Мы подчеркиваем, как приложение можно использовать, чтобы узнать больше о важном вопросе предварительного анализа чувствительности в байесовской статистике, а также мы предоставляем интерактивную платформу для читателей, чтобы они могли глубже понять описанные здесь вопросы.Наконец, документ завершается обсуждением часто задаваемых вопросов, касающихся предшествующего анализа чувствительности, а также окончательными соображениями о важности прозрачности в исследованиях, проводимых с использованием байесовской модели оценки.

Почему байесовские методы полезны в прикладных исследованиях?

Существует множество причин, по которым исследователь может предпочесть байесовскую оценку традиционной частотной оценке (например, метод максимального правдоподобия). Основные причины использования байесовских методов следующие: (1) модели слишком «сложны» для традиционных методов (см.г., Депаоли, 2013; Ким и др., 2013 г.; Цецюх и др., 2014; Депаоли и Клифтон, 2015 г.; Zondervan-Zwijnenburg et al., 2019), (2) доступны только относительно небольшие размеры выборки (см., например, Zhang et al., 2007; Depaoli et al., 2017a; Zondervan-Zwijnenburg et al., 2019), (3 ) исследователь хочет, чтобы включил справочную информацию в процесс оценки (см., например, Zondervan-Zwijnenburg et al., 2017), и (4) предпочтение отдается типам результатов, которые дают байесовские методы (см.г., Крушке, 2013). Важно отметить, что независимо от причин, по которым были реализованы байесовские методы, всегда важно включать анализ чувствительности априорных значений. В последующих разделах мы более подробно обсудим этот вопрос априоров.

Что мы знаем о влиянии приоров?

Байесовская литература (с использованием данных моделирования и прикладных данных) выявила несколько важных результатов, связанных с потенциальным влиянием предшествующих распределений на окончательные результаты моделирования.Некоторая литература показала, что априорное влияние сильно зависит от сложности модели, и невероятно важно полностью изучить влияние априорных оценок на окончательные оценки модели. В этом разделе мы раскроем этот вопрос немного подробнее, выделив причины, по которым может возникнуть желание изучить свои априорные данные.

Priors может повлиять на результаты (иногда в значительной степени!)

Одной из причин, по которой использование байесовских методов считается спорным, является представление о том, что априорные значения могут (и влияют!) влиять на окончательные результаты модели.В практическом смысле это означает, что у исследователя может быть очень твердое мнение о значениях параметров модели, и это мнение (через априорную информацию) может влиять на окончательные оценки модели. В байесовском контексте существует множество исследовательских сценариев, в которых информативные (или заданные пользователем) априорные значения влияют на окончательные оценки модели. Некоторые примеры включают исследования с использованием таких моделей, как смешанная модель латентного роста (Depaoli et al., 2017b; van de Schoot et al., 2018), аналитическая модель подтверждающих факторов (Golay et al., 2013) и логистической регрессии (Heitjan et al., 2008).

Верно и обратное: литература показала, что полностью размытые априорные значения могут также влиять на окончательные результаты модели. Хотя байесовская теория указывает на то, что большие размеры выборки могут превзойти (или переполнить) информацию в априорной модели (см., например, Ghosh and Mukerjee, 1992), некоторые исследования показывают, что диффузные априорные оценки могут влиять на окончательные оценки модели даже при больших размерах выборки — иногда в неблагоприятным образом. Примеры моделирования ситуаций, когда диффузные априорные данные, как было показано в моделировании, отрицательно влияют на окончательные оценки модели, включают модели пробит-регрессии (Natarajan and McCulloch, 1998), метаанализ (Lambert et al., 2005), теория отклика элементов (Sheng, 2010), моделирование структурными уравнениями (van Erp et al., 2018), из которых также представлены рекомендации по анализу чувствительности для моделей структурных уравнений, смешанных моделей скрытого роста (Depaoli, 2013) и многоуровневые модели структурных уравнений (Depaoli and Clifton, 2015). Во всех этих случаях исследователи обнаружили, что диффузные априорные факторы оказали существенное (негативное) влияние на полученные оценки.

Для одних параметров труднее получить точные оценки, чем для других.В частности, более сложные модели (особенно в сочетании с выборками меньшего размера) могут потребовать дополнительной информации для определенных параметров модели, чтобы дополнить более плоские вероятности. Например, в некоторых наших собственных исследованиях дисперсии может быть труднее оценить, чем средние, когда вероятность относительно более пологая (и более пиковая для среднего). Модели со многими параметрами, которые трудно оценить, могут потребовать более информативных априорных значений, по крайней мере, для некоторых параметров модели.Если параметр связан с более плоской вероятностью и реализованы диффузные априорные значения, то может быть недостаточно информации (от вероятности данных или априорной вероятности) для получения точной оценки. Наиболее распространенные случаи, когда эта проблема возникает, связаны с более сложными моделями (например, смешанными моделями, многоуровневыми моделями или моделями со скрытыми переменными), но проблема достаточно распространена, поэтому влияние априорных значений следует изучать независимо от информативности априорных настроек. . Важный вывод из этого должен заключаться в том, чтобы не полагаться слепо на предыдущие настройки без понимания их влияния, даже если они предназначены для диффузного или программно-определяемого значения по умолчанию.

Если априорное значение используется для включения степени (не)определенности, связанной с параметром модели, то мы ожидаем, что оно окажет какое-то влияние. Однако очень важно понимать это влияние и учитывать его при принятии существенных выводов. Поэтому байесовские эксперты часто соглашаются с тем, что важным и необходимым элементом байесовской оценки является включение анализа чувствительности априорных значений.

Что такое анализ чувствительности априоров?

Анализ чувствительности позволяет исследователю изучить окончательные результаты модели, основанные на исходном (или эталонном) априорном, по отношению к результатам, которые были бы получены с использованием других априорных значений.Многие байесовские эксперты (например, Muthén and Asparouhov, 2012; Kruschke, 2015) рекомендуют всегда проводить анализ чувствительности, и даже был разработан контрольный список (Depaoli and van de Schoot, 2017), который помогает в том, как проводить и интерпретировать такие результаты прозрачным образом. Прикладные статьи, реализующие анализ чувствительности априорных данных, см.: Müller (2012), Depaoli et al. (2017a) или van de Schoot et al. (2018).

Процесс происходит следующим образом:

1.Исследователь заранее определяет набор априорных значений, которые будут использоваться для оценки модели. Эти априорные значения могут быть априорными значениями по умолчанию из статистического программного обеспечения или могут быть заданы пользователем на основе предыдущего знания параметров модели (например, на основе простого предположения, метаанализа предыдущей литературы, интервью с экспертами по контенту и т. д.). ).

2. Модель оценена и получена сходимость для всех параметров модели.

3. Исследователь предлагает набор «конкурирующих» априорных значений для изучения; мы опишем, как может выглядеть этот набор априорных значений, в примерах ниже.Суть тут а не переделывать оригинальную приору. Скорее, это проверка того, насколько надежными являются первоначальные результаты при изменении априорных значений и переоценке модели. Это также может быть метод, используемый для определения априорных значений, которые послужат плохим выбором для модели или вероятности — вопрос, который мы подробнее рассмотрим в ходе обсуждения.

4. Результаты получаются для «конкурирующих» априорных значений, а затем сравниваются с первоначальными результатами посредством серии визуальных и статистических сравнений.

5. Окончательные результаты модели записываются, чтобы отразить исходные результаты модели (полученные в пункте 1 из исходных априорных значений), а также представлены результаты анализа чувствительности, чтобы прокомментировать, насколько надежна (или нет) окончательная модель. результаты относятся к различным предварительным настройкам.

Последний пункт особенно важен. Систематический обзор байесовской статистики в психологических науках (van de Schoot et al., 2017) показал, что об анализе чувствительности сообщалось только в 16 случаях.2% прикладных исследований в течение 25 лет. Это означает, что в большинстве прикладных байесовских статей, опубликованных в этой области, роль или влияние априорных значений не изучались тщательно.

Одним из самых больших способов изучения роли или влияния априорных значений может быть визуальное изучение результирующих апостериорных распределений во многих различных априорных настройках. Мы расскажем о некоторых важных способах визуализации априорных данных и результатов анализа чувствительности в следующем разделе при представлении нашего интерактивного приложения Shiny.

Наглядные пособия здесь особенно важны, потому что они могут помочь исследователю легче определить: (1) насколько различны или сходны апостериорные распределения при формировании разных настройки) по существу важно. В конце концов, этот последний пункт действительно важнее всего. Если несколько наборов априорных значений дают немного разные апостериорные оценки, но результаты по существу сопоставимы, то результаты демонстрируют стабильность (или устойчивость) при различных априорных настройках.В этом случае исследователь может быть более уверенным в том, что предварительная установка не оказывает существенного влияния на основные выводы.

Можно понять, что эти последние утверждения означают, что мы подразумеваем, что противоположные результаты будут каким-то образом отрицательными или плохими. Другими словами, есть ли проблема, если результаты моего анализа чувствительности показывают, что результирующие апостериорные изменения существенно значимы при изменении априорных? Ответ - нет. Здесь не обязательно «проблема». Для исследования, основанного на теории, невероятно информативно обнаружить, что результаты зависят от конкретной теории (т.д., предшествующий) реализуется. Это вовсе не плохой результат . Это просто тот, который требует немного больше внимания при описании. Какими бы ни были результаты анализа чувствительности (например, стабильны результаты или нет), они должны быть подробно изложены в разделах документа, посвященных результатам и обсуждению. Эти результаты могут быть представлены в виде визуальных изображений апостериорных показателей из нескольких наборов априорных данных, определенных с помощью анализа чувствительности. Аналогичным образом, результаты также могут быть представлены в статистической форме, где процентное «смещение» или отклонение вычисляется для оценок параметров, полученных при различных предварительных настройках.Другой альтернативой при работе с диффузными априорными данными может быть отчет о результатах по ряду диффузных априорных значений в качестве основного анализа. Эта тактика может облегчить иллюстрацию неопределенности, связанной с точной априорной спецификацией, особенно если различные размытые априорные данные дают разные результаты.

Если априорные значения сдвинуты лишь на небольшую величину в анализе чувствительности и в результате получаются очень разные результаты, то было бы полезно более внимательно изучить код модели, чтобы убедиться, что все указано правильно.Тем не менее, незначительные и умеренные сдвиги в существенных выводах не вызывают беспокойства, и их следует просто сообщать вместе с выводами, а затем рассматривать в разделе обсуждения, чтобы узнать что-то о надежности результатов при различных предыдущих условиях.

Обратите внимание, что исходные предыдущие настройки не изменяются в процессе анализа чувствительности. Вместо этого представлены результаты анализа чувствительности, и их можно использовать в качестве доказательства того, что априорные значения должны быть каким-то образом сдвинуты в будущем анализе другого набора данных.По соображениям прозрачности важно сохранить первоначальный априор и не изменять его из-за чего-то, что было раскрыто в ходе анализа чувствительности. Это было бы примером байесовского HARKing (выдвижения гипотез после того, как результаты известны; Kerr, 1998), что так же сомнительно, как и частное HARKing.

Моделирование проверки концепции: иллюстрация влияния Priors

Далее мы представляем небольшое исследование моделирования, иллюстрирующее влияние различных предварительных настроек на окончательные оценки модели.Поскольку невозможно узнать истинное значение параметра генеральной совокупности в приложении, невозможно узнать, сколько ошибок содержится в оценках, если только не будет проведено имитационное исследование. Это симуляционное исследование закладывает основу для важности изучения предварительного воздействия в приложении, концепции, на которой мы сосредоточимся в интерактивном приложении Shiny, представленном в следующем разделе.

Модель

Для иллюстрации мы использовали модель множественной регрессии, которая является очень распространенной моделью, встречающейся в литературе по прикладной психологии.В свою очередь, он также служит основой для многих других продвинутых моделей [например, (многоуровневых) моделей смешанной регрессии или моделей скрытой кривой роста]. Эти причины делают модель множественной регрессии хорошим кандидатом для демонстрации. Кроме того, мы чувствовали, что эта модель, даже если она незнакома читателю, может быть концептуально описана и понята без глубоких базовых знаний о модели. Хотя мы ограничиваем наше обсуждение множественной регрессией, принципы предшествующего анализа чувствительности, которые мы демонстрируем, могут быть широко распространены на другие формы моделей (например,ж., модели кривой роста, подтверждающий факторный анализ, смешанные модели).

Эта модель использовалась в различных условиях исследований в области социальных наук и наук о поведении. Например, его использовали для прогнозирования успеваемости (Adeyemo, 2007), уверенности в себе (Kopala-Sibley et al., 2013) и качества сна (Luyster et al., 2011). Основа модели включает единственную (непрерывную) переменную результата, которая предсказывается несколькими различными предикторными переменными; модель можно найти на рисунке 1A.На этом рисунке есть одна переменная результата (обозначенная «Y») и два коррелированных предиктора (обозначенные « X 1 X 2 ») с весами регрессии β 1 − β 2 .

Рисунок 1. (A) Модель множественной регрессии, используемая в имитационном исследовании, с одной переменной результата, Y , и двумя предикторами, X 1 X 2 . (B) Модель множественной регрессии, использованная в прикладном примере, с результатом Цинизм и двумя предикторами.

Байесовские методы могут быть реализованы в этом контексте моделирования относительно простым способом. Для базовой формы модели, как показано на рисунках 1A, B, исследователь может быть особенно заинтересован в размещении информативных априорных значений весов регрессии (т. е. направленных путей на рисунке), которые связывают предикторы с результатом. В этом случае это может означать, что у исследователя есть определенное представление (или теория) о том, как соотносятся переменные, а также о том, насколько сильным предиктором может быть каждая переменная в модели.

Обычно информативность априора определяется одной из трех категорий: информативной, слабоинформативной и диффузной. Информативные априорные значения обычно понимаются как априорные с большим объемом информации, окружающей конкретный параметр. Это означает, что большая вероятностная масса колеблется над относительно узким диапазоном возможных значений параметра. Например, на рис. 2А показан информативный априорный показатель с суженной вариацией вокруг среднего значения 75.Слабоинформативным априорным является тот, который имеет больший разброс или вариацию, чем информативный априорный. Рисунок 2B иллюстрирует слабо информативную априорную ситуацию, выделяя более широкий разброс распределения. Наконец, диффузный априор — это тот, который практически не дает информации о значении параметра. Один из способов концептуализации этой априорной формы состоит в том, чтобы использовать нормальный априор с очень широкой дисперсией, что делает его фактически плоским в широком диапазоне значений. Рисунок 2C иллюстрирует диффузную предварительную настройку для нормального распределения.На всех трех графиках нормальный априор был сосредоточен на 75, но дисперсия априорных значений различалась от небольшой (рис. 2А) до большой (рис. 2С).

Рисунок 2. Примеры предшествующих. распределений: (А) информативных, (Б) слабоинформативных и (В) диффузных.

Далее мы покажем, как априорные значения могут повлиять на окончательные оценки модели, даже для такой простой модели, как модель множественной регрессии. В частности, мы провели небольшое симуляционное исследование, иллюстрирующее влияние различных предварительных настроек.

Дизайн моделирования

В имитационном исследовании использовалась модель множественной регрессии, показанная на рис. 1А. Он содержал два непрерывных предиктора, параметр корреляции, связывающий эти предикторы, и непрерывный результат. Значения совокупности для этих параметров перечислены в таблице 1. В этом моделировании мы реализовали различные наборы априорных значений для коэффициентов регрессии, связывающих два предиктора с результатом. Эти предварительные состояния перечислены в таблице 1. Всего было исследовано 11 предшествующих условий на размер выборки.

Таблица 1. Значения совокупности и условия моделирования для модели множественной регрессии.

Условия 1–5 определяют информативные априорные значения параметров регрессии, связывающие каждый из предикторов с результатом. Не все эти информативные априорные значения были правильными в том смысле, что некоторые из них имели неточные средние настройки гиперпараметров для априорных значений (т. Условие 3 является правильным информативным априорным, поскольку оно сосредоточено на значении генеральной совокупности и имеет относительно узкую дисперсию.У условий 1–2 априорные значения были смещены вниз по сравнению со значением генеральной совокупности, а у условий 4–5 априорные значения были сдвинуты вверх.

Условия 6–10 представляли собой слабоинформативные априорные значения в том смысле, что гиперпараметр дисперсии был увеличен по сравнению с информативными условиями (1–5). Та же картина была показана, когда условие 8 представляло предыдущую настройку со средним гиперпараметром, который был точным для значения популяции. В условиях 6–7 средние значения гиперпараметров были смещены вниз относительно истинности генеральной совокупности, а в условиях 9–10 средние значения гиперпараметров были сдвинуты вверх.

Наконец, условие 11 представляло собой диффузный априор, в котором были реализованы настройки по умолчанию из M плюс (Muthén and Muthén, 1998–2017) для параметров регрессии. Каждое из этих состояний представляло собой либо информативные (1-5), либо слабоинформативные (6-10), либо диффузные априорные факторы. В условиях информативности и слабоинформативности задавались (по среднему гиперпараметру) либо точные априоры (3 и 8), либо сдвинутые вниз априоры (1–2, 6–7), либо априоры, сдвинутые вверх от истины (4–5). , 9–10).Цель этих условий состояла в том, чтобы выделить закономерности отклонения в анализе чувствительности с акцентом на чувствительность результатов к среднему гиперпараметру (т. е. точности среднего априорного) и гиперпараметру дисперсии (т. распределение).

Кроме того, мы также изучили результаты по трем разным размерам выборки: n = 25, 100 и 1000. Эти размеры выборки варьировались от относительно небольших до относительно больших, и они были выбраны для предоставления информации о том, как априорные факторы по-разному влияют на результаты. по мере изменения размеров выборки.

Всего в этой симуляции было 33 ячейки, и мы запросили 500 итераций для каждой ячейки. Все анализы проводились в M plus версии 8.4 (Muthén and Muthén, 1998–2017) с использованием байесовской оценки с выборкой Гиббса. Для простоты все ячейки были настроены так, чтобы иметь одну цепочку для каждого параметра, с 5000 итераций в цепочке, а первая половина отбрасывалась как прожиг (т. Конвергенцию контролировали с помощью потенциального коэффициента уменьшения масштаба (PSRF или R-hat; Gelman and Rubin, 1992a, b), и все цепи сходились для всех ячеек в плане при настройке 1.01 для критерия сходимости. Другой показатель, который можно проверить, — это эффективный размер выборки (ESS), который напрямую связан со степенью зависимости (или автокорреляции ) в цепочке. Zitzmann and Hecht (2019) рекомендуют, чтобы количество ESS составляло более 1000, чтобы обеспечить достаточную точность в цепочке. Результаты моделирования показали, что, несмотря на то, что части цепи после прожига были только 2500 итераций, все параметры превышали минимум ESS = 1000 в исследованных ячейках.

Результаты моделирования

В таблице 2 представлена ​​относительная процентная погрешность для всех параметров модели в зависимости от размеров выборки и 11 предварительных условий. Следует отметить, что условия 3 и 8 представляют собой точные априорные значения (информативные и слабоинформативные соответственно), а условие 11 отражает размытые априорные настройки. Все остальные априорные значения либо сдвигаются вверх, либо вниз, как это было бы реализовано в анализе чувствительности. Значения, выделенные жирным шрифтом в таблице, представляют проблемные уровни смещения, превышающие ±10%.

Таблица 2. Процентная погрешность оценки параметра модели (MSE) для исследования моделирования.

Наиболее заметным открытием является то, как влияние априорных значений уменьшается по мере увеличения размера выборки. К тому времени, когда размер выборки был увеличен до 90 620 n 90 621 = 1000 (что было бы довольно много для такой простой модели), предыдущие настройки практически не повлияли на результаты. Однако при меньших размерах выборки, особенно при 90 620 n 90 621 = 25, мы видим заметное влияние на результаты.Поскольку априорные значения параметров регрессии были сдвинуты, систематическая ошибка увеличилась по величине. Этот эффект имел место в более экстремальных условиях, даже когда 90 620 n 90 621 = 100, что не является неразумным размером выборки, ожидаемым в прикладных исследованиях, реализующих такую ​​модель.

Среднеквадратичные ошибки (MSE) также представлены в таблице 2 для каждого параметра. MSE представляет собой меру изменчивости и систематической ошибки. Обратите внимание, что значения MSE довольно высоки для n = 25, но они уменьшаются до относительно меньшего диапазона по мере увеличения размера выборки до n = 100 и выше.Эта закономерность указывает на то, что размер выборки играет большую роль в эффективности и точности оценок, измеренных с помощью MSE. Кроме того, MSE намного больше для априорных значений, которые центрированы вдали от значения генеральной совокупности.

Практическое значение этого моделирования показало, что априорные значения могут влиять на результаты (что бесспорно в байесовской литературе), даже когда размер выборки является тем, что мы могли бы считать разумным. Этот факт делает анализ чувствительности незаменимым при изучении влияния априорных значений на окончательные результаты модели, а изучение априорного влияния особенно важно при меньших размерах выборки.На практике исследователи не знают , соответствуют ли субъективные априорные предположения истине. Мы утверждаем, что исследователи должны предполагать, что априорные значения имеют по крайней мере некоторую степень неточности, и они должны оценивать влияние априорных значений на окончательные оценки модели, помня об этом понятии. Единственный способ по-настоящему изучить влияние априорных данных при работе с эмпирическими данными — провести анализ чувствительности.

Это доказательство концепции моделирования обеспечивает основу для приложения Shiny, которое использует эмпирические данные, чтобы дополнительно проиллюстрировать важность проведения анализа чувствительности.В следующем разделе мы представляем приложение Shiny в качестве образовательного инструмента для выявления влияния предыдущих настроек. Основная цель приложения — проиллюстрировать процесс проведения анализа чувствительности, а также тип результатов, которые следует изучить и сообщить при распространении результатов анализа. В частности, мы описываем, как можно манипулировать настройками, чтобы изучить влияние априорных значений на окончательные результаты модели. Приложение Shiny можно использовать для более глубокого понимания влияния априорных оценок, а также для понимания различных элементов, необходимых для правильного отображения результатов анализа чувствительности.

Анализ чувствительности в действии: интерактивное приложение

Чтобы проиллюстрировать важность и использование предварительного анализа чувствительности, мы создали интерактивное приложение с использованием rstan (Stan Development Team, 2020 г.), Shiny (Chang et al., 2020 г.) и RStudio (R Core Team, 2020 г.; RStudio Team, 2020 г.). ). Доступ к приложению можно получить онлайн по адресу https://ucmquantpsych.shinyapps.io/sensitivityanalysis/. Кроме того, он доступен для загрузки на Open Science Framework. Чтобы запустить приложение на своем персональном компьютере, откройте пользовательский интерфейс .R и server.R в RStudio и нажмите ссылку «Запустить приложение» в верхнем правом углу раздела R Script окна RStudio. За дополнительной информацией о Shiny Apps обращайтесь к команде RStudio (2020).

Наше приложение состоит из семи разных вкладок, каждая из которых содержит информацию, которая поможет пользователю понять, как оценить существенное влияние предварительного выбора. При первой загрузке приложения по умолчанию используется первая вкладка. На этой вкладке представлено приложение, описаны основные этапы анализа чувствительности и описаны другие вкладки приложения.На второй вкладке представлен вымышленный исследователь и его исследование. В частности, исследователь собрал выборку из 100 участников, чтобы выяснить, предсказывает ли пол человека или отсутствие доверия к другим цинизм человека (см. Рисунок 1B для иллюстрации модели). На вкладке обсуждаются априорные распределения, указанные исследователем. Хотя большинство априорных распределений относительно диффузны (т. е. плоские), исследователь указывает информативный априор для регрессионного эффекта цинизма на недоверие.Остальная часть вкладки посвящена оценке апостериорных результатов исходного анализа с использованием кривых, апостериорных графиков плотности и гистограмм, а также соответствующих сводных статистических данных [например, апостериорное среднее, SD, 90%-й интервал максимальной апостериорной плотности (интервал HPD) ].

В следующих четырех вкладках пользователи могут указать альтернативные априорные распределения для каждого параметра в модели: пересечение цинизма (третья вкладка), регрессионное влияние цинизма на пол (четвертая вкладка), влияние цинизма на недоверие ( пятая вкладка) и остаточная дисперсия цинизма (шестая вкладка).На этих вкладках априорные значения для других параметров остаются постоянными. Пользователь может указать и оценить влияние двух альтернативных предыдущих распределений одновременно. Каждый раз, когда указывается новый набор априорных значений, с помощью пакета rstan запускаются дополнительные анализы. Вкладки содержат визуальные и числовые сравнения, которые могут помочь оценить влияние указанных предыдущих распределений.

На седьмой вкладке пользователи могут комбинировать альтернативные априорные спецификации из предыдущих четырех вкладок, чтобы исследовать комбинированное влияние альтернативных априорных оценок на апостериорные оценки.Использование приложения будет продемонстрировано в следующем разделе.

Процесс анализа чувствительности

В этом разделе мы будем использовать приложение Shiny для выполнения и отчета об анализе чувствительности. Первым шагом является определение исходных (сравнительных) априорных значений, которые должны быть реализованы в расследовании. Затем исследователь проведет анализ чувствительности, чтобы проверить надежность результатов при различных предварительных спецификациях. Исследователь должен указать альтернативные априорные значения для изучения в процессе анализа чувствительности.В этом разделе мы остановимся на анализе чувствительности для двух параметров модели, оба из которых можно получить с помощью нормального распределения. Хотя существует множество форм распределения, которые могут принимать априорные распределения, нормальное распределение является эффективной отправной точкой, поскольку оно наглядно иллюстрирует различные формы, которые может принимать нормальное априорное распределение. В результате мы обсуждаем анализ чувствительности с точки зрения этого априора, но важно признать, что проблемы и процессы, которые мы выделяем, могут быть распространены на другие формы распределения.Например, анализ чувствительности для остаточной дисперсии цинизма также можно проверить через приложение. Приоритет для этого параметра соответствует обратному гамма-распределению (IG). В дополнение к сопряженным распределениям (т. е. априорное и апостериорное распределения относятся к одному и тому же семейству вероятностных распределений), используемым в приложении, также можно исследовать несопряженные априорные распределения (например, эталонный априорный). Мы не включали альтернативные, несопряженные дистрибутивы в наше приложение, так как считали, что это будет отвлекать от его основной педагогической цели.Для получения дополнительной информации о несопряженных априорных значениях см. Gelman et al. (2014, стр. 36+). Пример описания предыдущего анализа чувствительности можно увидеть в Приложении.

Указание априорных значений для некоторых параметров модели

Приоры указаны по всем параметрам модели. В этом примере мы сосредоточимся только на двух параметрах модели, чтобы проиллюстрировать процесс анализа чувствительности. Эти два параметра являются коэффициентами регрессии, связывающими два предиктора с результатом Цинизм .Отдельный анализ чувствительности может быть проведен по каждому параметру, а другой анализ исследует объединенную спецификацию априорных значений. Этот последний комбинированный анализ помогает точно определить совокупное влияние набора альтернативных априорных значений на все параметры модели.

Параметр 1:
Цинизм на Секс

Исследователь может изучить конкурирующие предшествующие спецификации на предмет влияния Цинизм на Секс . Например, если эксперты первоначально предположили, что эффект Sex отсутствует, то можно было бы указать априор, такой как N (0,10), где основная часть распределения сосредоточена вокруг нуля.Обратите внимание, что этот априор слабо информативен вокруг нуля (т. Е. Он все еще содержит достаточный разброс относительно среднего значения, в отличие от строго информативного). Ради этого примера эту априорную настройку можно рассматривать как исходную априорную в анализе.

Альтернативные априорные спецификации могут быть изучены с помощью анализа чувствительности, чтобы изучить влияние различных априорных оценок (возможно, отражающих различные существенные теории) на окончательные результаты модели. Например, другая теория может утверждать, что мужчины (кодированные как 1) обладают более высоким уровнем цинизма, чем женщины, что предполагает положительный эффект.Информативное априорное значение, сосредоточенное вокруг положительного значения, может быть исследовано для проверки этого априорного убеждения: например, N (5, 5). В качестве альтернативы, могут быть конкурирующие исследования, которые показывают, что мужчины обладают более низким уровнем цинизма, чем женщины, что предполагает негативный эффект. Информативное априорное значение, сосредоточенное вокруг отрицательного значения, можно исследовать, чтобы изучить влияние этого априорного убеждения на апостериорные результаты: N (-10, 5). Эти априорные настройки приведут к исходной априорной и двум альтернативным спецификациям, таким как:

• Оригинал = N (0, 10)

• Альтернатива 1 = N (5, 5)

• Вариант 2 = N (−10, 5).

График, иллюстрирующий эти предшествующие различия, можно найти на рисунке 3.

Рисунок 3. Альтернативные априорные распределения для Пол как предиктор Цинизм .

Параметр 2:
Цинизм на Недоверие

Для этого существенного примера, предсказывающего цинизм (рис. 1B), мы можем предположить, что исследователи основывали свои предварительные спецификации распределения на предыдущих исследованиях, указывая на то, что Отсутствие доверия имел сильную положительную связь с Цинизм .В частности, предположим, что исходный априор (указанный исследователями) был установлен на N (6, 1), где значение 6 представляет собой средний гиперпараметр (или центр) распределения, а значение 1 представляет собой дисперсию. Эта априорная плотность с гиперпараметром дисперсии, равным 1, указывает на то, что около 95 % плотности приходится на диапазон от 4 до 8. Это относительно суженное априорное предположение предполагает, что исследователь имел относительно сильное ожидание того, что увеличение на один пункт Отсутствие доверия связано с увеличением от 4 до 8 пунктов в Цинизм .

Для этого коэффициента регрессии Цинизм на Недоверие можно представить несколько конкурирующих предварительных спецификаций, каждая со своей степенью информативности. Воздействие этих других предшествующих форм можно изучить с помощью анализа чувствительности. Например, исследователь может изучить расплывчатое априорное распределение с намерением преуменьшить влияние априорного распределения и в большей степени подчеркнуть закономерности данных. В этом случае в качестве априорного можно использовать нормальное распределение, но распределение будет иметь очень большой разброс, что совпадет с отсутствием знаний о значении параметра.Одним из способов указания этого коэффициента регрессии до этого может быть N (0, 100). При такой большой дисперсии (аналогично рисунку 2C) этот априор будет в значительной степени плоским в пространстве параметров, представляя диффузный априор для этого параметра.

Другая версия предшествующей спецификации может исходить из альтернативной теории взаимосвязи между Отсутствие доверия и Цинизм . Возможно, некоторые специалисты по теме цинизма считают, что степень (или отсутствие) доверия к другим не влияет на то, насколько человек циничен.Информативный априор, сосредоточенный вокруг нуля, с более узкой дисперсией по сравнению с априором, описанным выше, отражает это априорное убеждение: N (0, 5).

Эти априорные настройки приведут к исходной априорной и двум альтернативным спецификациям, таким как:

• Оригинал = N (6, 1)

• Альтернатива 1 = N (0, 100)

• Вариант 2 = N (0, 5).

График, иллюстрирующий эти предшествующие различия, можно найти на рисунке 4.

Рисунок 4. Альтернативные априорные распределения для Отсутствие доверия как предиктор Цинизм .

Одновременный анализ априорных значений параметра 1 и параметра 2

Наконец, комбинацию каждой из этих альтернативных априорных спецификаций также можно сравнить, чтобы изучить, как априорные спецификации, согласованные с альтернативными теориями и предыдущими исследованиями, влияют на апостериорные результаты. В общей сложности мы можем использовать приложение для одновременного сравнения шести разных моделей.

Оценка конвергенции

Альтернативная предварительная спецификация может повлиять на сходимость параметров в модели. Таким образом, сходимость модели следует оценивать всегда, даже если не было проблем со сходимостью с исходной предыдущей спецификацией. Сходящаяся цепочка представляет собой точную оценку истинной формы апостериорной функции.

Например, см. рис. 5, на котором представлены два разных графика, показывающие цепочку для одного параметра. Каждый образец, извлеченный из задней части, представляет собой точку, и эти точки затем соединяются линией, которая представляет собой цепочку.Достижение стабильности или конвергенции в цепочке является важным элементом, прежде чем можно будет интерпретировать результаты. Среднее значение по оси y на фиг. 5 представляет собой среднее значение апостериорного распределения, а высота цепочки представляет собой величину дисперсии в апостериорном распределении. Сходимость определяется стабильностью среднего (т. е. горизонтального центра, согласно оси y ) и дисперсии (т. е. высоты цепочки). На рисунке 5А показано, что в среднем и дисперсии этой цепочки существует большая нестабильность.Цепь не имеет стабильного горизонтального центра, и высота цепи непостоянна на всем протяжении. Напротив, на рисунке 5B показана стабильность в обеих областях, что визуально указывает на схождение. Существуют статистические инструменты, которые могут помочь в определении конвергенции, и они всегда должны сопровождать визуальный осмотр графиков, подобных показанным на рис. 5. Некоторые статистические инструменты для оценки конвергенции включают диагностику конвергенции Гевеке (Geweke, 1992) и потенциальный коэффициент уменьшения масштаба, или R-шляпу (Гельман и Рубин, 1992а, б; Гельман, 1996; Брукс и Гельман, 1998).

Рисунок 5. Две цепочки, демонстрирующие разные модели (не)конвергенции. Панель (A) демонстрирует большую нестабильность на всем графике, что указывает на отсутствие сходимости. Панель (B) показывает относительно стабильное горизонтальное среднее значение и дисперсию, что указывает на конвергенцию. Обратите внимание, что оба графика демонстрируют некоторую степень автокорреляции, но это выходит за рамки текущего обсуждения. Дополнительную информацию по этому вопросу можно найти здесь: Kruschke (2015) и Depaoli and van de Schoot (2017).

Начальная часть цепочки часто сильно зависит от начальных значений цепочки (которые могут быть сгенерированы случайным образом в программном обеспечении). Поэтому эта ранняя часть цепочки часто отбрасывается и называется фазой приработки . Эта часть цепочки не является репрезентативной для апостериорной, поскольку она может быть нестабильной и сильно зависеть от начального значения, которое запустило цепочку. Только фаза пост-приработки (т. е. фаза цепочки после обозначенной фазы приработки) рассматривается для построения оценки апостериорной вероятности.Пользователь обычно определяет продолжительность приработки с помощью некоторой статистической диагностики, принимая во внимание сложность модели [например, для простой регрессионной модели может потребоваться несколько сотен итераций приработки, но смешанная модель (скрытый класс) может требуется несколько сотен тысяч]. Если сходимость не достигается для параметра модели, тогда практикующий врач может удвоить (или более) количество итераций, чтобы увидеть, устраняет ли проблему более длинная цепочка. Если несовпадение по-прежнему остается, то может случиться так, что априор не очень подходит для модели или вероятности.В случае анализа чувствительности этот результат может указывать на наличие доказательств против выбора этого конкретного априора с учетом текущей модели и вероятности. Для получения дополнительной информации о конвергенции и длине цепочки см. Sinharay (2004) или Depaoli and van de Schoot (2017).

В приложении мы визуально оценили сходимость модели, используя графики апостериорных цепей, и с помощью диагностики, используя R-шляпу и ESS. На рис. 6 показано, что графики трассы, R-шляпа (<1,01) и ESS ( >1000) по всем параметрам исходного анализа указывает на сходимость.Для этой иллюстрации на рис. 7 показаны графики трассировки анализа, в котором используются альтернативные априорные спецификации для обоих эффектов регрессии: N (-10, 5) для Пол в качестве предиктора Цинизм и N (0 , 5) для Недоверие как предиктор Цинизм . На этом рисунке мы видим, что кривая для эффекта Sex выглядит более изменчивой (хотя все еще относительно плоской) при использовании этой альтернативной предварительной спецификации; это наиболее очевидно при изучении различий осей y- на рисунках 6, 7.В целом представляется, что альтернативные априорные значения не сильно влияют на сходимость цепочки, несмотря на некоторые различия с дисперсией цепочки для коэффициента Цинизм на Пол (т. е. дисперсия для этого параметра шире на Рисунке 6).

Рис. 6. Графики исходного анализа.

Рисунок 7. Графики анализа N (–10, 5) априорного распределения для Пол в качестве предиктора Цинизм и N (0, 5) для Отсутствие доверия в качестве предиктора предсказатель Цинизм .

Проверка апостериорных графиков плотности

Следующим шагом в анализе чувствительности является изучение того, как альтернативные априорные спецификации повлияли на апостериорные распределения параметров модели. Если апостериорные распределения очень похожи в диапазоне априорных распределений, то это означает, что апостериорная оценка устойчива к различным априорным распределениям. Напротив, если апостериорное распределение резко изменяется в результате альтернативного априорного распределения, то это показывает, что апостериорное распределение в большей степени зависит от конкретного используемого априорного распределения.Для этой иллюстрации мы сконцентрируемся на обсуждении двух альтернативных априорных распределений для Недостаток доверия в качестве предиктора Цинизм . На рис. 8 показано, что апостериорное распределение эффекта «Отсутствие доверия» изменяется в результате альтернативных априорных спецификаций. Оба апостериорных распределения смещаются в более низкий диапазон значений. Этот результат подразумевает, что на апостериорное распределение исходного анализа влияет выбранное априорное распределение и что альтернативные (более размытые) априорные распределения привели бы к несколько иным апостериорным распределениям.Кроме того, апостериорное распределение отрезка Цинизм смещается к более высокому значению для обоих альтернативных априорных распределений, указывая на существенно различное определение отрезка модели (т. е. среднее значение Цинизм , когда предикторы равны нулю). Наконец, апостериорные распределения Пол как предиктор Цинизм , по-видимому, не подвержены влиянию альтернативных априорных значений для эффекта Отсутствие доверия , в то время как остаточная дисперсия Цинизм была затронута.

Рисунок 8. Графики апостериорной плотности для исходных и альтернативных априорных значений для Отсутствие доверия как предиктор Цинизм .

Сравнение апостериорных оценок

Еще один способ изучить влияние априорного распределения — вычислить процентное отклонение средней апостериорной оценки между моделями с разными априорными распределениями. Для этой иллюстрации мы снова сосредоточим наше обсуждение на двух альтернативных априорных распределениях для Недостаток доверия в качестве предиктора Цинизм .На рис. 9 показана сводная статистика анализов с альтернативными предыдущими спецификациями, полученная из приложения. Последние два столбца показывают средние апостериорные оценки исходного анализа и процентное отклонение между исходным и каждым альтернативным анализом. В соответствии со сдвигом вниз апостериорных плотностей эффекта «Отсутствие доверия » в различных предыдущих спецификациях процентное отклонение составляет -23,040% или -24,851%, в зависимости от альтернативной предварительной спецификации.Еще один способ зафиксировать влияние априорного распределения — сравнить 90% интервалы HPD и посмотреть, изменится ли основной вывод о существовании эффекта «Отсутствие доверия ». В этом случае ноль всегда находится за пределами 90% интервала HPD, независимо от априорного распределения, используемого в анализе. Таким образом, основной вывод о роли Недостаток доверия в качестве предиктора Цинизм не меняется в рассмотренных здесь предыдущих распределениях.

Рисунок 9. Апостериорные оценки для альтернативных априорных значений для Отсутствие доверия как предиктор Цинизм .

Дополнительные рекомендации по использованию приложения

Мы создали приложение таким образом, чтобы пользователи не могли изучить комбинацию различных априорных значений в модели, прежде чем указывать и рассматривать каждое из них по отдельности. Это конструктивное решение было принято по педагогическим соображениям. Мы считаем, что изучение каждого предшествующего события в отдельности полезно при первоначальном изучении предшествующего воздействия.Практика изменения предыдущей настройки и отслеживания последующих изменений обеспечивает визуальный опыт обучения, который расширяет возможности обсуждения анализа чувствительности. Однако на практике реализация и вариация априоров более сложны. В оцениваемой окончательной модели комбинация априорных значений является основным аспектом, который имеет значение. Есть исследования, подчеркивающие, что априорные значения в одном месте модели могут влиять на результаты в другом месте (см., например, Depaoli, 2012). Из-за этого важно исследовать результаты с комбинацией априорных значений, реализованных одновременно.Эти результаты отражают истинное влияние предыдущих настроек (в отличие от изучения одного параметра за раз). Хотя это приложение позволяет пользователю проверять по одному априорному за раз (в качестве инструмента обучения), мы отмечаем, что это может быть неосуществимой практикой в ​​некоторых контекстах моделирования. Например, некоторые модели теории ответов на вопросы имеют тысячи параметров, и было бы возможно исследовать только комбинацию априорных значений (а не по одному за раз).

Приложение было разработано для повышения педагогичности визуальной демонстрации анализа чувствительности.Тем не менее, мы предупреждаем читателя, что именно комбинация предварительных установок определяет существенное влияние предшествующих факторов.

Заключение

Нашей целью было представить примеры (посредством моделирования и применения), иллюстрирующие важность предварительного анализа чувствительности. Мы представили приложение Shiny, которое помогает проиллюстрировать некоторые важные аспекты изучения результатов анализа чувствительности. Мы отформатировали текущий раздел, чтобы ответить на часто задаваемые вопросы (FAQ), чтобы предоставить краткий обзор наиболее важных компонентов для прикладных исследователей, на которых следует сосредоточиться.

Часто задаваемые вопросы об предварительном анализе чувствительности

(1) Почему анализ чувствительности важен в байесовской концепции и что мы можем извлечь из него?

Анализ чувствительности во многих отношениях является одним из наиболее важных элементов, необходимых для полного понимания байесовских результатов в условиях прикладного исследования. Исследование моделирования и демонстрация, представленная в приложении Shiny, показали, что априорные значения могут оказывать существенное влияние на апостериорное распределение.Без анализа чувствительности невозможно отделить влияние априорных данных от роли, которую данные играют на этапе оценки модели. Анализ чувствительности может помочь исследователю понять влияние априорных данных по сравнению с влиянием данных. Другими словами, этот анализ может помочь установить, насколько теория [т. е. благодаря обоснованной теории или отсутствию теории (например, диффузные априорные данные)] влияет на окончательные результаты модели и насколько результаты обусловлены закономерностями в выборочных данных.

(2) Сколько различных предварительных условий я должен проверить во время анализа чувствительности? Другими словами, насколько обширным должен быть анализ чувствительности?

В статистике есть поговорка (или шутка), что ответом на любой статистический вопрос является «это зависит». Это высказывание, безусловно, верно здесь. В данном случае однозначного ответа на этот вопрос нет, и он действительно зависит от нескольких факторов. Объем анализа чувствительности будет зависеть от сложности модели, предполагаемой роли априорных значений (т.g., информативный или диффузный) и задаваемый вопрос (вопросы) по существу. Есть некоторые общие рекомендации, которые мы можем предоставить. Например, если в исходном анализе реализованы диффузные априорные значения, то, вероятно, будет неуместно включать информативные априорные значения в анализ чувствительности. Вместо этого практикующему врачу лучше протестировать различные формы диффузных априоров. Однако, если в первоначальном анализе использовались информативные априорные значения, то в анализе чувствительности было бы рекомендовано изучить различные формы информативных априорных значений, а также размытые априорные установки.Практикующий специалист должен тщательно взвесить эти различные аспекты и принять соответствующее решение относительно объема анализа чувствительности. Основная цель здесь — понять влияние и роль, которую играет каждый априор. Для достижения этой цели не существует установленных правил, поскольку все исследовательские сценарии будут существенно различаться.

(3) Как лучше всего отобразить результаты анализа чувствительности?

Не хочу заимствовать слишком много из предыдущего FAQ, но ответ на текущий вопрос зависит от: (1) того, что показывают результаты анализа чувствительности, (2) сложности модели — т.е.е., количество параметров модели и (3) количество условий, рассмотренных в анализе чувствительности. В случае, когда результаты относительно схожи в различных предшествующих условиях, исследователь может выбрать пару предложений, указывающих на объем анализа чувствительности и сопоставимость результатов. Однако в случае, когда результаты изменяются, когда априорные значения различаются (например, как в некоторых примерах, представленных в нашем приложении Shiny), исследователь может выбрать более крупное отображение результатов.Это может быть представлено с помощью визуальных средств, подобных графикам Shiny App, которые мы представили (например, рисунки 3, 4, 8, 9), или это может быть в формате таблицы, указывающей степень несоответствия в оценках или интервалах HPD по параметрам. В крайних случаях, когда есть десятки параметров, пересекающихся со многими условиями анализа чувствительности, исследователю может потребоваться поместить большую часть результатов в онлайн-приложение и просто описать результаты в тексте рукописи. Многое из этого будет зависеть от степени различий, наблюдаемых в ходе анализа чувствительности, а также от ограничений места в журнале.Важным моментом является то, что результаты должны быть представлены в какой-то ясной форме (через текст, изображения или таблицы результатов), но то, как это будет выглядеть, во многом будет зависеть от характера исследования и полученных результатов.

(4) Как следует интерпретировать результаты анализа чувствительности?

Результаты анализа чувствительности не предназначены для изменения представленных окончательных результатов модели. Вместо этого они полезны для правильной интерпретации влияния предшествующих настроек.Это может быть полезно для понимания того, какое влияние имеют априорные значения, а также насколько устойчивы окончательные оценки модели к различиям в априорных настройках — будь то небольшие или большие различия в априорных значениях. Результаты анализа чувствительности должны сообщаться вместе с полученными окончательными оценками модели (т. Эти результаты можно использовать для поддержки раздела обсуждения, а также для более четкого понимания окончательных оценок. Кроме того, выше мы обсуждали альтернативу, касающуюся отчета о результатах анализа чувствительности при реализации диффузных априорных значений.В этом сценарии практикующий специалист может выбрать отчет о результатах по ряду разбросанных априорных данных в качестве окончательного анализа. Это стратегия, которая может помочь осветить любую неопределенность, связанную с точной априорной спецификацией, если разные формы диффузных априорных значений дают разные результаты. Наконец, если процесс анализа чувствительности дает априорное значение (или набор априорных значений), которые приводят к бессмысленным результатам в соответствии с апостериорным (например, апостериорное значение не имеет смысла, см. Depaoli and van de Schoot, 2017) или приводит к цепочкам которые не сходятся, то это может быть признаком плохого предварительного выбора с учетом модели или вероятности.В этом случае следует описать априорные и результаты, и может быть полезно описать, почему эта априорная установка может быть нежизнеспособной, учитывая полученные плохие результаты.

(5) Что произойдет, если существенные результаты различаются в предыдущих настройках, реализованных в анализе чувствительности?

Поначалу может показаться неудобным получать результаты анализа чувствительности, которые показывают, что априорные факторы оказывают сильное влияние на окончательные оценки модели. Однако это действительно не точка , касающаяся .Предположим, что результаты анализа чувствительности показали, что даже незначительное колебание предыдущих настроек изменило конечные результаты модели значимым (т. е. существенным) образом. Это важный вывод, поскольку он может указывать на то, что точная теория, используемая для определения априорной спецификации (потенциально), оказывает большое влияние на окончательные результаты модели. Обнаружение этого открытия может помочь глубже понять, насколько стабильна модель (или теория). Напротив, если результаты модели относительно стабильны при различных априорных настройках, то это указывает на то, что теория (т.е., предыдущее) оказывает меньшее влияние на выводы. В любом случае, результаты интересны и должны быть подробно описаны в ходе обсуждения. Понимание роли, которую играют априорные данные, в конечном итоге поможет создать более совершенные и обоснованные теории в этой области.

(6) Как записать результаты анализа чувствительности?

Результаты анализа чувствительности должны быть включены в основную часть раздела результатов любого прикладного байесовского документа. Окончательные оценки модели могут быть представлены и интерпретированы на основе реализованных исходных предварительных настроек.Затем можно представить отчет об анализе чувствительности в контексте построения более глубокого понимания влияния априорных данных. Байесовские результаты могут быть полностью поняты только в контексте влияния конкретных реализованных предварительных настроек. После сообщения об окончательных оценках модели на основе исходных предварительных настроек к результатам можно добавить раздел, озаглавленный примерно так: «Понимание влияния предварительных настроек». В этот раздел следует включить визуальное или табличное отображение результатов анализа чувствительности.Результаты анализа должны быть описаны, а также должно быть рассмотрено некоторое ощущение устойчивости (или нет!) результатов к различным предшествующим настройкам. Затем эти результаты могут быть дополнительно расширены в разделе обсуждения, и могут быть даны рекомендации относительно того, какие априорные данные, по мнению исследователя, следует дополнительно изучить в последующих исследованиях. Цель состоит в том, чтобы обеспечить тщательную обработку анализа и предоставить читателям достаточную информацию, чтобы оценить роль априорных значений в этом конкретном контексте моделирования.

Последние мысли

Как мы продемонстрировали с помощью моделирования и приложения Shiny, априорные значения могут оказывать заметное влияние на окончательные результаты моделирования. Крайне важно, чтобы прикладные исследователи тщательно изучили степень этого воздействия и представили результаты в отчете об окончательном анализе. Наглядные пособия могут быть огромным преимуществом при представлении результатов анализа чувствительности, поскольку они быстро указывают на уровень (несоответствия) результатов в различных предшествующих условиях.

Ключевым вопросом при составлении отчета о любом анализе, особенно таком сложном, как байесовский анализ, является прозрачность. Важно всегда иметь четкое представление о том, какие анализы проводились, как они проводились и как можно интерпретировать результаты. Этот вопрос прозрачности является ключевым в любой статистической структуре, но особенно важен для байесовской модели из-за того, насколько легко манипулировать результатами путем изменения предварительных настроек. Байесовские методы — очень полезные инструменты, и от нас зависит (т.т. е., пользователи, издатели и потребители исследований), чтобы установить приоритет прозрачности и тщательности при сообщении результатов. Мы надеемся, что приложение Shiny сыграет свою роль в повышении важности этой проблемы.

Вклад авторов

SD задумал и написал рукопись. SW и MV сделали приложение Shiny. Все авторы внесли свой вклад в статью и одобрили представленную версию.

Конфликт интересов

Авторы заявляют, что исследование проводилось при отсутствии каких-либо коммерческих или финансовых отношений, которые могли бы быть истолкованы как потенциальный конфликт интересов.

Сноски

Каталожные номера

Адейемо, Д.А. (2007). Модерирующее влияние эмоционального интеллекта на связь между академической самоэффективностью и успеваемостью студентов вуза. Психология. Дев. соц. 19, 199–213. дои: 10.1177/0971333607014

Полнотекстовая перекрестная ссылка | Академия Google

Брукс, С.П., и Гельман, А. (1998). Общие методы контроля сходимости итеративного моделирования. Дж. Вычисл. График Стат. 7, 434–455. дои: 10.1080/10618600.1998.10474787

Полнотекстовая перекрестная ссылка | Академия Google

Чанг В., Ченг Дж., Аллер Дж. Дж., Се Ю. и Макферсон Дж. (2020). блестящий: платформа веб-приложений для пакета R. R версии 1.5.0. Доступно в Интернете по адресу: https://CRAN.R-project.org/package=shiny (по состоянию на 10 сентября 2020 г.).

Академия Google

Cieciuch, J., Davidov, E., Schmidt, P., Algesheimer, R., and Schwartz, S.Х. (2014). Сравнение результатов точного и приблизительного (байесовского) теста инвариантности измерений: иллюстрация из разных стран со шкалой для измерения 19 человеческих ценностей. Фронт. Психол. 5:982. doi: 10.3389/fpsyg.2014.00982

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

Депаоли, С. (2012). Измерение и разделение классов структурных моделей в смеси CFA: ML/EM по сравнению с MCMC. Структура. Экв. Модель. 19, 178–203. дои: 10.1080/10705511.2012.659614

Полнотекстовая перекрестная ссылка | Академия Google

Депаоли, С. (2013). Восстановление класса смеси в GMM при разной степени разделения классов: частотная и байесовская оценки. Психология. Методы 18, 186–219. дои: 10.1037/a0031609

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

Депаоли, С., и Клифтон, Дж. (2015). Байесовский подход к моделированию многоуровневых структурных уравнений с непрерывными и дихотомическими результатами. Структура.Экв. Модель. 22, 327–351. дои: 10.1080/10705511.2014.937849

Полнотекстовая перекрестная ссылка | Академия Google

Депаоли С., Рус Х., Клифтон Дж., ван де Шут Р. и Тименсма Дж. (2017a). Введение в байесовскую статистику в психологии здоровья. Психология здоровья. Ред. 11, 248–264. дои: 10.1080/17437199.2017.1343676

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

Депаоли, С., и ван де Шут, Р. (2017). Улучшение прозрачности и репликации в байесовской статистике: контрольный список WAMBS. Психология. Методы 22, 240–261. doi: 10.1037/met0000065

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

Депаоли С., Ян Ю. и Фелт Дж. (2017b). Использование байесовской статистики для моделирования неопределенности в смешанных моделях: анализ чувствительности априорных значений. Структура. Экв. Модель. 24, 198–215. дои: 10.1080/10705511.2016.1250640

Полнотекстовая перекрестная ссылка | Академия Google

Гельман, А. (1996). «Вывод и мониторинг сходимости», в Марковская цепь Монте-Карло на практике , под редакцией В.Р. Гилкс, С. Ричардсон и Д. Дж. Шпигельхальтер (Нью-Йорк: Чепмен и Холл), 131–143.

Академия Google

Гельман А., Карлин Дж. Б., Стерн Х. С., Дансон Д., Вехтари А. и Рубин Д. Б. (2014). Байесовский анализ данных (3-е изд.). Бока-Ратон, Флорида: Чепмен и Холл.

Академия Google

Гельман А. и Рубин Д. Б. (1992a). Вывод из итеративного моделирования с использованием нескольких последовательностей. Стат. науч. 7, 457–511. doi: 10.1214/ss/1177011136

Полнотекстовая перекрестная ссылка | Академия Google

Гельман А.и Рубин Д.Б. (1992b). «Один ряд из пробоотборника Гиббса дает ложное чувство безопасности», в Bayesian Statistics 4 , eds JM Bernardo, JO Berger, AP Dawid и AFM Smith (Oxford: Oxford University Press), 625–631.

Академия Google

Гевеке, Дж. (1992). «Оценка точности основанных на выборке подходов к вычислению апостериорных моментов», в Bayesian Statistics 4 , eds JM Bernardo, JO Berger, A.P. Dawid, and A.Ф. М. Смит (Оксфорд: издательство Оксфордского университета), 169–193.

Академия Google

Гош, Дж. К., и Мукерджи, Р. (1992). «Неинформативные априорные данные (с обсуждением)», в Bayesian Statistics , 4 Edn, eds JM Bernardo, JO Berger, AP Dawid и AFM Smith (Oxford: Oxford University Press), 195–210.

Академия Google

Голей, П., Реверте, И., Россье, Дж., Фавез, Н., и Лесерф, Т. (2013). Дальнейшее понимание факторной структуры французского стандарта WISC-IV с помощью байесовского моделирования структурных уравнений. Психология. Оценивать. 25, 496–508. DOI: 10.1037/a0030676

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

Густафсон П. и Вассерман Л. (1995). Диагностика локальной чувствительности для байесовского вывода. Энн. Стат. 23, 2153–2167. дои: 10.1214/аос/1034713652

Полнотекстовая перекрестная ссылка | Академия Google

Heitjan, D.F., Guo, M., Ray, R., Wileyto, E.P., Epstein, L.H., and Lerman, C. (2008). Идентификация фармакогенетических маркеров в терапии отказа от курения. утра. Дж. Мед. Жене. Б Нейропсихология. Жене. 147, 712–719. doi: 10.1002/ajmg.b.30669

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

Хоффман, доктор медицины, и Гельман, А. (2011). Сэмплер без разворота: адаптивная настройка длины пути в гамильтоновом методе Монте-Карло. arXiv [препринт] Доступно в Интернете по адресу: https://arxiv.org/abs/1111.4246 (по состоянию на 10 сентября 2020 г.), Google Scholar

Керр, Н.Л. (1998). HARKing: выдвижение гипотез после того, как известны результаты. чел. соц. Психол. Ред. 2, 196–217. doi: 10.1207/s15327957pspr0203_4

Полнотекстовая перекрестная ссылка | Академия Google

Ким, С.Ю., Су, Ю., Ким, Дж.С., Альбанезе, М., и Лангер, М.М. (2013). Оценка одиночных и множественных способностей в рамках SEM: неинформативный байесовский подход к оценке. Мультив. Поведение Рез. 48, 563–591. дои: 10.1080/00273171.2013.802647

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

Копала-Сибли, Д.К., Зурофф, Д.К., Лейбман, М.Дж., и Хоуп, Н. (2013). Вспомнил опыт отношений со сверстниками и текущий уровень самокритики и уверенности в себе. Психология. Психотер. 86, 33–51. doi: 10.1111/j.2044-8341.2011.02044.x

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

Крушке, Дж. К. (2015). Выполнение байесовского анализа: Учебное пособие с R, Jags и STAN. Сан-Диего, Калифорния: Academic Press.

Академия Google

Ламберт, П.К., Саттон, А.Дж., Бертон, П.Р., Абрамс, К.Р., и Джонс, Д.Р. (2005). Насколько расплывчато расплывчато? Имитационное исследование влияния использования неопределенных априорных дистрибутивов в MCMC с использованием WinBUGS. Стат. Мед. 24, 2401–2428. doi: 10.1002/(ISSN)1097-0258

Полнотекстовая перекрестная ссылка | Академия Google

Люйстер Ф.С., Чейзенс Э.Р., Васко М.К.М. и Данбар-Джейкоб Дж. (2011). Качество сна и функциональная инвалидность у больных ревматоидным артритом. Дж. Клин. Сон Мед. 7, 49–55. doi: 10.5664/jcsm.28041

Полнотекстовая перекрестная ссылка | Академия Google

Мюллер, Великобритания (2012). Измерение априорной чувствительности и априорной информативности в больших байесовских моделях. Ж. Моне. Экон. 59, 581–597. doi: 10.1016/j.jmoneco.2012.09.003

Полнотекстовая перекрестная ссылка | Академия Google

Мутен Б. и Аспарухов Т. (2012). Моделирование байесовских структурных уравнений: более гибкое представление основной теории. Психология.Методы 17, 313–335. дои: 10.1037/a0026802

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

Мутен, Л.К., и Мутен, Б. (1998–2017). Руководство пользователя Mplus. Восьмое издание. Лос-Анджелес, Калифорния: Мутен и Мутен.

Академия Google

Натараджан, Р., и Маккаллох, К.Э. (1998). Выборка Гиббса с рассеянными правильными априорными значениями: правильный подход к выводу на основе данных? Дж. Вычисл. График Стат. 7, 267–277. дои: 10.1080/10618600.1998.10474776

Полнотекстовая перекрестная ссылка | Академия Google

R Основная команда (2020). R: Язык и среда для статистических вычислений. Вена: Фонд статистических вычислений R.

Академия Google

Роос, М., Мартинс, Т. Г., Хелд, Л., и Рю, Х. (2015). Анализ чувствительности байесовских иерархических моделей. Байесовский анализ. 10, 321–349. дои: 10.1214/14-ba909

Полнотекстовая перекрестная ссылка | Академия Google

Команда RStudio.(2020). RStudio: Комплексная разработка для R. Бостон, Массачусетс: RStudio, Inc.

Академия Google

Шэн, Ю. (2010). Анализ чувствительности выборки Гиббса для моделей 3PNO IRT: влияние предварительных спецификаций на оценки параметров. Поведенческая метрика 37, 87–110. doi: 10.2333/bhmk.37.87

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

Синхарай, С. (2004). Опыт оценки сходимости цепи Маркова методом Монте-Карло на двух психометрических примерах. Дж. Образовательный. Поведение Стат. 29, 461–488. дои: 10.3102/1076998602
61

Полнотекстовая перекрестная ссылка | Академия Google

Команда разработчиков Стэна (2020). RStan: интерфейс R для Stan. Пакет R версии 2.21.2. Доступно в Интернете по адресу: http://mc-stan.org/ (по состоянию на 10 сентября 2020 г.)

Академия Google

ван де Шут, Р., Сийбрандий, М., Депаоли, С., Винтер, С., Олфф, М., и ван Лоей, Н. (2018). Байесовский анализ траектории посттравматического стрессового расстройства с информированными априорными данными, основанный на систематическом поиске литературы и опросе экспертов. Мультив. Поведение Рез. 53, 267–291. дои: 10.1080/00273171.2017.1412293

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

ван де Шут, Р., Винтер, С., Зондерван-Цвейненбург, М., Райан, О., и Депаоли, С. (2017). Систематический обзор байесовских приложений в психологии: последние 25 лет. Психология. Методы 22, 217–239. doi: 10.1037/met0000100

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

ван Эрп, С., Малдер, Дж., и Оберски, Д.Л. (2018). Предварительный анализ чувствительности при моделировании байесовского структурного уравнения по умолчанию. Психология. Методы 23, 363–388. doi: 10.1037/met0000162

Реферат PubMed | Полный текст перекрестной ссылки | Академия Google

Чжан З., Хамагами Ф., Ван Л., Гримм К. Дж. и Несселроуд Дж. Р. (2007). Байесовский анализ продольных данных с использованием моделей кривой роста. Междунар. Дж. Бехав. Дев. 31, 374–383. дои: 10.1177/0165025407077764

Полнотекстовая перекрестная ссылка | Академия Google

Цицманн, С.и Хехт, М. (2019). Выходя за рамки сходимости в байесовской оценке: почему важна точность и как ее оценить. Структура. Экв. Модель. Мультидисциплинарный J. 26, 646–661. дои: 10.1080/10705511.2018.1545232

Полнотекстовая перекрестная ссылка | Академия Google

Zondervan-Zwijnenburg, M.A.J., Depaoli, S., Peeters, M., and van de Schoot, R. (2019). Расширение границ: производительность машинного обучения и байесовского оценивания с небольшими и несбалансированными выборками в модели скрытого роста. Методология 15, 31–43. дои: 10.1027/1614-2241/a000161

Полнотекстовая перекрестная ссылка | Академия Google

Zondervan-Zwijnenburg, M.A.J., Peeters, M., Depaoli, S., and van de Schoot, R. (2017). Откуда берутся приоры? Применение руководящих принципов для построения информативных априорных исследований в исследованиях с небольшой выборкой. Рез. Гум. Дев. 14, 305–320. дои: 10.1080/15427609.2017.1370966

Полнотекстовая перекрестная ссылка | Академия Google

В следующем разделе представлена ​​гипотетическая запись результатов анализа чувствительности, которая имитирует пример, представленный в приложении Shiny.

На первом этапе анализа чувствительности мы рассмотрели параметры, представляющие наибольший интерес для нашего исследования. В случае с нашим примером регрессии нас особенно интересовали коэффициенты регрессии, связанные с Пол в качестве предиктора Цинизм и Отсутствие доверия в качестве предиктора Цинизм . После четкого определения интересующих параметров мы определили наиболее подходящие априорные значения для исходных (сравненных) априорных значений в анализе.Например, мы выбрали N (0,10) в качестве априора для Секс в качестве предиктора Цинизм и N (6,1) в качестве априора для Отсутствие доверия в качестве предиктора Цинизм . Априоры N (0,10) предполагают, что Цинизм и Секс не связаны, а N (6,1) указывает на положительную связь между Цинизм и Отсутствие доверия . В дополнение к выбору априорных значений параметров, представляющих существенный интерес, мы также устанавливаем N (41,10) в качестве до перехвата и IG (0.5,0.5) в качестве априора для остаточной дисперсии.

Чтобы понять влияние различных априорных значений на апостериорное распределение, мы определили набор альтернативных априорных значений для сравнения с каждым из наших исходных априорных значений. Для нашего примера регрессии мы выбрали альтернативные априорные значения N (5,5) и N (-10,5) для Пол , предсказывающие Цинизм . Альтернативный априор N (5,5) предполагает, что мужчины обладают более высокой степенью цинизма, чем женщины, а альтернативный априор N (-10,5) означает, что мужчины имеют более низкую степень цинизма, чем женщины.Также были выбраны альтернативные априоры N (0,100) и N (0,5) для Недоверие предсказывающее Цинизм . Альтернатива N (0,100) была гораздо более расплывчатой, чем первоначальная версия, что свидетельствует об отсутствии знаний о параметре. N (0,5) имеет нулевое среднее значение, что указывает на отсутствие связи между Цинизм и Отсутствие доверия . Для перехвата мы выбрали N (0,100) и N (20,10) в качестве альтернативных априоров.Приор N (0,100) является рассеянным, плоским приором, а N (20,10) сбрасывает среднее значение исходного приора вниз. Оба априора предполагают более низкие значения цинизма. Для остаточной дисперсии мы выбрали IG (1,0,5) и IG (0,1,0,1) в качестве альтернативных априорных значений. IG (1,0.5) более информативен, чем исходный априор, а IG (0.1,0.1) более размыт, чем исходный априор. Наконец, мы также указали комбинации этих альтернативных априорных значений, чтобы понять совокупное влияние различных априорных значений на результаты модели.

После выбора альтернативных априорных значений мы оценили серию моделей с разными априорными значениями. Каждая модель была проверена на сходимость путем визуального осмотра графиков трассировки, а также с помощью диагностики R-шляпы. Кроме того, также контролировались эффективные размеры выборки (ESS), чтобы убедиться, что автокорреляция не вызывает проблем. Выбранные альтернативные априорные значения дали адекватную сходимость модели и значения ESS. Поэтому мы перешли к следующему этапу анализа чувствительности и просмотрели графики апостериорной плотности.Визуальный осмотр графиков апостериорной плотности выявил изменение апостериорных распределений для Отсутствие доверия , предсказывающее Цинизм при задании альтернативных априорных значений. В частности, апостериорное распределение для Недостаток доверия , предсказывающее Цинизм , смещается в сторону более низких значений при обоих альтернативных априорных значениях, предполагая, что априорная спецификация влияет на результаты. Апостериорное распределение отрезка и остаточная дисперсия Цинизм менялись в зависимости от указанных априорных значений, что указывает на существенно различную интерпретацию отрезка в зависимости от априорных значений.Напротив, графики апостериорной плотности для Пол в качестве предиктора Цинизм были относительно схожими, независимо от альтернативной предварительной спецификации.

Мы также проверили, насколько надежными были результаты, сравнив апостериорные оценки для моделей с различными априорными спецификациями. Если априорные значения мало влияют на результаты, процент отклонений в апостериорных оценках между моделями будет низким. Однако, если априоры оказывают значительное влияние, то мы увидим более высокое процентное отклонение между моделями.Как и ожидалось, учитывая графики апостериорной плотности, мы видим сдвиг в сторону уменьшения оценки для Недостаток доверия как предиктора Цинизм в различных предыдущих спецификациях. В частности, процентное отклонение составляет -23,040% или -24,851%, в зависимости от альтернативной предшествующей спецификации.

Дополнительные доказательства влияния априорного распределения на апостериорное распределение можно получить путем сравнения 90% интервалов с наивысшей апостериорной плотностью (HPD). Если содержательные выводы относительно параметра меняются в зависимости от априорных, то имеются свидетельства менее надежных результатов.В случае Недостаток доверия в качестве предиктора Цинизм ноль всегда находится за пределами 90% интервала HPD, независимо от априорного распределения, используемого в анализе. Таким образом, основной вывод о роли Недостаток доверия в качестве предиктора Цинизм не меняется в предыдущих распределениях. Это, пожалуй, самый важный вывод анализа чувствительности. Хотя на некоторые параметры модели в большей степени влияли заданные априорные распределения, содержательная интерпретация результатов модели не менялась в зависимости от указанного априорного распределения.”

%PDF-1.3 % 696 0 объект > эндообъект внешняя ссылка 696 85 0000000016 00000 н 0000003528 00000 н 0000003802 00000 н 0000003838 00000 н 0000004163 00000 н 0000004341 00000 н 0000004470 00000 н 0000004592 00000 н 0000004713 00000 н 0000004835 00000 н 0000004954 00000 н 0000005089 00000 н 0000005223 00000 н 0000005357 00000 н 0000005511 00000 н 0000005661 00000 н 0000005815 00000 н 0000005968 00000 н 0000006128 00000 н 0000006354 00000 н 0000007097 00000 н 0000007465 00000 н 0000007748 00000 н 0000007987 00000 н 0000008563 00000 н 0000009584 00000 н 0000010460 00000 н 0000011474 00000 н 0000012092 00000 н 0000018300 00000 н 0000018709 00000 н 0000018746 00000 н 0000019137 00000 н 0000019191 00000 н 0000019481 00000 н 0000022492 00000 н 0000022912 00000 н 0000023307 00000 н 0000023828 00000 н 0000032558 00000 н 0000033186 00000 н 0000033628 00000 н 0000033857 00000 н 0000035865 00000 н 0000036209 00000 н 0000036602 00000 н 0000036820 00000 н 0000041563 00000 н 0000041925 00000 н 0000042291 00000 н 0000042515 00000 н 0000044918 00000 н 0000045266 00000 н 0000046015 00000 н 0000046658 00000 н 0000047452 00000 н 0000048330 00000 н 0000049172 00000 н 0000050002 00000 н 0000050545 00000 н 0000051428 00000 н 0000052220 00000 н 0000052364 00000 н 0000053072 00000 н 0000053515 00000 н 0000056208 00000 н 0000056476 00000 н 0000061695 00000 н 0000062076 00000 н 0000062482 00000 н 0000062546 00000 н 0000062975 00000 н 0000063193 00000 н 0000063254 00000 н 0000063871 00000 н 0000064099 00000 н 0000064400 00000 н 0000064512 00000 н 0000066753 00000 н 0000067010 00000 н 0000067359 00000 н 0000067470 00000 н 0000068640 00000 н 0000068892 00000 н 0000001996 00000 н трейлер ]/предыдущая 528230>> startxref 0 %%EOF 780 0 объект >поток h ΜVklSeڵeۍm.csfMmToG3bJ60]Ɂ>Rc?IűmMoH[v5'nEO2r3

%PDF-1.2 % 191 0 объект > эндообъект внешняя ссылка 191 313 0000000016 00000 н 0000006612 00000 н 0000014264 00000 н 0000014482 00000 н 0000014714 00000 н 0000014970 00000 н 0000015254 00000 н 0000015461 00000 н 0000015690 00000 н 0000015925 00000 н 0000016090 00000 н 0000016285 00000 н 0000016530 00000 н 0000016698 00000 н 0000016898 00000 н 0000017126 00000 н 0000017314 00000 н 0000017510 00000 н 0000017749 00000 н 0000017978 00000 н 0000018222 00000 н 0000018444 00000 н 0000018680 00000 н 0000018874 00000 н 0000019051 00000 н 0000019244 00000 н 0000019409 00000 н 0000019606 00000 н 0000019832 00000 н 0000020006 00000 н 0000020182 00000 н 0000020391 00000 н 0000020580 00000 н 0000020790 00000 н 0000020961 00000 н 0000021161 00000 н 0000021368 00000 н 0000021547 00000 н 0000021753 00000 н 0000021960 00000 н 0000022148 00000 н 0000022380 00000 н 0000022586 00000 н 0000022764 00000 н 0000022929 00000 н 0000023103 00000 н 0000023316 00000 н 0000023496 00000 н 0000023712 00000 н 0000023888 00000 н 0000024091 00000 н 0000024296 00000 н 0000024493 00000 н 0000024651 00000 н 0000024913 00000 н 0000025098 00000 н 0000025293 00000 н 0000025345 00000 н 0000025726 00000 н 0000025907 00000 н 0000026099 00000 н 0000026270 00000 н 0000026472 00000 н 0000026642 00000 н 0000026818 00000 н 0000027062 00000 н 0000027271 00000 н 0000027478 00000 н 0000027699 00000 н 0000027903 00000 н 0000028076 00000 н 0000028319 00000 н 0000028535 00000 н 0000028739 00000 н 0000028912 00000 н 0000029141 00000 н 0000029354 00000 н 0000029591 00000 н 0000029826 00000 н 0000030060 00000 н 0000030226 00000 н 0000030410 00000 н 0000030644 00000 н 0000030856 00000 н 0000031094 00000 н 0000031254 00000 н 0000031399 00000 н 0000031607 00000 н 0000031819 00000 н 0000032031 00000 н 0000032258 00000 н 0000032425 00000 н 0000032660 00000 н 0000032870 00000 н 0000033087 00000 н 0000033256 00000 н 0000033464 00000 н 0000033773 00000 н 0000033825 00000 н 0000033986 00000 н 0000034200 00000 н 0000034414 00000 н 0000034568 00000 н 0000034741 00000 н 0000034980 00000 н 0000035176 00000 н 0000035352 00000 н 0000035540 00000 н 0000035745 00000 н 0000035931 00000 н 0000036347 00000 н 0000036768 00000 н 0000036958 00000 н 0000037171 00000 н 0000037350 00000 н 0000037539 00000 н 0000037741 00000 н 0000037938 00000 н 0000038140 00000 н 0000038343 00000 н 0000038536 00000 н 0000038699 00000 н 0000038893 00000 н 0000039064 00000 н 0000039280 00000 н 0000039451 00000 н 0000039587 00000 н 0000040134 00000 н 0000040186 00000 н 0000040432 00000 н 0000040680 00000 н 0000040929 00000 н 0000041134 00000 н 0000041346 00000 н 0000042450 00000 н 0000042676 00000 н 0000042873 00000 н 0000043059 00000 н 0000043235 00000 н 0000043458 00000 н 0000043618 00000 н 0000043778 00000 н 0000043996 00000 н 0000044235 00000 н 0000044438 00000 н 0000044634 00000 н 0000044890 00000 н 0000045148 00000 н 0000045403 00000 н 0000045581 00000 н 0000045800 00000 н 0000046054 00000 н 0000046300 00000 н 0000046528 00000 н 0000046744 00000 н 0000047026 00000 н 0000047276 00000 н 0000047561 00000 н 0000047764 00000 н 0000047954 00000 н 0000048006 00000 н 0000048122 00000 н 0000048291 00000 н 0000048683 00000 н 0000048705 00000 н 0000049451 00000 н 0000049473 00000 н 0000050148 00000 н 0000050170 00000 н 0000050855 00000 н 0000050877 00000 н 0000051528 00000 н 0000051550 00000 н 0000052227 00000 н 0000052476 00000 н 0000052682 00000 н 0000052924 00000 н 0000053091 00000 н 0000053303 00000 н 0000053540 00000 н 0000053763 00000 н 0000054005 00000 н 0000054206 00000 н 0000054459 00000 н 0000054707 00000 н 0000054910 00000 н 0000055144 00000 н 0000055306 00000 н 0000055522 00000 н 0000055720 00000 н 0000055899 00000 н 0000055951 00000 н 0000056213 00000 н 0000056397 00000 н 0000056634 00000 н 0000056887 00000 н 0000057118 00000 н 0000057352 00000 н 0000057582 00000 н 0000057808 00000 н 0000058076 00000 н 0000058279 00000 н 0000058467 00000 н 0000058646 00000 н 0000058840 00000 н 0000059048 00000 н 0000059230 00000 н 0000059831 00000 н 0000060269 00000 н 0000060454 00000 н 0000060693 00000 н 0000060922 00000 н 0000061164 00000 н 0000061326 00000 н 0000061530 00000 н 0000061738 00000 н 0000061941 00000 н 0000062137 00000 н 0000062341 00000 н 0000062555 00000 н 0000062725 00000 н 0000062951 00000 н 0000063151 00000 н 0000063343 00000 н 0000063581 00000 н 0000063763 00000 н 0000063785 00000 н 0000064485 00000 н 0000064730 00000 н 0000065188 00000 н 0000065352 00000 н 0000065404 00000 н 0000065686 00000 н 0000065887 00000 н 0000066133 00000 н 0000066335 00000 н 0000066548 00000 н 0000066758 00000 н 0000066973 00000 н 0000067182 00000 н 0000067340 00000 н 0000067570 00000 н 0000067746 00000 н 0000067969 00000 н 0000068219 00000 н 0000068432 00000 н 0000068670 00000 н 0000068912 00000 н 0000068964 00000 н 0000069027 00000 н 0000069350 00000 н 0000069507 00000 н 0000069719 00000 н 0000069898 00000 н 0000069950 00000 н 0000070028 00000 н 0000070215 00000 н 0000070377 00000 н 0000070544 00000 н 0000070752 00000 н 0000071000 00000 н 0000071207 00000 н 0000071456 00000 н 0000071692 00000 н 0000071853 00000 н 0000072031 00000 н 0000072272 00000 н 0000072450 00000 н 0000072708 00000 н 0000072936 00000 н 0000073145 00000 н 0000073372 00000 н 0000073602 00000 н 0000073823 00000 н 0000074045 00000 н 0000074271 00000 н 0000074468 00000 н 0000074683 00000 н 0000074880 00000 н 0000075112 00000 н 0000075610 00000 н 0000076206 00000 н 0000076427 00000 н 0000076625 00000 н 0000076845 00000 н 0000077051 00000 н 0000077248 00000 н 0000077474 00000 н 0000077685 00000 н 0000077909 00000 н 0000078120 00000 н 0000078359 00000 н 0000078584 00000 н 0000078832 00000 н 0000079063 00000 н 0000079300 00000 н 0000079492 00000 н 0000079756 00000 н 0000079958 00000 н 0000080180 00000 н 0000080386 00000 н 0000080628 00000 н 0000080847 00000 н 0000081128 00000 н 0000081399 00000 н 0000081604 00000 н 0000081626 00000 н 0000082292 00000 н 0000082496 00000 н 0000082518 00000 н 0000083137 00000 н 0000006669 00000 н 0000014241 00000 н трейлер ] >> startxref 0 %%EOF 192 0 объект > эндообъект 502 0 объект > поток [email protected], \q!

Сравнение априорной и апостериорной PDF и функции правдоподобия.

Контекст 1

... теплопроводность κ возьмем независимой от координат x ∈ G и для простоты примем ее как априорную нормально распределенную переменную κ f = q f со средним значением E ( q f ) знак равно 2 Wm - 1 K - 1 и стандартное отклонение 0 . 3 Втм - 1 К - 1 . Измерения будут смоделированы с «истинным» значением κ t = 2 . 5 Втм - 1 К - 1 . Они выполняются в каждом узле сетки конечных элементов; и дополнительно загрязняется в каждом узле независимым центрированным гауссовским шумом со стандартным отклонением σ ε = 10 ◦ C.В этом конкретном примере идентификация κ выполняется полностью байесовским способом (см. уравнение (4)) с помощью процедуры MCMC с 100 000 выборок, как описано в подразделе 3.1. На рис. 2 мы отображаем форму априорной вероятности, функцию правдоподобия и апостериорную функцию плотности вероятности (PDF) и сравниваем их с правдой. Мы видим, что среднее значение и мода апостериорного значения — и то, и другое часто берутся как одноточечные оценки — по сравнению с априорным сдвигаются в сторону истины; а дисперсия апостериорного значения (означающего неопределенность истинного значения) меньше, чем дисперсия априорного.Другой частой одноточечной оценкой является максимум функции правдоподобия — хорошо известная оценка максимального правдоподобия L max ( κ ) — которая также может рассматриваться как близкая к истине. Можно также заметить, что эти (и другие) точечные оценки дают лишь неполную картину, так как не будут содержать информации об остаточной неопределенности. С другой стороны, процедура байесовской идентификации дает полное распределение вероятностей, которое также информирует об остаточной неопределенности. Как показано, метод MCMC работает очень хорошо, но требует больших вычислительных ресурсов.Это требует расчета отклика модели для большого количества образцов, каждый раз решая КЭ-систему с другим параметром материала. Чтобы улучшить производительность [23, 16], мы вычисляем приближение полиномиального хаоса ...

Context 2

... в каждом узле сетки конечных элементов; и дополнительно загрязняется в каждом узле независимым центрированным гауссовским шумом со стандартным отклонением σ ε = 10 • C. В этом конкретном примере идентификация κ выполняется полностью байесовским способом (см.(4)) с помощью процедуры MCMC с 100 000 образцов, как описано в подразделе 3.1. На рис. 2 мы отображаем форму априорной вероятности, функцию правдоподобия и апостериорную функцию плотности вероятности (PDF) и сравниваем их с правдой. Мы видим, что среднее значение и мода апостериорного — и то, и другое часто берутся как одноточечные оценки — по сравнению с априорным сдвигаются в сторону истины; и дисперсия ...

Имплицитное и явное изучение байесовских априорных значений по-разному влияет на предвзятость при перцептивном принятии решений

Участники вынесли суждения об ориентации (45° влево или вправо) стимула динамического паттерна Glass 27 .Мы параметризовали сложность оценки восприятия в каждом испытании, варьируя корреляции пар точек, называемые когерентностью, в диапазоне от 0 до 100%, при этом 0% не имеет корреляций пар точек и, следовательно, не имеет сигнала ориентации, а 100% имеет все пары точек. коррелированный и, следовательно, самый сильный сигнал ориентации. В каждом испытании после появления центрального пятна фиксации на время фиксации 1000 ± 200 мс появлялись две мишени выбора, одна слева, а другая справа от экрана, чтобы сориентировать участников.Затем появлялся стимул «Стекло», пятно фиксации исчезало, и участники сообщали о своем восприятии нажатием клавиши; либо «o» для левого или «p» для правого. Если участник выбирал правильно, звуковой сигнал обеспечивал обратную связь. Неправильный выбор не получил никакого тона, а испытания с когерентностью 0% получили обратную связь, соответствующую исходной доле для этого условия (например, 50% испытаний в состоянии, в котором две ориентации были одинаково вероятны; рис. 1a).

Рисунок 1

Схематическое изображение задачи и модели дрейфовой диффузии (DDM).( a ) Черные квадраты показывают экран, который просматривали участники, и иллюстрируют пространственное и временное расположение задачи. Белый кружок в центре экрана показывает точку фиксации, а два дополнительных белых кружка обозначают два возможных варианта; влево или вправо. Пятно фиксации и мишени выбора появлялись последовательно с задержкой 1000 мс ± 200 мс между ними. Затем появился паттерн «Стекло», и пятно фиксации одновременно исчезло, что побудило участника сообщить о воспринимаемой ориентации нажатием клавиши («о» для левого и «р» для правого).Тон, обозначенный звуковым символом, обеспечивает обратную связь только для правильного выбора. ( b ) Эксперимент 1: цвета хаки и сиреневый Стеклянные узоры (100% когерентность, 45-градусная ориентация, отрицательная и положительная), иллюстрируют предшествующую манипуляцию. Отрицательная ориентация образца стекла цвета хаки имела место в 25% испытаний, а положительная ориентация имела место в оставшихся 75% испытаний образца стекла цвета хаки (предыдущий положительный результат). Для стимулов образца сиреневого стекла отрицательная и положительная ориентация происходили с равной вероятностью (Равноприорные).Все типы испытаний чередовались случайным образом, и мы уравновешивали цвет и направление стимулов шаблона стекла для участников и в конечном итоге преобразовывали их в положительную и отрицательную ориентацию для целей анализа. ( c ) Эксперимент 2: Отрицательная ориентация имела место в 25% испытаний образца стекла цвета хаки, а положительная ориентация имела место в оставшихся 75% (положительный предварительный результат). В том же экспериментальном блоке отрицательная ориентация имела место в 75 % испытаний образца оранжевого стекла, а положительная ориентация имела место в оставшихся 25 % испытаний образца оранжевого стекла (отрицательный предыдущий результат).Все типы испытаний были случайным образом чередованы, и мы уравновешивали цвет и направление стимулов шаблона стекла для участников и в конечном итоге преобразовывали их в положительную и отрицательную ориентацию для целей анализа. См. текст и раздел «Методы» для получения дополнительной информации. ( d ) DDM перцептивного принятия решений предполагает, что сенсорные данные накапливаются с течением времени, пока не будет достигнута граница, обозначенная здесь как Положительная и Отрицательная. Сплошная стрелка цвета хаки показывает скорость накопления доказательств, помеченная скорость смещения для более частых ориентаций, а пунктирная стрелка цвета хаки показывает нормальную скорость для менее частых ориентаций.Синяя линия показывает накопление зашумленных доказательств для отдельного испытания. При отсутствии предвзятости свидетельства в пользу положительного или отрицательного решения начинают накапливаться в точке, равноудаленной от двух границ, называемой начальной точкой накопления свидетельств (стрелка цвета хаки). Время указано по горизонтальной оси. ( e ) То же, что и в ( d ), за исключением того, что процесс накопления начинается в точке ближе к положительному решению (показано черной пунктирной стрелкой).( f ) То же, что и в ( d ), за исключением увеличенного смещения скорости дрейфа для положительных решений (показано пунктирной черной стрелкой).

Важнейшим аспектом этой задачи было то, что каждый стимул в виде узора стекла появлялся в одном из двух разных цветов (красном или зеленом), и для каждого участника вероятность левой или правой ориентации для каждого цвета различалась. Таким образом, цвет стимула предоставлял информацию, которая могла способствовать перцептивному решению об ориентации, и в этом смысле знание взаимосвязи цвета и ориентации действует как байесовский априор 25,28 .Цвет стимула и априорные вероятности были уравновешены между участниками, поэтому мы преобразовали ориентацию в положительную (правую) и отрицательную (левую) ориентации. В эксперименте 1, называемом условием 75–50, один цветной образец стекла имел положительные априорные ориентиры, а другой — одинаковые априорные ориентиры (рис. 1b). Как и в эксперименте 1, в эксперименте 2 также использовались два шаблона цветного стекла с разными априорными вероятностями (рис. 1c). В эксперименте 2 каждый цвет был связан с положительным априорным и отрицательным априорным с одинаковой силой, поэтому не было разницы в базовой скорости для двух ориентаций для всех стимулов.Предыдущие исследования перцептивного принятия решений напрямую не изучали, было ли знание априорных событий явным или неявным. Здесь мы смогли классифицировать знания участников об априорах на основе их ответов на анкету, предоставленную после сеанса, и сравнить их результаты с результатами участников, которые были проинформированы о априорах в начале задачи.

Чтобы охарактеризовать различия, основанные на типе знания априорных значений, мы исследовали производительность с помощью DDM.DDM рассматривает процесс, в котором чистое свидетельство — разница в свидетельстве за или против определенного исхода — накапливается со временем. Когда количество доказательств достигает уровня, связанного с той или иной границей или порогом, принимается решение (рис. 1d). В этой структуре априорные факторы могут создавать предубеждения при принятии решений либо за счет изменения начальной точки, с которой начинает накапливаться свидетельство, чтобы она была ближе к границе, связанной с более частой альтернативой 17,19,29,30 (рис.1e), или за счет увеличения скорости накопления доказательств для более частого варианта 1,23,24,31 (рис. 1f), или и того, и другого 21,25,32 . Мы смоделировали данные, полученные в ходе экспериментов 1 и 2, с помощью простого DDM (см. раздел «Методы»), чтобы оценить механизмы, лежащие в основе того, как неявное и явное знание априорных факторов создает предубеждения при принятии решений.

Эксперимент 1 — участники могут неявно узнавать априорные данные

Данные 67 участников были проанализированы в Эксперименте 1, все с информированного согласия с использованием процедур, одобренных IRB Калифорнийского университета в Лос-Анджелесе.На основании ответов на анкету участники были разделены на три группы. Участников классифицировали как «неявно обучающихся», если они не сообщали о том, что разные цвета связаны с разной базовой скоростью ориентации и что они воспринимали ориентации как встречающиеся с одинаковой частотой (N = 23, 34%). Участники были классифицированы как «частично явные учащиеся», если они сообщили об общей разнице в частоте ориентации, но не знали, что это отличается по цвету, или могли определить ориентацию только для одного цвета (N   =   20, 30%).Группа участников (N   =   24, 37%), классифицированных как «Явно обучающиеся», была проинформирована об априорных значениях для различных цветных стимулов в начале сеанса, и все они правильно сообщили об этом в конце сеанса.

Все участники хорошо справились с заданием, используя информацию об ориентации для определения своего выбора (рис. 2a–c). Для стимулов с ненулевой когерентностью процент правильных ответов составил 83,14%, 81,16%, 79,54% для имплицитных, частично явных и явных групп соответственно. Эта точность была самой высокой у неявных учеников и была значительно выше, чем у явных учеников: t(45) = 2.55, p = 0,014. Все участники также продемонстрировали склонность к более позитивному выбору. Мы рассчитали смещение, измерив долю выборов, сделанных при 0% согласованности. Для неявных учащихся средняя доля положительных выборов в положительных предыдущих испытаниях составляла 0,575 (рис. 2а, отличие от случайности: t(22) = 31,88, p < 0,001). Кроме того, количество положительных выборов увеличилось на 4,2% по сравнению с уровнем вероятности даже для равных предыдущих испытаний (рис. 2а, 0,542; отличие от случайности: t(22) = 25.25, p < 0,001). Систематическая ошибка существенно не отличалась между двумя условиями (t(22) = 1,008, p = 0,289). Частично явные учащиеся продемонстрировали аналогичную тенденцию в производительности и использовании априорных значений (рис. 2b, средняя пропорция = 0,622; t(19) = 24,09, p < 0,001). Для равных предыдущих испытаний частично явные учащиеся также продемонстрировали увеличение выбора положительной ориентации (рис. 2b, средняя доля   =   0,551; t (19)   =   20,25, p   <  0,001), что было ниже, чем для положительных предыдущих испытаний. (t(19) = 2.274, p < 0,05). Таким образом, неявное изучение как общего априорного (неявная группа), так и специфического для цвета априорного анализа (частично явная группа) происходило у участников, которые не были проинформированы о различиях базовой скорости. Среднее отклонение для положительных предыдущих испытаний в группе Explicit составило 0,645, что значительно выше случайного (рис. 2c, t(23) = 28,08, p < 0,001). Участники Explicit Learners также продемонстрировали увеличение систематической ошибки для одинакового предшествующего условия, которое значительно отличалось от случайного (рис.2в, 0,591; t(23) = 18,47, p < 0,001), но значительно ниже, чем для положительного априорного условия (t(23) = 2,316, p < 0,05). Частично явные и явные группы показали одинаковые результаты, без существенной разницы между способностью применять априорные значения, связанные с двумя цветами (p = 0,889), хотя участники частично явных групп имели минимальное представление о том, как цвет стимула был связан с ориентацией. вероятность.

Рисунок 2

Участники узнают несколько априорных значений явно и неявно.( a ) Доля вариантов выбора, нанесенных на график в зависимости от когерентности шаблона Glass для 23 участников. Закрашенные сиреневые круги и планки погрешностей показывают среднее значение и SE для каждой когерентности среди всех участников, которые сообщили об отсутствии различий в частоте ориентации (Implicit Learners) для одинакового предшествующего состояния (50% положительных и 50% отрицательных). Сиреневые сплошные линии показывают наиболее подходящую логистическую функцию (см. раздел «Методы»). Закрашенные кружки и линии цвета хаки показывают то же самое для положительного предшествующего состояния, в котором более частая ориентация была положительной, называемой положительным исходным состоянием (75% положительных и 25% отрицательных).На вставке показан параметр смещения для равных (сиреневый) и положительных (хаки) априорных значений, представленный как отклонение доли положительных выборов при 0% согласованности от несмещенного условия (0,5). ( b ) То же, что и в ( a ) для участников, которые сообщили о разнице в частоте ориентации независимо от цвета или только для одного цвета (частично явные учащиеся; n = 20). ( c ) То же, что и в ( a ) для участников, которые были проинформированы о предыдущих условиях (Explicit Learners; n = 24).( d ) Оценки параметров из DDM подходят для одинакового априорного условия (сиреневый) и положительного априорного условия (хаки) для всех неявных учащихся. Заштрихованные по диагонали столбцы показывают среднее значение и 95% доверительный интервал (ДИ) смещения начальной точки, а горизонтальные заштрихованные столбцы показывают среднее значение и 95% доверительный интервал смещения скорости дрейфа (эквивалентная когерентность в %). ( e ) Сарния как в ( d ) для Частично Явных Учащихся. ( f ) То же, что и в ( d ) для Explicit Learners.

Принимая во внимание предыдущую работу, демонстрирующую, что правильный выбор в предыдущем испытании может повлиять на решение в текущем испытании (Urai et al. 23 ), мы проверили, присутствовали ли такие «исторические предубеждения» в текущих данных и могли ли они объяснить влияние априорных значений, которые мы наблюдали. Для каждой группы мы исследовали выбор в испытаниях с нулевой когерентностью, чтобы выяснить, различаются ли они в зависимости от направления предыдущего выбора, когда он был правильным. Мы не обнаружили доказательств предвзятости истории ни в одной из групп (t’s < 1.6, p’s > 0,12). Таким образом, представляется маловероятным, что предвзятость была вызвана выбором в предыдущем испытании, а не между испытаниями.

Имплицитные и явные обучающиеся используют разные механизмы для применения предубеждений при принятии решений

Используя DDM, мы ранее наблюдали, что здоровые участники регулируют как начальную точку накопления доказательств, так и смещение скорости дрейфа, чтобы выразить предвзятость при принятии решений, и что это было изменение смещения скорости дрейфа, которое обеспечило специфичность объекта для смещения 25 .Однако в этом исследовании мы не знали, знали ли здоровые участники об ассоциации с предшествующими признаками или же осведомленность была связана с использованием различных механизмов для реализации систематической ошибки. Здесь мы оценили, различался ли механизм, лежащий в основе выражения предвзятости, для разных типов учащихся, неявный, частично явный и явный.

Мы независимо подобрали два DDM для конкретных функций ко второй половине данных экспериментального сеанса (600 испытаний), позволив только начальной точке и смещению скорости дрейфа различаться между двумя функциями (таблица S1).На рис. 2d–f показаны средние оценки параметров и доверительные интервалы оценок параметров для начальной точки и смещения скорости дрейфа для обоих предшествующих условий. Для неявных учеников отправная точка сместилась в сторону более частой ориентации как на равные, так и на положительные предыдущие испытания. Сдвиг в начальной точке был одинаковым для двух условий (равная априорная оценка: 7,6%, SE: 0,7%, положительная априорная оценка: 5%, SE: 0,7%). Изменение начальной точки было численно больше для равного априорного условия по сравнению с положительным априорным условием, но этому противодействовало противоположное изменение смещения скорости дрейфа для равных предыдущих испытаний (оценка:  - 2.1%, SE: 0,5%). Смещение скорости дрейфа для положительного предшествующего условия было в том же направлении, что и для более частой ориентации, но с небольшой величиной (оценка: 0,7%, стандартная ошибка: 0,5%). Таким образом, для неявных учащихся наблюдалось значительное увеличение начальной точки для обоих предварительных условий, сопровождаемое небольшим уменьшением смещения смещения, когда предшествующие условия были равными, что приводило к предвзятости в принятии решений, которая не дифференцируется по цвету стимула.

Для частично явных учащихся мы наблюдали аналогичные изменения в начальной точке накопления доказательств и количественно большие изменения смещения скорости дрейфа по сравнению с неявными учениками (рис.2д). Начальная точка накопления доказательств для равных предыдущих испытаний составила 6,4% (SE: 0,8%) и 3,1% для положительных предыдущих испытаний (SE: 0,8%). Точно так же смещение скорости дрейфа было положительным для обоих предшествующих условий, но в отличие от исходной точки скорость дрейфа была намного выше для положительного предшествующего условия (6,6 %, стандартная ошибка: 0,5 %) по сравнению с равным предшествующим условием (2,2 %, SE: 0,5%). Таким образом, как неявные, так и частично явные учащиеся выразили предвзятость решения, изменив начальную точку, однако только частично явные учащиеся развили чувствительность к априорным значениям, связанным с цветами стимула, которая, по-видимому, опосредована в первую очередь изменениями смещения скорости дрейфа.

Мы обнаружили, что Explicit Learners также продемонстрировали общую предвзятость, но только численно большую специфическую чувствительность к априорным признакам, в отличие от частично Explicit Learners (рис. 2b,c). Смещения начальной точки в Explicit Learners были одинаковыми для обоих априорных (равный априорный: 3,2%, SE: 0,8%; положительный априорный: 2,1%, SE: 0,8; рис. 2f). Подобно частично явным учащимся, явные учащиеся также асимметрично скорректировали смещение скорости дрейфа, чтобы выразить предвзятость (Равноприорный: 2.0%, стандартная ошибка: 0,6%; Положительный предыдущий: 6,9%, SE: 0,6%; Рис. 2е). Следовательно, как и в группе частично явных данных, систематические ошибки, связанные с особенностями, в первую очередь были обусловлены смещением скорости дрейфа в группе явных данных.

Чтобы увидеть влияние смещения начальной точки или смещения скорости дрейфа по отдельности, мы смоделировали модель DDM, используя оптимизированные параметры с небольшими изменениями. Чтобы определить вклад смещения начальной точки, мы вручную удерживали смещение дрейфа на нуле и измеряли смещения при 0% когерентности для обоих предыдущих условий.Точно так же, чтобы определить вклад смещения скорости дрейфа в смещение, мы смоделировали модель с оптимизированными параметрами и вручную установили смещение начальной точки равным нулю. Мы заметили, что с полной моделью смещения в неявной группе, частично явной группе и явной группе были: [Равный априор, положительный априор]: [0,531, 0,555]; [0,567, 0,602]; [0,585, 0,622] соответственно. Когда мы смотрели только на вклад начальной точки, мы обнаружили смоделированные смещения следующим образом: [Равный априор, положительный априор]: [0.555, 0,547]; [0,543, 0,531]; [0,567, 0,558] для неявной группы, частично явной группы и явной группы соответственно. Когда в модели сохранялось только смещение дрейфа, мы обнаружили, что смещения для неявных, частично явных и явных групп были следующими: [Равноприорный, Положительный априорный]: [0,484, 0,524]; [0,534, 0,586]; [0,567, 0,610]. Как мы видим из приведенного выше анализа, начальная точка способствует увеличению общего смещения поведения выбора, а смещения дрейфа способствуют цветовой специфичности во всех трех группах, включая группу неявных.Однако смещения скорости дрейфа в группе Implicit были меньше, чем смещения начальной точки, что приводило к отсутствию значительного смещения, характерного для цвета.

В эксперименте 1 участники смогли неявно выучить байесовское априорное значение на основе различных базовых показателей ориентации и могли применить это априорное значение в задаче принятия решений на основе восприятия. Участники также могли по-разному применять априорные значения в зависимости от цвета стимула, даже если они не знали, что цвета связаны с разными базовыми показателями.Неявное знание общего априора, что одна из ориентаций встречалась чаще, было зафиксировано смещением начальной точки в DDM. Явное знание априорных значений, специфичных для цвета, было получено в основном за счет изменений смещения скорости дрейфа в DDM. Участники, которые получили некоторые знания о частоте ориентаций в задании, но не узнали о априорных значениях, связанных с цветом, также показали различия в смещении скорости дрейфа для двух условий.

Эксперимент 2 — изучение априорных особенностей конкретных признаков в отсутствие общего априора

План эксперимента 1 с равной базовой долей априорных значений для одного цвета стимула (50 % для каждой ориентации) и положительным априорным значением для другого ( 75% для одной ориентации) привел к общему априорному 67% в сторону положительной ориентации по всем стимулам.Участники всех групп в некоторой степени обобщили цвета стимула с предвзятыми ответами в сторону положительного априора. Таким образом, было трудно отделить в результатах знания, специфичные для особенностей обучения, и общие предварительные знания. Чтобы изучить изучение априорных особенностей конкретных признаков в отсутствие общего априорного задания, мы провели второй эксперимент, в котором базовая ориентация двух цветов стимулов была в противоположных направлениях. Так, узоры «Стекло» одного цвета встречались в 75 % случаев с положительной ориентацией и 25 % испытаний с отрицательной ориентацией, тогда как узоры «Стекло» другого цвета встречались с положительной ориентацией в 25 % испытаний и негативная ориентация в 75% испытаний (рис.1с). Такое расположение гарантировало, что общие вероятности положительной и отрицательной ориентации оставались постоянными.

Мы проанализировали данные для другой группы из 41 участника эксперимента 2, все с информированного согласия и с использованием процедур, одобренных UCLA IRB. 21 участник был отнесен к группе Implicit Learner, поскольку им не сообщили о различиях в базовых показателях. Ни один из этих участников не сообщил о том, что заметил различия в базовых показателях в анкете, предоставленной после сеанса.20 участников были распределены в группу Explicit и были проинформированы о различных базовых показателях для двух цветов. Участники точно классифицировали 81,03% и 83,40% стимулов с ненулевой когерентностью в неявной и явной группах соответственно, и между группами не было различий (t(39) =  − 1,48, p = 0,146). В отличие от эксперимента 1, явная группа численно показала лучшие результаты, чем неявная группа, что позволяет предположить, что более низкая производительность, наблюдаемая в явной группе в эксперименте 1, не была надежной.На рис. 3а показано, что, несмотря на то, что неявные обучающиеся не знали об априорных значениях, они демонстрировали предвзятость в отношении конкретной функции. Среднее смещение для положительных предыдущих испытаний составило 0,540, а для отрицательных предыдущих испытаний - 0,423, и эта разница в смещениях была статистически значимой (рис. 3а: t = 2,68, p < 0,001). Как и в эксперименте 1, мы не нашли доказательств того, что правильный выбор в предыдущем испытании влиял на выбор при нулевой когерентности для любой группы (t’s < 0,42, p’s > 0,68). Используя DDM, мы обнаружили, что как начальная точка, так и смещения скорости дрейфа были асимметричны с характеристикой задачи i.то есть оба были отрицательными для отрицательного априорного и неотрицательными для положительного априорного условия. Изменение начальной точки для отрицательных априорных значений составило -1,6 % (SE: 0,8 %; рис. 3c), а для положительных априорных значений — 0 % (SE: 0,8 %; рис. 3c). Параметр смещения скорости дрейфа, как и начальная точка, изменился таким образом, что отрицательный априор имел отрицательное смещение скорости дрейфа, а положительный априор имел положительное смещение скорости дрейфа: Отрицательный априор: 3,7%, SE: 0,6%; Положительный предыдущий: 4,7, SE: 0,6%; Рис. 3в). Эти результаты согласуются с экспериментом 1 в том смысле, что неявно изученные априорные смещения, селективные по признакам, искажают принятие решений как посредством начальной точки, так и смещения скорости дрейфа с доминирующим эффектом от смещения скорости дрейфа.

Рисунок 3

Участники изучают и используют априорные ориентиры, специфичные для стимула, которые искажают перцептивные решения. ( a ) Доля вариантов выбора, нанесенных на график в зависимости от когерентности шаблона Glass от 21 участника. Закрашенные оранжевые кружки и полосы ошибок показывают среднее значение и одну SE для каждой когерентности среди всех участников, которые сообщили об отсутствии различий в частоте ориентации (неявные ученики) неодинаковое предварительное состояние, в котором более частая ориентация была отрицательной, называемое отрицательным предварительным состоянием (75% отрицательных). и 25% положительных).Оранжевые линии показывают наиболее подходящую логистическую функцию (см. раздел «Методы»). Закрашенные кружки и линии цвета хаки показывают то же самое для неравного предшествующего состояния, в котором более частая ориентация была положительной, называемой положительным исходным состоянием (25% отрицательных и 75% положительных). На вставке показан параметр смещения для отрицательных (оранжевый) и положительных (хаки) априорных значений. Он представляет собой отклонение доли положительных выборов для 0% согласованности от беспристрастного условия (0,5). ( b ) То же, что и в ( a ) для участников, которые сообщили о разнице в частоте ориентации (Explicit Learners; n = 20).( c ) Оценки параметров из DDM соответствуют отрицательным (оранжевый) и положительным (хаки) предварительным условиям для всех неявных обучающихся. Диагональные заштрихованные столбцы показывают среднее значение и 95% доверительный интервал оценок параметра для смещения начальной точки, а горизонтальные заштрихованные столбцы показывают среднее значение и 95% доверительный интервал оценки параметра для смещения скорости дрейфа (в эквивалентном % когерентности). ( d ) То же, что и в ( c ) для Explicit Learners.

Участники группы Explicit продемонстрировали устойчивое выражение предубеждений, связанных с особенностями.Среднее смещение, измеренное для когерентности 0%, положительных предыдущих испытаний, составило 0,662, а для отрицательных испытаний - 0,292, и эти различия значительно различались (рис. 3b; t(19) = 7,13, p < 0,001), а разница в систематической ошибке два цвета значительно отличались от тех, которые наблюдались у неявных учащихся (t (39)   = 3,782, p   < 0,001). Результаты моделирования показали, что группа Explicit использовала смещения скорости дрейфа для выражения ассоциаций стимула с предшествующими признаками, и эти изменения были намного больше, чем те, которые были получены в группе Implicit Learners.

В группе Explicit смещение начальной точки фактически было в направлении, противоположном априорным значениям. Оценки отправной точки для группы Explicit были следующими: отрицательный априорный: 6,9%, SE: 0,8%; Положительный предыдущий: 0,3%, SE: 0,8%; (Рис. 3d—диагональные полосы). Подобно неявным учащимся, группа явных также показала характерные для особенностей изменения смещения скорости дрейфа, и эти изменения были гораздо более заметными: отрицательный априорный:  − 17,9%, SE: 0,6%; Положительный предыдущий: 12,7%, SE: 0,5%; (Рис.3г — горизонтальные полосы). Этот результат предполагает, что изменение начальной точки для отрицательного априорного условия может быть компенсационным механизмом для сильного изменения смещения скорости дрейфа, как сообщалось ранее 25 . Эти результаты показывают, что, согласно DDM, люди реализуют явные априорные предположения за счет повышения скорости дрейфа к границам решений.

В эксперименте 2 мы хотели измерить индивидуальный вклад начальной точки и смещения скорости дрейфа, когда были априорные события, специфичные для стимула, без общего априорного события.Мы заметили, что с полной моделью предубеждения в группе «Неявные ученики» и «Явные ученики» были следующими: [Отрицательный априорный, положительный априорный]: [0,448, 0,550]; [0,318, 0,646] соответственно. Когда мы рассмотрели только вклад начальной точки, мы обнаружили смоделированные смещения следующим образом: [Отрицательный априорный, положительный априорный]: [0,482, 0,507]; [0,500 0,516] для групп Implicit и Explicit соответственно. Когда в модели сохранялось смещение дрейфа, мы обнаружили, что смещения для неявных и явных групп были следующими: [Отрицательный априорный, положительный априорный]: [0.457, 0,550]; [0,287, 0,648]. Как и в эксперименте 1, смещение скорости дрейфа вносит вклад в специфические смещения стимула. Начальная точка имела меньший вклад, который, по-видимому, компенсировал большие смещения скорости дрейфа в группе Explicit.

Основываясь на результатах двух экспериментов, имплицитное изучение информации о базовой частоте может происходить как в общем, так и в отношении конкретных признаков, и это знание, по-видимому, влияет на принятие решений за счет более эффективного накопления сенсорных данных, согласующихся с приоры.Когда участники знают о разнице в базовой скорости, происходит большее увеличение смещения скорости дрейфа. Смещения начальной точки также могут способствовать специфичности стимула либо за счет увеличения смещения небольших изменений из-за смещения скорости дрейфа, как в неявных обучающихся, либо за счет противодействия большим изменениям смещения скорости дрейфа, наблюдаемым в группе явных. Таким образом, начальная точка может быть скорректирована как для неявного смещения принятия решений, так и, возможно, для компенсации значительного увеличения скорости дрейфа, которое реализует явное знание априорных значений.

Кроме того, мы также исследовали, может ли единый механизм реализации смещения лучше объяснить данные. Для этого мы подобрали две разные модели, одну только со смещением начальной точки, а другую только со смещением скорости дрейфа, и рассчитали их оценки BIC, которые показаны в таблице S3 дополнительных данных. Оценка BIC для модели с двумя свободными параметрами была ниже в четырех из пяти групп. Этот анализ показывает, что модель со смещением начальной точки и смещением скорости дрейфа в качестве свободных параметров лучше объясняет данные после учета увеличения числа параметров.Пятая группа, явная группа в эксперименте 2, показывает более низкий показатель BIC для модели только со смещением скорости дрейфа. Как обсуждалось выше, группа Explicit в эксперименте 2 демонстрирует самое высокое разделение смещений, специфичных для стимула, которое, по-видимому, почти исключительно обусловлено манипулированием смещением скорости дрейфа.

Добавить комментарий

Ваш адрес email не будет опубликован.