Провиденс, Род-Айленд [Brown University] Когда дело доходит до прогнозирования бедствий, вызванных экстремальными явлениями (например, землетрясениями, эпидемиями или «волнами-убийцами», которые могут разрушить прибрежные сооружения), компьютерное моделирование сталкивается с почти непреодолимой проблемой: статистически говоря, такие события настолько редки, что данные, чтобы они могли использовать прогностические модели, чтобы точно предсказать, когда они произойдут в следующий раз.
Но группа исследователей из Университета Брауна и Массачусетского технологического института говорит, что это не обязательно так.
в Новое исследование В журнале Nature Computational Science ученые описывают, как они объединили статистические алгоритмы, которым требуется меньше данных для создания точных и эффективных прогнозов, с мощной техникой машинного обучения, разработанной в Брауне и натренировавшей их предсказывать сценарии, вероятности, а иногда и временную шкалу даже редких событий. хотя у них не было никаких исторических записей о них.
При этом исследовательская группа обнаружила, что эта новая структура может обеспечить способ обойти потребность в огромных объемах данных, традиционно необходимых для этих типов вычислений, и вместо этого свести серьезную проблему прогнозирования редких событий к вопросу качества. . на количество.
«Вы должны понимать, что это случайные события», — сказал Джордж Карниадакис, профессор прикладной математики и инженерии в Университете Брауна и автор исследования. «Пандемия, подобная COVID-19, экологическая катастрофа в Мексиканском заливе, землетрясение, масштабный лесной пожар в Калифорнии, 30-метровая волна, опрокидывающая корабль — это редкие события, и поскольку они редки, мы не у нас есть много исторических данных. У нас недостаточно выборок из прошлого, чтобы предсказать будущее. Вопрос, который мы рассматриваем в статье, таков: какие наилучшие возможные данные мы можем использовать, чтобы уменьшить количество точек данных нам нужно?»
Исследователи нашли ответ в методе последовательной выборки, называемом активным обучением. Эти типы статистических алгоритмов не только способны анализировать введенные в них данные, но, что более важно, они могут извлекать уроки из информации, чтобы маркировать новые, релевантные точки данных, которые равны или даже более важны для вычисляемого результата. На самом базовом уровне они позволяют делать больше с меньшими затратами.
Это критически важно для модели машинного обучения, которую исследователи использовали в исследовании. Эта модель называется DeepOnet и представляет собой тип искусственной нейронной сети, в которой используются взаимосвязанные узлы в последовательных слоях, которые примерно имитируют соединения, создаваемые нейронами в человеческом мозгу.
DeepOnet известен как механизм глубокой нейронной сети. Он более совершенен и мощен, чем типичные искусственные нейронные сети, потому что фактически представляет собой две нейронные сети в одной, обрабатывающие данные в двух параллельных сетях. Это позволяет ему анализировать огромные наборы данных и сценариев с головокружительной скоростью, чтобы выявлять такие же огромные наборы возможностей, как только он узнает, что искать.
More Stories
Ученые раскрыли секреты потери морских звезд и возобновления роста конечностей
Комплексное мероприятие сообщества людей с деменцией в Ратуте, посвященное Всемирному месяцу борьбы с болезнью Альцгеймера.
Новое исследование массивного надвига предполагает, что следующее большое землетрясение может быть неизбежным