Рассматривается актуальная проблема поиска закономерностей в больших объемах статистических данных. Инструментом анализа данных выступает регрессионный анализ. При построении регрессионных моделей исследователи зачастую стремятся только к их высокому качеству аппроксимации. Но, как отмечено в современных научных работах, одной такой метрики недостаточно. Поэтому сегодня активно развивается интерпретируемое машинное обучение. Ранее автором было предложено определение вполне интерпретируемой линейной регрессии, а задача ее построения была формализована в виде задачи частично-булевого линейного программирования. Исследования выявили высокую эффективность разработанного математического аппарата при решении задач обработки больших данных. Поэтому было принято решение расширить предложенную технологию для построения квазилинейных регрессий. В статье дано определение вполне интерпретируемой квазилинейной регрессии, включающее 6 условий. Разработан алгоритм интерпретации влияния в оцененной квазилинейной регрессии монотонно преобразованных объясняющих переменных на зависимую переменную. Задача построения вполне интерпретируемой квазилинейной регрессии формализована в виде задачи частично-булевого линейного программирования. Показано, как в этой задаче выбирать допустимые границы параметра M. Для демонстрации работоспособности предложенного математического аппарата решена задача моделирования прочности бетона на сжатие по данным, содержащим более 1000 наблюдений. Для этого использовалась программа «ВИнтер-2». В построенную модель вошли следующие преобразованные переменные: цементно-водное отношение, шлак доменной печи, пластификатор и возраст бетона. Построенная регрессия оказалась лучше по качеству аппроксимации и проще по структуре существующей модели. Дана интерпретация построенной квазилинейной регрессии. Влияние объясняющих переменных на прочность бетона в ней согласуется как с содержательным смыслом задачи, так и с другими существующими математическими моделями. Предложенная в статье технология построения вполне интерпретируемых квазилинейных регрессий обладает высоким потенциалом для решения задач обработки больших данных в различных предметных областях.
Рассматриваются задачи генерации уровней для однопользовательских 3D игр и предлагается метод, направленный на ускорение и удешевление процесса разработки игровых уровней, раскрываются подходы и технологии, примененные для решения задач генерации уровней, реализации алгоритмов генерации комнат и путей между ними. После проведения анализа существующих методов генерации уровней выбран метод генерации BSP-tree, который может создавать уникальные уровни на основе входных переменных, позволяющий сократить сроки разработки игровых уровней. Создание бесконечного уровня - сложная задача, однако с использованием некоторых полезных советов и техник становится гораздо проще. Первым шагом для организации бесконечного уровня является создание пустого объекта, который служит основой для уровня, затем можно добавлять различные элементы окружения. Для достижения эффекта бесконечного уровня предлагается использовать технику «прокрутки». Это означает, что когда игрок движется в одном направлении, то объекты в уровне перемещаются в противоположном направлении. Это создает иллюзию бесконечности и позволяет игроку продолжать исследовать новые области уровня.
Обнаружение пожара на ранних стадиях является важным фактором, способным обеспечить снижение ущерба экономике и экологии, а также уменьшения количества пострадавших. Несмотря на возрастающую популярность нейронных сетей как современного метода решения задач в сфере компьютерного зрения, в работах в данной предметной области часто возникают методологические проблемы, ведущие к снижению или полному обесцениванию практических результатов. Данное исследование посвящено поиску таких проблем среди имеющихся работ по обнаружению пожара. В первом разделе проведен контрастный анализ двух работ, в ходе которого были выделены 11 метакритериев для оценки качества исследований. Во втором разделе проведен обзор нескольких работ, посвященных обнаружению пожара в различных условиях, как «классическими» методами, так и с помощью сверточных нейронных сетей. Показана важность правильного выбора метрик, необходимость выбора модели как процесса, полноценного описания исходных данных.
В работе рассматривается задача разработки математического и программного обеспечения для анализа изображений в современных фандоматах. В рамках подхода, основанного на применении методов поверхностного машинного обучения, формулируется задача обработки изображений объектов, подлежащих сырьевой переработке в фандомате, как задача сегментации этих изображений с последующей классификацией по форме. Производится обзор и сравнение известных методов сегментации с целью выделения формы объектов и формирования признаков для классификации. В результате сравнения делается выбор в пользу метода активного контура. Предлагается и исследуется относительно простой алгоритм классификации сегментированных объектов на основе «случайного леса». Также предлагается два алгоритма выделения признаков классификации: алгоритм на основе анализа степени заполненности частей сегментированного изображения и алгоритм, вычисляющий свойства области объекта. Как альтернативный подход также описывается метод классификации получаемых изображений в целом, без предварительного выделения признаков, основанный на глубоком обучении…
В настоящее время все более актуальной становится задача обеспечения безопасности и корректности функционирования различных интеллектуальных автоматизированных систем, построенных на основе технологии интернета вещей, которые включают в себя различные двигатели, редукторы, приводные механизмы. Такие системы широко применяются в промышленности, электроэнергетике, на транспорте и в других критически важных сферах современной промышленности. Непрерывная и достоверная диагностика функционирования подобных устройств обуславливает необходимость совершенствования, как аппаратной части сенсоров, используемых для считывания в реальном времени характеристик функционирования деталей системы, так и программных методов эффективной обработки данных, поступающих от сенсоров для своевременного выявления неисправностей в системе. В статье решается задача разработки подхода к автоматизированному обнаружению дефектов материалов на примере роторных механизмов с использованием машинного обучения и визуального анализа данных. Экспериментальная оценка подхода выполняется с помощью небольшого набора данных, собранных от подшипниковых устройств и описывающих, как нормальный режим функционирования, так и три режима с дефектами в подшипниках. Решение этой задачи позволит более быстро, своевременно и с меньшим участием человека выявлять дефекты устройств и материалов в процессе работы системы. Новизной предложенного подхода является сочетание машинного обучения и визуального анализа данных в условиях использования обучающих выборок малого размера. Кроме того, решается задача отбора признаков дефектов - первичных данных, которые необходимо считывать с сенсоров устройств и которые позволяют достоверно выявлять дефекты в системе. Это будет способствовать уменьшению затрат на внедрение встраиваемых сенсоров и средств их автоматической диагностики, на их обслуживание за счет снижения числа используемых сенсоров.
Работа посвящена изучению возможностей применения искусственных импульсных (или спайковых) нейронных сетей для решения задачи приближенной факторизации Винера - Хопфа для процессов Леви в рамках интеллектуальной системы машинного обучения. Одним из приложений факторизации Винера - Хопфа является вычисление цен барьерных опционов, в связи с чем рассматриваемая задача имеет важный прикладной аспект для вычислительной финансовой математики в части создания гибридных численных методов, комбинирующих современные технологии нейросетей третьего поколения и классические методы вычислительной математики. В рамках статьи предложена импульсная нейронная сеть с моделью «интегрировать-и-сработать» с утечками для факторизации тригонометрического полинома в комплексной форме, коэффициенты которого представляют собой распределение вероятностей. Искомые многочлены-факторы имеют аналогичную вероятностную интерпретацию, при этом у первого фактора первая половина коэффициентов равна нулю, а у второго - вторая половина. Вероятностная интерпретация задачи позволяет обойтись без кодирования и декодирования входных и выходных данных в спайки и обратно. Обучение сети проводится для одного набора коэффициентов полинома с целью минимизировать ошибку приближения этого полинома произведением факторов, коэффициенты которых предсказываются сетью, для чего программно реализована собственная функция потерь. В отличие от традиционного подхода к подбору параметров модели на обучающей выборке, в данной работе предлагается минимизировать ошибку приближения конкретной характеристической функции процесса Леви произведением многочленов-факторов. При этом модель не использует фактические значения коэффициентов факторов при обучении, а только значения многочленов, вычисленные с помощью быстрого преобразования Фурье. В рамках вычислительных экспериментов представлен пример факторизации полинома 255-й степени, связанного с гауссовым процессом Леви, с помощью спайковой нейросети. Программная реализация предлагаемого в статье подхода к решению задачи факторизации написана на языке программирования Python с использованием фреймворка машинного обучения pyTorch и библиотеки snnTorch импульсных нейронных сетей.
Метавселенная, представляющая собой иммерсивную и постоянную виртуальную среду, в сочетании с неправомерным использованием технологий искусственного интеллекта для создания гиперреалистичных синтетических медиаматериалов (фото, видео, аудио), образует новую категорию угроз для общественных отношений в сфере обеспечения неприкосновенности частной жизни.
Действующие нормативно-правовые механизмы, предназначенные в основном для регулирования взаимодействия в физической реальности и более ранних итерациях цифровой среды, недостаточно адаптированы для эффективного противодействия вызовам, возникающим в связи с созданием, использованием и распространением так называемых дипфейков (deepfakes). Именно применение этих технологий для формирования виртуальных аватаров (образов) людей в метавселенной представляет собой особенно сложную задачу. Представлен возможный механизм установления юридической ответственности, основанный на формальном признании комплекса «виртуальные права личности». Этот комплекс включает в себя право на аутентичность и контроль над собственным аватаром, право на подтверждение авторства и защиту от незаконного присвоения виртуальной личности, а также право на обеспечение целостности виртуальной среды субъекта. Предлагаемый подход также предусматривает необходимость разграничения юридической ответственности между субъектами, непосредственно создающими синтетические медиаматериалы с использованием машинного обучения, теми, кто осуществляет их последующее использование и распространение, и провайдерами платформ метавселенной, обеспечивающими инфраструктуру для такого взаимодействия.
Объектом исследования являются веб-серверы и их поведение в условиях высокоинтенсивных распределённых атак типа «отказ в обслуживании» (DDoS), нарушающих доступность сервисов и устойчивость инфраструктур. В качестве предмета исследования рассматриваются современные методы защиты серверных приложений от DDoS-угроз, включая анализ трафика, фильтрацию по частоте запросов, межсетевые экраны (файрволы) и облачные решения. Подробно анализируется эффективность различных технологий защиты, таких как Rate Limiting, ModSecurity, Google Cloud Armor и Cloudflare, а также их интеграция с традиционными средствами - межсетевыми экранами, системами предотвращения вторжений (IPS) и прокси-серверами. В рамках исследования разработан тестовый сервер на языке Go, имитирующий поведение реального веб-приложения с логированием и сбором статистики. Для моделирования DDoS-атак использован инструмент MHDDoS, обеспечивающий широкое покрытие типов угроз: от UDP и SYN Flood до HTTP Flood и Slowloris. Методы исследования включают эмуляцию атак на сетевом и прикладном уровнях трафика, нагрузочное тестирование, сбор метрик (процент заблокированных запросов, среднее время отклика, нагрузка на CPU и RAM) и сравнительный анализ эффективности решений. Научная новизна исследования заключается в разработке и применении экспериментальной модели имитации DDoS-атак с использованием специализированного Go-сервера, что позволило в реалистичных условиях оценить эффективность современных локальных и облачных средств защиты. Анализ реальных кейсов демонстрирует эффективность адаптивных стратегий против современных сложносоставных атак. Выводы подчёркивают необходимость активного подхода к безопасности, учитывающего как технологические, так и организационные меры защиты. Полученные результаты имеют практическую ценность для специалистов по кибербезопасности, системных администраторов и разработчиков защитных решений, предоставляя им методическую основу для создания устойчивых к DDoS веб-инфраструктур. Работа также обозначает перспективные направления для дальнейших исследований в области интеллектуальных систем обнаружения и нейтрализации атак.
С развитием цифровых технологий, искусственного интеллекта и больших данных, спортивная индустрия сталкивается с растущей потребностью в продвинутых аналитических инструментах. В футболе, где стратегическое и тактическое планирование играют ключевую роль, применение технологий компьютерного зрения и машинного обучения для анализа игр становится не просто трендом, а необходимостью для поддержания конкурентоспособности. Использование компьютерного зрения и машинного обучения в спортивной аналитике позволяет автоматически извлекать значимые данные из видео матчей, что значительно повышает скорость и точность анализа по сравнению с традиционными методами. Такие технологии могут предоставить тренерам детальные отчеты о движениях, позиционировании и тактике игроков в реальном времени. Целью является создание системы, которая позволит проводить комплексный анализ футбольных матчей с использованием последних достижений в области искусственного интеллекта и компьютерного зрения. Основной метод - обзор и анализ публикаций по теме исследования; анализ современных технологий, позволяющих автоматически обрабатывать видеоданные. Основная методология - концепция разработки проекта PLAY VISION AI как способ просмотра спортивных матчей с помощью искусственного интеллекта для оценки эффективности игровых стратегий. Актуальность данной работы обусловлена максимальной модификацией современных технических средств для улучшения аналитических возможностей в спорте. Авторами разработаны алгоритмы для калибровки и коррекции искажений видео, полученного с футбольных матчей; разработаны методы детекции и трекинга опорных точек и игроков на видео; реализованы алгоритмы для сопоставления изображений с реальными координатами на поле, а также определения позиций игроков; выполнена интеграция разработанных методов в единую систему с интерфейсом для конечных пользователей. Разработанная система PLAY VISION AI обеспечит тренерам и аналитикам инструменты для оценки эффективности игровых стратегий и подготовки к предстоящим матчам. Также будет способствовать дальнейшему развитию технологий анализа в спорте, открывая новые перспективы для исследований и практического применения.
В данной статье исследовано влияние искусственного интеллекта на повышение эффективности управления в нефтегазовой отрасли. Авторы, анализируя влияние искусственного интеллекта (ИИ) на повышение эффективности в нефтегазовой отрасли, включая оптимизацию разведки, добычи, логистики и экологической безопасности; размер рынка; долгосрочные тенденции в областях применения и т. д., выделяют ключевые технологические решения. К ним относятся автоматизация анализа данных, прогнозирование рисков и интеграция IoT-платформ. На основе проведенного исследования предлагается расширить использование искусственного интеллекта для повышения эффективности нефтегазовой отрасли посредством внедрения гибридных алгоритмов машинного обучения, усиления межотраслевого сотрудничества и разработки стандартов цифровой безопасности. Особое внимание уделяется роли ИИ в снижении углеродного следа и адаптации к глобальным климатическим инициативам. Использованы методы машинного обучения, анализ больших данных и кейс-стади ведущих компаний (Schlumberger, ExxonMobil, СИБУР). Применены статистические модели для оценки снижения затрат на добычу (до 40%) и повышения точности геофизической разведки. Данные получены из отраслевых отчетов, патентных баз и программных решений. ИИ используется для оцифровки производственных записей и автоматического анализа геологических данных, на основе глубинных нейросетей, что позволяет выявлять проблемы и оптимизировать ключевые процессы разведки нефти. Интеллектуальный анализ рыночного спроса через сбор данных и визуализацию повышает эффективность цепочек поставок. Современные коммерческие решения стимулируют цифровую трансформацию отрасли и инновации. Результаты исследования применимы для оптимизации разведки, добычи и логистики. В отличие от существующих работ, акцент сделан на специфику развивающихся рынков. Несмотря на текущие проблемы (затраты, качество данных), внедрение ИИ позволит: Усилить сбор данных каротажа; Внедрить интеллектуальную геофизическую разведку; Автоматизировать диагностику неисправностей. Ключевое направление - создание инновационного исследовательского центра для ускорения цифровой трансформации и внедрения инноваций.
Предметом исследования является количественная оценка взаимосвязи между тональностью упоминаний компании «Ozon Holdings PLC» в русскоязычных средствах массовой информации (СМИ) и динамикой котировок ее акций на Московской бирже. В современной цифровой экономике понимание этого нефинансового фактора имеет критическое значение, особенно для технологических компаний, таких как Ozon, чьи акции характеризуются высокой волатильностью и чувствительностью к информационному фону, а также репутационным рискам. Актуальность работы обусловлена необходимостью для компании Ozon разрабатывать эффективные стратегии управления своим медиа-образом. Это является значимой проблемой в условиях высокой конкуренции и информационного давления, поскольку негативное восприятие способно подорвать доверие инвесторов и негативно сказаться на рыночной капитализации. Целью исследования является установление наличия, направления и силы статистически значимой связи между квартальным агрегированным показателем медиа-тональности и изменением цены акций Ozon. Основная гипотеза предполагает прямую положительную корреляцию: улучшение тональности упоминаний в СМИ ассоциируется с ростом котировок, а преобладание негативной информации - с их снижением. Методология включала сбор квартальных данных о котировках акций Ozon и текстовых упоминаний (Google Новости, 2021-2024). Для сентимент-анализа применялась нейросетевая модель DeepPavlov. Взаимосвязь медиа-тональности и динамики цен акций оценивалась корреляционным анализом Пирсона (α=0.05). Научная новизна заключается в количественной оценке влияния агрегированной поквартальной тональности русскоязычных новостных сообщений на динамику котировок акций крупной российской e-commerce компании, дополняя знания о специфике российского информационного поля. Основные результаты подтвердили гипотезу: выявлена сильная положительная статистически значимая корреляция (r = 0.72, R² = 0.52, p “ 0.001) между медиа-тональностью и ценами акций Ozon. Это указывает, что около 52% вариаций в изменении цен акций могут быть объяснены тональностью СМИ. Исследование имеет ограничения (не учтены соцсети, корпоративные новости, макрофакторы). Практически результаты могут использоваться инвесторами для оценки рисков, а Ozon - для разработки PR-стратегий, оперативного реагирования на негатив и формирования позитивного имиджа для укрепления рыночных позиций и повышения инвестиционной привлекательности.
Проблема и цель. Целью является получение данных в результате моделирования с привлечением нейросети и обоснование возможности использования аппарата искусственных нейронных сетей в тепличном комплексе.
Методология. Агропромышленный комплекс (АПК), как отрасль в целом, невозможен без наличия в нем методов и способов производства, требующих заметного количества внедрённых средств автоматизации производства и управления. Управление практически любой системой невозможно без обработки больших объёмов статистических данных. Использование системы управления тепличным комплексом в сфере АПК имеет те же задачи. В статье приведено описание подхода к проектированию специального модуля системы цифрового управления теплицей с возможностью получения прогнозируемых данных об оценке технических элементов объекта. Объект исследования: тепличный объект общего назначения и цифровые данные, получаемые через коммуникационную сеть от цифровых технических элементов. Кратко описана используемая коммуникационная сеть. Предполагается использование технических элементов, имеющих функции накопления и/или передачи измеряемых данных.
Результаты. На первом этапе была исследована сама возможность применения обученных нейросетей для работы с данными элементов от объектов АПК. На втором исследовалась возможность использования аппарата искусственной нейросети на ограниченном наборе данных для получения прогнозных результатов. В описываемом подходе предполагается использование численных методов для моделирования и метод прогноза с помощью аппарат искусственных нейронных сетей для прогноза состояния технических элементов.
Заключение. Модуль, с использованием нейросети, может быть применен в составе управляющего ПО для мониторинга технических элементов и объектов АПК. Используемый способ применения нейросети с простой архитектурой, с упором на результаты моделирования, позволил исследовать применение такого подхода в системе управления теплицей на основе статистики с объекта.