Искусственный интеллект активно проникает в градостроительную отрасль, предлагая новые возможности для оптимизации процессов и повышения эффективности. Технологии машинного обучения, компьютерного зрения и анализа больших данных позволяют автоматизировать проектирование, оптимизировать управление процессом градостроительства, повысить безопасность и снизить затраты на всех этапах жизненного цикла объекта - от проектирования до эксплуатации. Однако широкое внедрение искусственного интеллекта сталкивается с вызовами, такими как необходимость стандартизации, значительных инвестиций, обеспечения кибербезопасности. В статье рассматривается достоинства и недостатки применения вероятностного и детерминированного подхода к искусственному интеллекту для задач строительства и формирования архитектурного облика объектов городской инфраструктуры. Приводится пример разработки базы знаний автоматизированной информационной системы для раскладки облицовочных материалов на фасадах городских зданий.
В статье рассматривается использование алгоритмов машинного обучения для обнаружения аномалий на основе набора данных CICIDS2017, который был специально разработан для имитации реальных сценариев сетевых атак. Особое внимание уделено трем популярным алгоритмам: логистической регрессии, случайному лесу и нейронным сетям. Эти алгоритмы были выбраны благодаря своей способности эффективно обрабатывать большие объемы данных и выявлять сложные паттерны. В рамках статьи проведена серия экспериментов, в которых будут варьироваться объем обучающих данных и оцениваться производительность моделей как на чистых, так и на зашумленных данных. Результаты данного исследования помогут понять, как различные алгоритмы реагируют на изменения в объеме данных и качество входной информации, что является важным аспектом для разработки эффективных систем кибербезопасности.
В статье оцениваются методы машинного обучения для задачи прогнозирования когнитивной нагрузки обучающихся в средах электронного обучения с использованием данных отслеживания взгляда. Основная цель исследования – адаптивное вмешательство в реальном времени для предотвращения когнитивной перегрузки и повышения вовлеченности обучающихся в процесс обучения. В исследовании рассматриваются методы контролируемого обучения, такие как машины опорных векторов (SVM), случайный лес (Random Forest) и логистическая регрессия (Logistic Regression), с использованием симулированных данных отслеживания взгляда обучающихся. Проблема и цели исследования четко определены и сопровождаются всесторонним обзором литературы, в котором рассматривается теория когнитивной нагрузки, отслеживание взгляда и методы машинного обучения в образовательных контекстах. Методология сосредоточена на разработке и обучении моделей с использованием k-кратной перекрестной валидации для обеспечения надежности. Результаты исследования показывают, что Random Forest является самым эффективным методом, демонстрирующим способность улавливать сложные закономерности прогнозирования. Ключевой вклад данного исследования заключается в новом применении интеллектуальных методов для прогнозирования когнитивной нагрузки на основе данных отслеживания взгляда, что повышает прогностические возможности методов машинного обучения. Исследование подчеркивает важность реализации этих методов в реальном времени и проверки на реальных данных обучающихся, а также необходимость решения этических вопросов, связанных с использованием данных отслеживания взгляда в образовательных учреждениях.
Мошенничество с банковскими картами является распространенной и усугубляющейся проблемой в финансовом секторе, требующей инновационных решений для точного и эффективного обнаружения. Традиционные методы обнаружения мошенничества, во многих случаях эффективны, но сегодня они сталкиваются с масштабируемостью и сложностью современных схем мошенничества. Недавние достижения в области квантовых вычислений открыли новые пути для решения этих проблем. В статье представлен квантовый анализ потоков транзакций (QTF A) – инновационная квантовая методология для улучшения обнаружения мошенничества с банковскими картами. QTFA использует принципы квантовой механики, такие как суперпозиция, запутанность и квантовая оптимизация, для моделирования и анализа потоков транзакций в квантовой сети. Представляя транзакции как квантовые состояния, а их отношения как запутанности, QTFA обеспечивает точное обнаружение аномалий с помощью квантовых измерений. Экспериментальные результаты показывают, что QTFA превосходит классические методы машинного обучения, такие как случайные леса и опорные векторные машины (SVM), достигая 98-процентной точности (accuracy), 10-процентного снижения ложных срабатываний и улучшенной полноты (recall). В статье также рассматривается интеграция QTFA в реальные системы, подчеркивается ее потенциал для революционных изменений в обнаружении мошенничества, а также определяются текущие ограничения и направления будущих исследований.
В статье исследуется роль искусственного интеллекта (ИИ) в цифровой трансформации экономики строительства, с акцентом на прогнозирование рисков, оптимизацию ресурсов и обеспечение устойчивого развития. Проанализированы методы машинного обучения, интеграция IoT и BIM-моделирования, а также их влияние на снижение издержек, повышение ROI и минимизацию экологических рисков. Практические проекты российских компаний (ПИК Group, «Газпром строй», «СберСтрой») демонстрируют, как ИИ снижает аварийность на 25-40%, оптимизирует логистику и предотвращает утечки данных. Особое внимание уделено кибербезопасности: алгоритмы ИИ и блокчейн снижают риски атак на IoT-системы на 60%. Исследование выявляет ключевые проблемы цифровизации, включая зависимость от качества данных и необходимость баланса между автоматизацией и экспертным контролем. Показано, что внедрение ИИ требует системного подхода, включающего аудит данных, пилотные проекты и обучение персонала.
Дискуссии о соотношения теории и прогноза в зарубежных изданиях активизировались с 2010-х гг., но в российской литературе эта тематика остается в значительной степени непроблематизированной. Настоящая статья систематизирует выдвигаемые в исследованиях международных отношений оценки роли теории в прогнозировании, выявляя перспективы совмещения прескриптивных, объяснительных, интерпретативных и предиктивных функций науки. Она раскрывает истоки как скепсиса теоретиков относительно прогнозов, так и ответной критики бесплодного теоретизирования. В результате статья выявляет ограничения и доминирующей в дисциплине гипотетико-дедуктивной модели познания, и оппонирующего ей статистического индуктивизма. Анализ начинается с представления различных классов теорий, сформировавшихся в исследованиях международных отношений. Оно демонстрирует, что базовые установки нормативного, деконструирующего и интерпретативного теоретизирования плохо совместимы с прогнозированием. После этого рассматривается амбивалентное отношение к прогнозам сторонников объяснительных теорий, апеллирующих к принципиальной непрогнозируемости социальных взаимодействий. Статья отмечает появление с конца 2000-х гг. расчетов на то, что аккумулирование больших массивов данных вкупе с развитием методов их обработки обеспечит предсказания без опоры на объяснительные умозаключения. Тем не менее повышению прикладной ценности научных разработок способствовало бы совмещение теоретических объяснений и прогнозных исследований. Предпринятый обзор подводит к выводу: для того, чтобы теория могла играть большую роль в прогнозировании, прогнозы должны играть большую роль в теоретизировании. Принципиально разделять заключения/выводы о реальности, которые теоретики, безусловно, делают, и предположения о будущем, которые они в массе своей предлагать отказываются, а стоило бы.
В данной работе рассматривается роль искусственного интеллекта (ИИ) в развитии цифровой экономики. Проанализированы ключевые направления использования ИИ в различных отраслях: от прогнозирования рыночных тенденций и оптимизации производственных процессов до повышения эффективности логистики и финансовых операций. Особое внимание уделено моделям машинного обучения, позволяющим анализировать большие объемы данных для принятия стратегических решений. Также затронуты вызовы, связанные с внедрением ИИ, включая вопросы кибербезопасности, утраты рабочих мест и этических аспектов. В работе представлены практические примеры использования ИИ для анализа рынка и оценки влияния автоматизации на занятость. Итогом исследования стало обобщение, что грамотное внедрение ИИ способствует повышению конкурентоспособности стран, ускорению инноваций и устойчивому экономическому росту в условиях глобальной цифровизации. Материалы и методы. Для анализа рынка с использованием искусственного интеллекта можно применить несколько простых методов на Python, включая анализ данных с помощью библиотек, таких как pandas для обработки данных и scikit-learn для машинного обучения. Один из самых простых вариантов — это анализ трендов с использованием метода регрессии. Вот пример простого кода для анализа рынка с использованием линейной регрессии. Результаты. В конечном итоге мы создаем модель, которая прогнозирует объем продаж на основе цены товара. Мы используем простую линейную регрессию для анализа зависимости между ценой и количеством проданных единиц товара. Код также визуализирует зависимость между ценой и объемом продаж, а также выводит коэффициенты модели. Заключение. Применение методов искусственного интеллекта, таких как линейная регрессия, позволяет эффективно анализировать рыночные тенденции и выявлять зависимости между ключевыми показателями, например, ценой и объемом продаж. Использование библиотек Python, таких как pandas и scikit-learn, упрощает обработку данных и построение прогнозных моделей. Визуализация результатов помогает лучше интерпретировать полученные зависимости, что может быть полезным инструментом для принятия обоснованных управленческих решений и оптимизации маркетинговых стратегий.
Целью исследования является разработка усовершенствованного подхода к решению задачи детектирования недопустимых событий в области информационной безопасности для повышения точности обнаружения инцидентов и снижения числа ложных срабатываний. Недопустимым событием является событие в результате кибератаки, делающее невозможным достижение стратегических целей организации или приводящее к значительному нарушению ее основной деятельности. В основе предложенного решения задачи детектирования недопустимых событий лежит нейросетевой классификатор, обученный на данных о недопустимых событиях, таких как атрибуты, прекурсоры и индикаторы компрометации недопустимых событий. Данное решение обеспечивает всесторонний анализ событий и снижение вероятности пропуска недопустимых событий, что делает его актуальным для защиты критической информационной инфраструктуры. Актуальность данного исследования обусловлена быстрым ростом количества и сложности кибератак, а также необходимостью внедрения автоматизированных методов детектирования угроз, сопровождающимися недопустимыми событиями, которые приводят к негативным последствиям. В условиях увеличивающейся сложности киберугроз и многообразия атак традиционные методы обнаружения становятся недостаточно эффективными, что требует совершенствование существующих технологий для защиты информационных систем. Новизна разработанных предложений заключается в повышении точности детектирования недопустимых событий за счет использования методов машинного обучения и нейросетевого классификатора, а также сокращении времени реагирования с использованием инструмента сбора, обработки, агрегирования и визуализации Elastic Stack.
Материалы и методы исследования. Для решения задачи детектирования недопустимых событий использован инструмент Elastic Stack, обеспечивающий сбор, агрегацию и визуализацию данных о событиях. Основным инструментом анализа является нейросетевой классификатор, обученный на наборе атрибутов, прекурсоров и индикаторов компрометации недопустимых событий. Методы исследования включают применение механизмов корреляции событий, анализа аномалий и машинного обучения, которые интегрируются в единую систему. Результаты: предложено решение задачи детектирования недопустимых событий, основанное на применении выявленных атрибутов, прекурсоров и индикаторов компрометации недопустимых событий информационной безопасности.
Заключение: выявленные атрибуты, прекурсоры и индикаторы компрометации недопустимых событий обеспечивают решение задачи детектирования недопустимых событий. Применение предложенного решения способствует совершенствованию защиты информационных систем и снижению рисков, связанных с кибератаками, что особенно важно для обеспечения безопасности критической информационной инфраструктуры.
Цель исследования. Цель исследования состоит в том, чтобы подтвердить или опровергнуть экологическую детерминированность возникновения социально значимых заболеваний у населения Москве на основе анализа данных по экологическим и здравоохранительным показателям в разрезе муниципальных единиц города. Материалы и методы. В статье проведен анализ российской и зарубежной библиографии по проблеме исследования. На основе собранных и обработанных открытых данных по экологическим показателям и по заболеваемости населения в различных районах Москвы были проведены различные виды анализа для выявления взаимосвязи между этими данными. Для классификации социально значимых заболеваний на основе экологических показателей места проживания были построены модели машинного обучения. Математическую основу методов машинного обучения составляют метод k-ближайших соседей, многослойный перцептрон, градиентный бустинг. Для построения моделей использован программный инструмент Jupyter Notebook, поддерживающий язык программирования Python. Результаты. Корреляционно-регрессионный анализ показал, что между некоторыми выбранными экологическими показателями и возникновением социально значимых заболеваний существует статистически значимая корреляция. Данный результат говорит о возможной взаимосвязи, что является одним из главных выводов данной работы. Разработан веб-интерфейс для автоматизации анализа новых данных с помощью построенных моделей машинного обучения, использованных при проведении регрессионного анализа для построения бинарной логистической модели (предсказание на основе собранных данных людей с социально значимыми заболеваниями) и модели мультиклассовой классификации (предсказание на основе собранных данных, какая именно болезнь может быть выявлена у человека). Проведен анализ используемых моделей машинного обучения, определена наилучшая модель для классификации социально значимых заболеваний. Заключение. В результате проведенного исследования удалось собрать полноценную информацию о различных экологических показателях и наличии или отсутствии различных объектов, оказывающих воздействие на окружающую среду. Эти данные были использованы не только в моделях машинного обучения, но и для формирования объективной оценки экологической обстановки муниципальных единиц города Москвы. Поскольку было реализовано автоматическое обновление рейтинга для динамических данных данный результат может быть использован обычными пользователями, не имеющих достаточных квалификаций в экологии и медицине для самостоятельного анализа экологического состояния районов. Считаем, что такие исследования наверняка приведут к эффективным практическим решениям в данной области.
В данной работе разбирается применение алгоритмов машинного обучения для прогнозирования мощности рассеивания энергии за счет переключений компонентов схем на начальном этапе физического проектирования интегральных схем (ИС) для конкретной архитектуры. Реалистичная оценка потребляемой мощности возможна на заключительных этапах маршрута проектирования ИС, что может создать дополнительную итеративность в маршруте для оптимизации энергопотребления. Предложенный метод позволяет довольно точно спрогнозировать конечное значение рассматриваемого вида энергопотребления с высокой точностью для различных типов стандартных ячеек при различных сценариях и конфигурациях планировки. Недостатком метода является необходимость прохождения полного маршрута проектирования выбранной схемы с выбранным диапазоном параметров для сбора данных, нужных для обучения моделей машинного обучения, что требует дополнительных машинных и временных ресурсов.
В статье разрабатывается комплексный подход к прогнозированию транспортной загруженности с использованием синтетических данных, имитирующих динамику городского трафика. Гибридная методология позволяет объединить анализ временных рядов и глубокое обучение, что актуально для моделирования нелинейных зависимостей и закономерностей в транспортных данных.
Цель. Целью работы является разработка и тестирование прогностической модели, способной точно предсказывать уровни транспортной загруженности с учётом сезонных и погодных факторов.
Материалы и методы. Для выявления паттернов в данных применено аддитивное разложение временного ряда, спектральный анализ на основе быстрого преобразования Фурье и оценка автокорреляционных зависимостей. Прогностическая модель реализована в виде двухэтапного подхода: классический алгоритм ARIMA используется для базового прогнозирования, а архитектура LSTM с двумя рекуррентными слоями и регуляризацией – для обучения на последовательностях длиной 24 часа. Дополнительно для сопоставления и подтверждения результатов применён ансамблевый метод Random Forest, настроенный с гиперпараметрами: 200 деревьев, максимальная глубина – 12, минимальное количество объектов в листе – 2.
Результаты. Результаты демонстрируют превосходство LSTM-модели над ARIMA и Random Forest по точности предсказаний, что подтверждается визуальным сопоставлением прогнозов с тестовыми данными и метрикой среднеквадратичной ошибки. Выявлены ключевые факторы, влияющие на загруженность: суточные циклы интенсивности трафика, рост нагрузки при осадках (до 30% при снеге и 20% при дожде), а также температурно-зависимая модуляция транспортного потока.
Применимость методов машинного обучения для тестирования моделей процессора в настоящее время исследуется в крупнейших иностранных технологических компаниях (исследовательские центры ARM, Intel, IBM и другие) и институтах. Однако исследования проводятся только с точки зрения машинного обучения в области формальной верификации, генерации тестов с использованием символического выполнения и решения ограничений, а также для поиска нерегулярных ошибок в уже изготовленном кристалле СБИС микропроцессора. Новизна предлагаемого решения в применении машинного обучения для имитации поведения приложений пользователя с целью повышения качества тестирования RTL-модели микропроцессора направленными псевдослучайными методами генерации тестов. В рамках данной работы планируется показать применимость инструментов машинного обучения для функциональной верификации RTL-модели микропроцессора на системном уровне. Основным результатом проведенного исследования является возможность имитировать поведение набора пользовательских приложений на уровне машинного кода, а также автоматизация процесса анализа труднодостижимых в рамках классического маршрута верификации ситуаций с целью повышения тестового покрытия.