Статья посвящена исследованию платформ инвестиционного робо-эдвайзинга и автоследования на российском рынке. Автором анализируются тарифы и функционал разных платформ. На основании проведенного анализа автором предлагаются новые концепции и схема работы для реализации робо-эдвайзинга и автоследования. Реализация авторских предложений должна позволить снизить стоимость оказания инвестиционных услуг и также расширить их функционал в сторону автоматического составления торговых стратегий на основании условий пользователя. В рамках предложенной схемы отдельно рассмотрен данного рода функционал на базе авторских моделей комитетных конструкций.
Цель предлагаемой статьи — обосновать применение авторского подхода и методологии, основанных на сочетании технологий машинного обучения и построения направленных графов с их последующей кластеризацией для системного изучения количественных и качественных характеристик рынка государственных закупок и поведения агентов этого рынка. В результате проведенного исследования выделены благодаря инновационному подходу к исследованию, основанному на сочетании технологий машинного обучения и теории сетей и графов, ранее неучтенные региональные и отраслевые факторы, влияющие на взаимоотношения агентов рынка государственных закупок. Систематизированы модели взаимоотношений на этом рынке в авторской трактовке, интегрирующей макроэкономическую ситуацию на рынке и маркетинговые стратегии игроков рынка. Выявлены такие устойчивые шаблоны поведения агентов рынка государственных закупок, как «изоляция», «консерватизм», «мобильность», и обосновано, что изолированное или консервативное поведение игроков рынка повышает вероятность возникновения коррупционных сговоров. Все вышеперечисленное не было системно изучено ранее и имеет научную новизну и высокую практическую значимость. Проведенные исследования способствовали приращению научного знания в прикладном применении теории сетей и графов, в вопросах государственного регулирования экономики, противодействия монополизации рынков и повышении конкуренции. Практические результаты работы связаны с формированием рекомендаций российским органам власти – регуляторам рынка государственных закупок и участникам торгов по выбору эффективных стратегий поведения на рынке.
В статье рассматриваются методы прогнозирования сложности учебных курсов на основе логистической регрессии с использованием оценок по обеспечивающим дисциплинам. Основной объект исследования - курс «Программирование на Python», для которого ключевыми обеспечивающими дисциплинами выбраны математика, информатика и английский язык. Целью исследования является разработка модели, позволяющей адаптировать учебные задания к индивидуальным потребностям студентов, повышая эффективность образовательного процесса. Для реализации модели использованы синтетические данные, что обусловлено ограничениями доступа к реальным образовательным данным. Применение методов машинного обучения, в частности логистической регрессии, позволяет получить не только классификацию курсов по сложности (легкий, средний, сложный), но и вероятностные оценки, отражающие степень уверенности модели в своих предсказаниях. Авторы рассматривают весовые коэффициенты признаков, что позволяет понять вклад каждой обеспечивающей дисциплины в прогнозирование сложности. Прогнозирование сложности курсов и заданий способствует более точному подбору учебных материалов, что улучшает качество образования и способствует развитию персонализированных образовательных траекторий. Таким образом, статья вносит вклад в развитие методов образовательной аналитики и подчеркивает необходимость перехода от прогнозирования успеваемости студентов к прогнозированию сложности курсов, что открывает новые перспективы для персонализации образовательного процесса и повышения его эффективности.
Автоматическая идентификация и классификация нейронов в микропрепаратах нервной ткани имеет важное значение при изучении воздействия ионизирующего излучения на головной мозг. Оценка состояния клеток ЦНС специалистом вручную является трудоемким и субъективным процессом, в то время как алгоритмы машинного обучения показали потенциал в автоматизации этой задачи. В данной работе были использованы 81 фотоизображение препаратов гиппокампа мышей, на которых выделяли клетки без видимых повреждений, легко-измененные и дистрофические. Для каждой клетки вычислялись следующие параметры: Площадь, Округлость и Структурная сложность ядра. Данные параметры использовались для обучения классификатора RandomForestClassifier с использованием библиотеки scikit learn. Точность классификации составила 68%, при этом наиболее значимым признаком оказалась структурная сложность ядра. Предложенный классификатор может служить основой для автоматической системы анализа нейронов в микропрепаратах головного мозга.
В статье рассматриваются основные факторы экономических кризисов. Факторы проанализированы с помощью моделей машинного обучения. В исследовании применяются два алгоритма машинного обучения, деревья решений и градиентный бустинг. Деревья решений создаются путем разделения данных на подмножества на основе значения входных функций. Бустинг, ансамблевый метод, обучается путём объединения множества небольших моделей для создания финальной, прогнозирующей модели. Проведён детальный анализ научных работ на тему использования машинного обучения для анализа кризисных явлений. Распространённые факторы моделирования дополнены новыми, итоговые факторы включают в себя широкий список макроэкономических показателей, биржевых данных и социально-политических факторов. Данные были проанализированы с помощью статистического анализа временных рядов, далее данные были стандартизированы для применения в моделях машинного обучения. Параметры моделей подобраны на данных, с помощью метода кросс-валидации. Наиболее эффективные модели были использованы для анализа значимости факторов кризисных явлений. Результаты показывают потенциал использования моделей машинного обучения в анализе кризисов, предлагает новые инструменты раннего обнаружения кризисов и использования результатов для стратегического планирования органами государственной власти. Будущие направления исследования включают в себя улучшения статистической интерпретации результатов машинного обучения, применение более сложных моделей и создание систем анализа в реальном времени.
Начиная с 2014 года уже несколько систем искусственного интеллекта получили официальные назначения на управленческие позиции в международных компаниях. Таким образом можно говорить о том, что в настоящее время происходит смена парадигмы принятия управленческих решений: от ситуации, когда искусственный интеллект просто служит инструментом поддержки директоров или комитетов совета директоров мы переходим к ситуации, когда искусственный интеллект управляет процессом принятия решений. Один из ключевых вопросов сейчас заключается в том, стоит ли вообще заниматься правом как вычислением. Качественное вычислительное право является жизненно важным условием для успешного развития современной человеческой цивилизации. Необходимость создания алгоритмического законодательства для технических систем уже рассматривалась знаменитыми математиками, в частности Готфридом Лейбницем и Пьером Лапласом. Несмотря на то, что великие мыслители прошлого смогли предвидеть основные принципы, которые могут стать основой для построения рассуждений техническими системами, в свое время они не обладали необходимыми техническими и общественно-социальными инструментами. В статье предлагается методика создания справочника (словаря) по формулированию алгоритмических основ управленческих решений. Рассматриваемая модель справочника (словаря) имеет своей целью предложить справочную основу для формирования политик для автономных систем ИИ, которая позволит всем заинтересованным пользователям выражать информированное согласие или несогласие с принимаемыми системами ИИ решениями. Насколько известно автору, это первая модель справочника (словаря) по моделированию алгоритмических решений автономных систем ИИ для целей корпоративного управления.
За последние 20 лет методы машинного обучения прошли серьезный этап своего развития и сейчас представляют собой весьма функциональный инструмент для анализа данных. В настоящее время они применяются в любой сфере деятельности человека и помогают решать разнообразные задачи - от кредитного скоринга и прогнозирования цен на товары до распознавания номерных знаков автомобилей и синтеза речи. Наиболее актуальными из них являются задачи классификации и кластеризации объектов. В статье приведен обзор и анализ современных методов, способных решать данные задачи.
Статья посвящена анализу различных алгоритмов машинного обучения, как инструментов, использующихся для решения задач повышения глубинности данных сейсморазведки и прогнозирования акустических свойств среды на основе данных электротомографии. В статье освещен порядок действий от сбора данных до тестирования алгоритмов. Большое внимание уделено вопросам повышению качества прогнозирования. Статья включает в себя как теоретические аспекты, так и практические примеры применения методов машинного обучения в сейсморазведке.
Панорамная визуализация потока или теплоотдачи на поверхностных моделях является эффективным и информативным методом исследования направления в пограничном слое. Вследствие развития цифровых и технических возможностей научные исследования все более основаны на анализе больших данных с помощью искусственного интеллекта (ИИ). Насколько оправдано применение тех или иных методов ИИ в каждой конкретной задаче, пока открытый вопрос. Цель работы - обзор результатов применения нейронных сетей (НС) и машинного обучения для решения задач диагностики течений с помощью ЖК. А именно, для измерения полей температуры, тепловых потоков и векторов касательного напряжения внешнего трения. Кроме этого, актуальными задачами являются измерение физической характеристики ЖК и получение новых ЖК-смесей. Обсуждаются возможности и ограничения, области применения и перспективы нейросетевого подключения. А также программные средства для его реализации. Анализ литературных данных показал, что применение НС и глубокого машинного обучения для аппроксимации калибровочных зависимостей температуры и касательного напряжения от многофакторного оптического отклика ЖК позволяет получить точность, сравнимую с пределом контрольной выборки.
Статья посвящена исследованию адаптивных тормозных систем грузовых вагонов, направленных на устранение ключевых недостатков традиционной рычажной передачи. Рассматривается переход на технологию потележечного торможения, позволяющую равномерно распределять усилие между тележками, а также внедрение цифровых решений. Предложены инновационные методы, включая пневмоэлектрические приводы с автоматической регулировкой, распределенную систему мониторинга (датчики вибрации, ИКпирометры) и алгоритмы машинного обучения для прогнозирования износа колодок. Результаты моделирования демонстрируют снижение неравномерности нажатия колодок с 22% до 5%, повышение точности прогноза остаточного ресурса до 92% и сокращение эксплуатационных рисков. Исследование подтверждает эффективность интеграции цифровых технологий и адаптивных механизмов для повышения безопасности и надежности тормозных систем грузовых вагонов.
В статье формализуется таксономия шаблонов проектирования на основе нейронных суррогатных программных моделей. Описывается методология программирования относительно общей для всех шаблонов проектирования программ. Исследование закладывает фундамент для нового класса рабочих процессов инженеров-программистов, основанных на программировании с использованием суррогатов программ.
В статье рассматривается подход к выявлению противоречий между нормативными документами на естественном языке с использованием методов искусственного интеллекта. Внедрение «умных» стандартов, которые позволяют машинам автоматически понимать и применять нормативные требования, является важным этапом цифровой трансформации, однако на практике интеграция таких стандартов с традиционными нормативными документами неизбежна. При этом наличие противоречий между разными стандартами существенно усложняет их автоматическое применение и вызывает сбои в работе информационных систем. Автором предлагается новый подход к автоматизированному выявлению потенциальных противоречий, основанный на кластеризации текстовых данных с последующим анализом дисперсии эмбеддингов нормативных положений. Используется модель больших языковых эмбеддингов «text-embedding-ada-002», что позволяет преобразовать тексты в семантические векторные представления. Далее применяются методы кластеризации и количественный анализ внутрикластерной дисперсии, а также метрика оптимального транспорта (Earth Mover’s Distance) для оценки различий между группами нормативных положений. Проведённые эксперименты на синтетических данных показали, что предложенный подход способен выявлять более 70% искусственно внесённых противоречий, однако выявлено значительное количество ложноположительных результатов, обусловленных влиянием различий в структуре и мета-данных документов. Полученные предварительные результаты демонстрируют возможность автоматизированного выделения областей потенциальных противоречий для последующего экспертного анализа. Практическая значимость работы заключается в создании программного решения, позволяющего автоматизировать поиск противоречий в больших массивах нормативной документации и обеспечить корректность взаимодействия как между системами, так и между человеком и машиной. Материалы статьи будут полезны разработчикам интеллектуальных систем автоматизации нормативной документации и специалистам, занимающимся цифровой трансформацией в сфере стандартизации.