SCI Библиотека
SciNetwork библиотека — это централизованное хранилище научных материалов всего сообщества... ещё…
SciNetwork библиотека — это централизованное хранилище научных материалов всего сообщества... ещё…
В основу оригинального исследования положена гипотеза о неотвратимости внедрения искусственного интеллекта в реальный сектор экономики. Авторы рассматривают нормативно-правовые основы искусственного интеллекта, а также его исторические аспекты. При этом обозначены базовые траектории применения искусственного интеллекта на примере пищевой индустрии- при моделировании и оптимизации пищевых технологий, идентификации, оценке качества и безопасности пищевой продукции. Отмечено, что предпосылкой к внедрению технологий искусственного интеллекта в пищевой индустрии выступает четко наметившийся переход от массового питания к персонализированному, связанный с производством преимущественно комбинированных продуктов сложного ингредиентного и химического состава. Как следствие, технологии искусственного интеллекта позволяют существенно оптимизировать ресурс времени, повысить эффективность и точность совершаемых покупок, способствуют снижению затрат на приобретение продукции и устранению предубеждений при принятии решений, а также предоставляют максимально персонализированные рекомендации при покупке товаров. Результаты исследования включают обзор и анализ трудов российских и зарубежных ученых в области искусственного интеллекта и сфер его применения в пищевой индустрии, а методология исследования базируется на таких теоретических методах научного познания, как сравнение, анализ, систематизация, дедукция, абстракция, обобщение. Также статья раскрывает юридические и концептуальные аспекты искусственного интеллекта и областей его применения, рассматривает перспективные направления дальнейшего проникновения искусственного интеллекта в пищевой индустрии. В заключении обобщаются преимущества и возможности использования искусственного интеллекта по всей цепочке прослеживаемости пищевой продукции, использования его для анализа цифрового профиля при установлении аутентичности и идентификации пищевой продукции.
В основу оригинального исследования положена гипотеза о неотвратимости внедрения искусственного интеллекта в реальный сектор экономики. Авторы рассматривают нормативно-правовые основы искусственного интеллекта, а также его исторические аспекты. При этом обозначены базовые траектории применения искусственного интеллекта на примере пищевой индустрии - при моделировании и оптимизации пищевых технологий, идентификации, оценке качества и безопасности пищевой продукции. Отмечено, что предпосылкой к внедрению технологий искусственного интеллекта в пищевой индустрии выступает четко наметившийся переход от массового питания к персонализированному, связанный с производством преимущественно комбинированных продуктов сложного ингредиентного и химического состава. Как следствие, технологии искусственного интеллекта позволяют существенно оптимизировать ресурс времени, повысить эффективность и точность совершаемых покупок, способствуют снижению затрат на приобретение продукции и устранению предубеждений при принятии решений, а также предоставляют максимально персонализированные рекомендации при покупке товаров. Результаты исследования включают обзор и анализ трудов российских и зарубежных ученых в области искусственного интеллекта и сфер его применения в пищевой индустрии, а методология исследования базируется на таких теоретических методах научного познания, как сравнение, анализ, систематизация, дедукция, абстракция, обобщение. Также статья раскрывает юридические и концептуальные аспекты искусственного интеллекта и областей его применения, рассматривает перспективные направления дальнейшего проникновения искусственного интеллекта в пищевой индустрии. В заключении обобщаются преимущества и возможности использования искусственного интеллекта по всей цепочке прослеживаемости пищевой продукции, использования его для анализа цифрового профиля при установлении аутентичности и идентификации пищевой продукции.
Хронические неинфекционные заболевания являются важной медико-социальной проблемой, оказывающей существенное влияние на структуру заболеваемости и смертности населения. Актуальность исследования обусловлена необходимостью повышения точности диагностики, персонализации подходов к профилактике и снижению нагрузки на систему здравоохранения. Цель работы - оценка возможности применения современных методов машинного обучения для прогнозирования вероятности развития повышенного артериального давления у взрослых пациентов, наблюдающихся в условиях поликлинического звена. В работе проанализированы обезличенные карты 1843 пациентов. После предварительной обработки, включающей очистку и нормализацию данных, были исследованы следующие алгоритмы: Random Forest, Gradient Boosting, XGBoost, метод K-ближайших соседей и рекуррентная нейронная сеть LSTM. Для верификации качества построенных моделей применялись метрики точности, полноты, F1-мера и ROC-AUC. Результаты апробации показали, что Gradient Boosting и рекуррентная нейронная сеть LSTM наиболее успешно справились с задачей стратификации выборки: пациенты были корректно распределены на группы с отсутствием заболевания, наличием артериальной гипертензии и повышенным риском ее развития. Были показаны ключевые факторы риска - гиперхолестеринемия, неправильное питание и избыток массы тела. Полученные результаты подтверждают целесообразность и перспективность внедрения инструментов машинного обучения, в частности градиентного бустинга и нейросетевых моделей, в клинические информационные системы с целью автоматизированного скрининга артериальной гипертензии и последующего планирования профилактических мероприятий.
Использование технологий искусственного интеллекта в производственных системах приводит к значительным изменениям в управлении и принятии решений, повышая эффективность операций и снижая затраты. Внедрение этих технологий способствует цифровой трансформации производства, улучшает взаимодействие сотрудников и способствует повышению качества выпускаемой продукции. Цель работы - изучение возможностей применения технологий искусственного интеллекта для оптимизации процессов управления в производственных системах. Методология исследования основана на анализе и систематизации научной литературы, нормативно-технической документации и практических кейсов. В ходе исследования был проведен анализ 54 публикаций, из которых отобраны 23, охватывающих основные направления развития искусственного интеллекта, его интеграцию в производственные системы. Рассмотрены публикации из научных баз данных Elibrary. ru и КиберЛенинка за последние 5 лет. В ходе исследования установлено, что технологии искусственного интеллекта, такие как машинное обучение, нейронные сети, алгоритмы нечеткой логики, цифровые двойники и прогнозная аналитика, позволяют решать широкий спектр задач в производстве. Проанализированы примеры использования искусственного интеллекта в системах планирования, автоматизации процессов, логистики, управления ресурсами и контроля качества. Выявлены ключевые преимущества внедрения интеллектуальных систем, включая повышение точности прогнозирования, оптимизацию логистических маршрутов, сокращение простоев оборудования и снижение операционных затрат. Исследование подтверждает универсальность технологий искусственного интеллекта и их значимость для повышения конкурентоспособности предприятий. Развитие отраслевых стандартов внедрения искусственного интеллекта, основанных на классификации по ГОСТ Р 59277-2020, является важным направлением для дальнейшей модернизации промышленности.
Цель исследования - разработать комплексный, нейросетевой и гидродинамического моделирования двухфазной фильтрации в призабойной зоне метод оптимизации геолого-технологических мероприятий на нефтяных скважинах, проводимых для интенсификации добычи нефти. В качестве элементов прокси-модели для формирования обучающей и тестовой выборки использовалась база данных технологических режимов скважин и эффективности обработок призабойной зоны скважин. Библиотеки оптимизаторов Python и алгоритмы глубокого обучения Pytorch применялись для выбора конкретного вида и параметров процесса. Для конкретного месторождения проведен анализ различных вариантов и эффективности воздействия на нефтяной пласт. Для определенной группы скважин анализ показал эффективность прогрева призабойной зоны скважины. На модели двухфазной фильтрации выполнено гидродинамическое моделирование. Результаты расчетов использовались для детализации процессов в пласте и как дополнение к промысловым данным для повышения качества обучающих и тестовых выборок. Показано, что прокси-моделирование, представляющее собой комбинацию алгоритмов машинного обучения и упрощенного гидродинамического моделирования, позволяет прогнозировать эффективность и оптимизировать процесс планирования программ геолого-технологических мероприятий на нефтяной скважине, повысить рентабельность добычи нефти. Разработанная модель на основе алгоритмов глубокого машинного обучения и гидродинамического моделирования открывает широкие возможности для анализа других видов обработки призабойной зоны, физико-химического воздействия на нефтяной пласт.
Мошенничество с банковскими картами является распространенной и усугубляющейся проблемой в финансовом секторе, требующей инновационных решений для точного и эффективного обнаружения. Традиционные методы обнаружения мошенничества, во многих случаях эффективны, но сегодня они сталкиваются с масштабируемостью и сложностью современных схем мошенничества. Недавние достижения в области квантовых вычислений открыли новые пути для решения этих проблем. В статье представлен квантовый анализ потоков транзакций (QTF A) – инновационная квантовая методология для улучшения обнаружения мошенничества с банковскими картами. QTFA использует принципы квантовой механики, такие как суперпозиция, запутанность и квантовая оптимизация, для моделирования и анализа потоков транзакций в квантовой сети. Представляя транзакции как квантовые состояния, а их отношения как запутанности, QTFA обеспечивает точное обнаружение аномалий с помощью квантовых измерений. Экспериментальные результаты показывают, что QTFA превосходит классические методы машинного обучения, такие как случайные леса и опорные векторные машины (SVM), достигая 98-процентной точности (accuracy), 10-процентного снижения ложных срабатываний и улучшенной полноты (recall). В статье также рассматривается интеграция QTFA в реальные системы, подчеркивается ее потенциал для революционных изменений в обнаружении мошенничества, а также определяются текущие ограничения и направления будущих исследований.
Глобальная характеристика структуры предпочтения лица, принимающего решение (ЛПР), играет важную роль при решении практических задач выбора. На ее основе исследователь может объективно сократить число альтернатив, в дальнейшем предъявляемых ЛПР, и тем самым повысить эффективность процедур выбора.
В настоящее время в исследованиях, относящихся к указанной области, имеется единственный пример информации, которую можно отнести к глобальной характеристике структуры предпочтения: упорядочение критериев по важности. Однако отсутствуют процедуры получения от ЛПР такой информации и сами понятия “критерий а важнее критерия b” и “критерий а равноценен критерию b” имеют в разных ситуациях разную трактовку.
В настоящей работе предлагается глобальная характеристика структуры предпочтения для задач выбора с одним ЛПР в предположении, что структура предпочтения ЛПР может быть описана некоторой функцией, удовлетворяющей аксиомам рационального выбора.
Logical-probabilistic machine learning (LPML) is an AI method able to explicitly work with a priori knowledge represented in data models. This feature significantly complements traditional deep learning knowledge acquiring. Object ontologies are a promising example of such a priori models. They are an expanded logical analog of object oriented programming models. While forming the core of the bSystem platform, object ontologies allow solving the applied problems of high complexity, in particular, in the field of management. The combination of LPML and object ontologies is capable of solving the forecasting problems, the tasks of automated control, problem detection, decision making, and business process synthesis. The proximity of object ontologies to the LPML formalism due to the same semantic modeling background makes it possible to integrate them within a single hybrid formal system, which is presented in this paper. In the paper we introduce the approach to integration of these two formalisms and provide some algorithmic basis for the implementation of the resulting hybrid formalism on the bSystem platform.
Использование искусственного интеллекта и цифровых технологий расширяет возможности искусствоведов и реставраторов, предлагая новые подходы к сохранению объектов культурного наследия и работе с ними. В статье представлен обзор мирового опыта применения цифровых решений для выполнения сложных реставрационных задач, связанных с восстановлением, идентификацией и реконструкцией произведений искусства и архитектуры. Особое внимание уделено проектам, получившим широкую известность за пределами реставрационной сферы. Среди них реконструкции фрагментов «Ночного дозора» Рембрандта, цифровая реконструкция фрагментов «Тайной вечери» Леонардо да Винчи и восстановление цветов «Факультетских картин» Густава Климта. В этих проектах алгоритмы искусственного интеллекта представили итоговое изображение утраченных элементов, которые были весьма близки к достоверным.
Упомянут такой проект, как «Следующий Рембрандт», который продемонстрировал широкой публике способность искусственного интеллекта к глубокому анализу авторского стиля и его интерпретации. Раскрыт принцип применения нейросетей в реставрационной практике для обнаружения ранних изображений, скрытых под более поздними красочными наслоениями на примере исследования створок Гентского алтаря братьев ван Эйк. Также рассмотрены проекты британского стартапа Oxia Palus, совмещающие в себе способности нейросетей к анализу авторского стиля и обнаружению оригинального изображения под слоями краски, на примере картин Пабло Пикассо и Винсента Ван Гога.
В статье подчеркивается важность междисциплинарного подхода, объединяющего искусствоведов, археологов и инженеров, как в проекте RePAIR, направленном на воссоздание артефактов из древних Помпей. Представлен пример успешного применения технологий 3D-сканирования в археологических исследованиях, таких как цифровые реконструкции памятников архитектуры в Пальмире и Мосуле.
Продемонстрированы такие значимые успехи в расшифровке античных текстов, как исследование свитков из Геркуланума с использованием томографического сканирования и алгоритмов машинного обучения. Помимо этого, высказываются предположения о возможностях в области сохранения культурного наследия, которые способны обеспечить дальнейшее совершенствование и интеграцию алгоритмов в реставрационные процессы.
В работе описывается метод построения графа знаний по телекоммуникационным данным на основе проприетарных и эталонных моделей, используемых в области телекоммуникаций. В качестве эталонных рассматриваются модели, входящие в фреймворк, разработанный консорциумом TM Forum. Граф знаний проприетарных моделей предлагается строить с помощью автоматизированной обработки лог-файлов автотестов и таблиц БД биллинговой системы. Актуальность применения графов знаний обусловлена их структурированностью и семантичностью, а также возможностью последующего применения алгоритмов машинного обучения для генерации рекомендаций по оптимизации телекоммуникационных процессов и систем. Предложено применение метода на основе подхода многошагового рассуждения для создания интерпретируемых рекомендаций по восстановлению отсутствующих связей, путём их прогнозирования в проприетарном графе знаний. Предложенный метод рассматривает многошаговое рассуждение как задачу ответа на вопрос с использованием обработки естественного языка. Применение разработанного решения на основе нейросетевой архитектуры трансформера обеспечило интерпретируемые результаты с сохранением значений метрик, по сравнению с аналогами.