2023: Искусственный интеллект стал глобальным вопросом

(VOVWORLD) - В этом году искусственный интеллект стал одним из глобальных вопросов. Наряду с чрезвычайно широким потенциалом применения в социально-экономической жизни, ИИ также создает высокие риски безопасности, вынуждая страны и международные организации срочно искать меры контроля.
2023: Искусственный интеллект стал глобальным вопросом - ảnh 1Генсек ООН Антониу Гутерриш

 

1 ноября британский словарь Collins выбрал слово AI (ИИ - сокращение от искусственного интеллекта) ключевым словом этого года. Объясняя этот выбор, эксперты-лингвисты Collins заявили, что эта технология быстро развивается и стала «главной темой обсуждения года», причем наиболее убедительно это подтверждается тем, что использование слова «ИИ» за последний год выросло в четыре раза.

Огромный потенциал ИИ

Представление компанией OpenAI генеративного искусственного интеллекта ChatGPT в начале этого года считается важной вехой в изменении мышления многих людей об искусственном интеллекте. Это уже не технологические приложения, пассивно обслуживающие потребности пользователей, а искусственная интеллектуальная система более высокого уровня. Речь идёт о  начале активного «первичного мышления», способного к связыванию метаданных, когнитивному саморазвитию и эволюции посредством взаимодействия с самими пользователями. .

Новое поколение генеративного искусственного интеллекта и передовые многозадачные технологии ИИ (фронтир ИИ) создают большой потенциал для их применения в социально-экономическом развитии стран. Вот некоторые типичные примеры: в Малайзии ИИ применяется в сельскохозяйственном производстве, помогая фермерам картировать данные о сельском хозяйстве и контролировать продуктивность сельскохозяйственных культур. В Израиле финансовое сообщество использует ИИ для создания моделей прогнозирования. В Таиланде госчиновники используют ИИ для проверки налоговых платежей, отслеживания транзакций налогоплательщиков в социальных сетях и т. д. По словам генсека ООН Антониу Гутерриша, при ответственном и справедливом применении ИИ может создать прорыв в развитии государств. “ИИ может помочь преодолеть препятствия на пути к достижению ключевых целей развития, но это зависит от того, будут ли технологии ИИ использоваться ответственно и всеми, включая развивающиеся страны, которым необходимо срочно ускорить устойчивое развитие»

На глобальном уровне ИИ начинает использоваться для создания новых моделей прогнозирования заболеваний, прогнозирования погоды и разработки сортов сельскохозяйственных культур, способных лучше адаптироваться к изменению климата, тем самым создавая новую, более устойчивую глобальную продовольственную систему.


Ответственное развитие ИИ для ограничения рисков 

Помимо огромного потенциала, ИИ вызывает опасения. В связи с быстрым развитием технологий искусственного интеллекта в этом году страны, международные организации, а также эксперты в области технологий становятся все более и более осторожными в высказываниях в отношении рисков, которые искусственный интеллект может создать для национальной безопасности, стабильности общества, в частности, и человечества, в целом. 

   В середине этого года руководители ведущих мировых компаний в области искусственного интеллекта, сотни исследователей и экспертов подписали Декларацию, подчеркнув, что минимизация рисков, связанных с ИИ, должна стать глобальным приоритетом. Они назвали это неотложной задачей, сравнивая ее с предотвращением ядерной войны. Американский миллиардер Илон Маск, один из первопроходцев в разработке технологий искусственного интеллекта, предупредил об опасности этой технологии, если ее оставить без контроля:“«Я думаю, что общественность когда-то была слишком оптимистична в отношении искусственного интеллекта. Я говорю это, потому что в качестве инженера-технолога хорошо знаю это. Если я взвешу все «за» и «против», то я сделаю вывод, что ИИ — это в основном хороший ресурс, но вероятность того, что он станет угрожающей для человечества технологией, не равна  0%. Поэтому нам необходимо смягчить потенциальные недостатки этой технологии».

  В контексте того, что ИИ может выйти из-под контроля и оказать негативное воздействие на человечество, мировое сообщество в этом году усилило контроль над разработкой и использованием этой технологии. В начале ноября в Великобритании впервые прошел Глобальный саммит по безопасности ИИ, на котором Декларация Блетчли была подписана представителями 27 стран, в том числе ведущих мировых держав в области ИИ, таких как США, Китай и Европейский Союз, которые привержены повышению ответственности и укреплению международного сотрудничества в области безопасного использования и исследования ИИ. Также на этой конференции страны предложили принцип «безопасно по дизайну» по контролю ИИ и согласие разработчиков ИИ на проверку на правительством уровне безопасности их приложений ИИ перед публикацией.

В этом году также появился ряд других механизмов управления ИИ. В конце октября ООН объявила о создании Консультативного совета по искусственному интеллекту в составе 39 членов, включая директоров компаний, правительственных чиновников и ученых. Данному совету поручено разработать направления управления искусственным интеллектом на международном уровне. В частности, в начале декабря ЕС достиг политического соглашения по положениям проекта закона об искусственном интеллекте. Это будет первый и наиболее полный закон об ИИ, принятый в мире.

В США и Великобритании были созданы институты безопасности искусственного интеллекта для оценки и тестирования новых моделей, тем самым выявляя все потенциальные риски, связанные с ИИ. Тем временем Китай объявил о «Глобальной инициативе управления искусственным интеллектом», которая устанавливает ряд временных правил для генеративного искусственного интеллекта. Кроме того, более 50 корпораций и исследовательских организаций, таких как Meta, IBM, Intel, Sony, Dell, Управление по аэронавтике и исследованию космического пространства США (НАСА)... совместно создали Альянс искусственного интеллекта с открытым исходным кодом для обеспечения более открытого и прозрачного метода сотрудничества в развитии этой технологии.

Добавить комментарий

Другие