Close Menu
    Популярное

    Фестиваль языков в школе «ШАГИ»: от немецкого до межславянского

    29.05.2025

    Гражданин Грузии, обвиняемый в планировании преступления на почве ненависти, экстрадирован из Молдовы в США

    24.05.2025

    RSF: Британскому журналисту отказано во въезде в Грузию

    24.05.2025
    Facebook X (Twitter) Instagram
    Trending
    • Фестиваль языков в школе «ШАГИ»: от немецкого до межславянского
    • Гражданин Грузии, обвиняемый в планировании преступления на почве ненависти, экстрадирован из Молдовы в США
    • RSF: Британскому журналисту отказано во въезде в Грузию
    • Избран новый председатель Сакребуло Тбилиси
    • Международная реакция на арест Зураба Джапаридзе
    • Сотруднику представительства ЕС отказано во въезде в Грузию
    • Оппозиционный политик Зураб Джапаридзе приговорен к предварительному заключению
    • Реакция на арест Зураба Джапаридзе
    Facebook X (Twitter) Instagram
    BATUMI-TODAY.COMBATUMI-TODAY.COM
    • Главная
    • Новости
      1. Новости Грузии
      2. Новости партнеров
      3. Народные новости
      4. Новости редакции
      5. View All

      Гражданин Грузии, обвиняемый в планировании преступления на почве ненависти, экстрадирован из Молдовы в США

      24.05.2025

      RSF: Британскому журналисту отказано во въезде в Грузию

      24.05.2025

      Избран новый председатель Сакребуло Тбилиси

      23.05.2025

      Международная реакция на арест Зураба Джапаридзе

      23.05.2025

      Фестиваль языков в школе «ШАГИ»: от немецкого до межславянского

      29.05.2025

      Частная школа “Шаги” в Батуми — изменения в программе для 5-9 классов на 2025/2026 учебный год

      17.04.2025

      Театральная студия школы «Шаги» приглашает детей и взрослых на захватывающий спектакль «Ловец снов».

      17.04.2025

      Лето мечты вместе с частной школой “Шаги” в Батуми

      17.04.2025

      Идея для новогоднего подарка — сертификат на лечебный массаж у Азизы

      17.12.2024

      Самые вкусные суши в Батуми — это esthetic.rolls.batumi

      10.05.2024

      Вот какие полицейские в Грузии

      09.02.2024

      В Батуми цветет камелия, а в Тбилиси миндаль

      30.01.2024

      BATUMI-TODAY.COM — информационный партнер престижной международной премии TOP GLOBAL AWARDS-2025

      18.04.2025

      BATUMI-TODAY.COM  — информационный партнёр Международной премии в Батуми Top Global Awards 2025  

      31.03.2025

      BATUMI-TODAY.COM — информационный портал о Батуми и Грузии приглашает к сотрудничеству

      26.03.2025

      Новогодняя афиша на BATUMI-TODAY.COM

      13.12.2023

      Фестиваль языков в школе «ШАГИ»: от немецкого до межславянского

      29.05.2025

      Гражданин Грузии, обвиняемый в планировании преступления на почве ненависти, экстрадирован из Молдовы в США

      24.05.2025

      RSF: Британскому журналисту отказано во въезде в Грузию

      24.05.2025

      Избран новый председатель Сакребуло Тбилиси

      23.05.2025
    • Календарь
    • Блог
    • Эксперты
      • Азиза Шамбетова
      • Евгения Козлова
    • Справочник

      Что делать, если соседи шумят после 23:00

      27.01.2025

      Как перевести деньги из России в Грузию в 2023 году

      10.12.2023

      Полезные контакты для владельцев домашних животных

      05.07.2023

      Почта Грузии — отслеживание посылок

      01.08.2021

      Из Батуми в Турцию

      18.07.2021
    • SMI TODAY
    • SMI MEDIA
    BATUMI-TODAY.COMBATUMI-TODAY.COM
    Главная страница » Порнография, пропаганда, пранки — все это активно создается с помощью нейросетей. Как распознать фейки , созданные AI
    Новости партнеров

    Порнография, пропаганда, пранки — все это активно создается с помощью нейросетей. Как распознать фейки , созданные AI

    By admin15.06.2024Комментариев нет
    Facebook Twitter VKontakte WhatsApp Pinterest Telegram
    Поделиться
    Facebook VKontakte Telegram WhatsApp Pinterest Twitter

    Порнография, пропаганда, пранки — все это активно создается с помощью нейросетей. Как распознать фейки , созданные AI

    Kак распознать фейки AI

    30 мая 2024 года OpenAI выпустила первый в своем роде отчет, согласно которому за последние три месяца компания обнаружила и заблокировала пять скрытых кампаний по влиянию. Операции проводились государственными и частными акторами из Китая, Израиля, России и Ирана. Злоумышленники использовали генеративный ИИ OpenAI для создания и распространения пропаганды в социальных сетях.

    Так, российские кампании критиковали США, Украину и страны Балтии, в частности, используя ChatGPT для создания бота для Telegram. Акторы из Китая производили контент на различных языках для Х и Medium. Иранские акторы генерировали целые статьи против США и Израиля, переводя их на английский и французский. Израильская фирма Stoic создавала фейковые аккаунты и различный контент, обвиняющий антисемитизме американских студентов, протестующих в защиту Палестины.

    Порнография, пропаганда, пранки, мошенничество и фейки — все это сейчас активно создается с помощью нейросетей или так называемого генеративного искусственного интеллекта. Дезинформация, сгенерированная ИИ, представлена во всех возможных форматах: видео, изображения, аудио и текст. Никогда еще обман не был таким убедительным и таким простым в создании.

    Наши партнеры из Factcheck.kz рассказывают, как бороться с дезинформацией, созданной с помощью ИИ, какие наиболее актуальные сервисы, помогающие распознавать дезинформацию, почему сегодня как никогда важно критическое мышление, и каков накопленный мировой опыт в сфере законодательства, регулирующего нейросети и создаваемый ими контент. JAMnews публикует адаптированную версию материала.

    Ожидания и реальность

    Любую перспективную технологию человечество виртуозно умеет превращать в оружие. Нейросети не стали исключением. Как известно, ИИ демонизировался издавна и в фантастических сюжетах, выходя из-под контроля, становился в ряд главных антагонистов цивилизации.

    Это не мешало IT-гигантам активно инвестировать в ИИ, а ученым — развивать эту сферу. Уже сейчас видно, что генеративный ИИ стал революцией и изменит целые отрасли.

    Задолго до появления Midjourney, ChatGPT и других систем на основе генеративного искусственного интеллекта, специалисты предрекали, что вместе с развитием ИИ, будет расти и угроза, которую он представляет для человечества. Но, в то время для многих эти предупреждения звучали как обещания скорого Восстания машин в стиле “Терминатора”. 

    Однако сейчас можно констатировать, что использование генеративных моделей как минимум для создания дезинформации — вполне реальная угроза.   

    Порнография, пропаганда, пранки — все это активно создается с помощью нейросетей. Как распознать фейки , созданные AI

    Аналитики Всемирного Экономического Форума в 2024 году назвали дезинформацию, созданную при помощи ИИ, самой серьезной угрозой мировому сообществу в краткосрочной перспективе. По мнению специалистов, передовые программы на основе искусственного интеллекта усиливают распространение ложной информации, которая угрожает подорвать демократию и поляризовать общество и является главным непосредственным риском для мировой экономики. 

    Порнография, пропаганда, пранки — все это активно создается с помощью нейросетей. Как распознать фейки , созданные AI

    Инфографика из доклада ВЭФ. Эксперты назвали мисинформацию и дезинформацию самой большой угрозой в ближайшие два года.

    В начале 2023 года специалисты из OpenAI совместно со Стэнфордской интернет-обсерваторией и Центром безопасности и новых технологий при Университете Джорджтауна выпустили доклад о потенциальных рисках использования больших языковых моделей — таких как Gemini или Chat-GPT — в целях дезинформации. Аналитики компании признали: «из-за того, что большие языковые модели всё больше распространяются […] в настоящее время практически невозможно гарантировать, что БЯМ никогда не будут использоваться для создания дезинформации.»  

    При этом авторы доклада видят возможное решение проблемы распространения дезинформации в совместных усилиях социальных сетей, разработчиков ИИ программ и правительств. Однако специалисты предупреждают, что даже эти усилия по контролю за контентом могут оказаться недостаточными, чтобы справится с лавинообразным развитием технологий. 

    Ему не нужны твои одежда и мотоцикл

    Говоря об информационных рисках, которые представляют генеративный ИИ, мы, конечно, имеем в виду не сами программы, а их пользователей. Достаточно быстро мошенники, пранкеры и пропагандисты поняли, что с помощью нейросетей можно добиваться своих целей быстрее и эффективнее.

    В результате вместо долгого и кропотливого монтажа теперь можно легко создавать видео- и аудио-дипфейки со знаменитостями и политиками. Мошенники уже используют сгенерированные видео для рекламы своих схем (1, 2, 3) и даже выманивают крупные суммы у людей в реальном времени, с помощью видео-звонков. 

    Порнография, пропаганда, пранки — все это активно создается с помощью нейросетей. Как распознать фейки , созданные AI

    Уже много десятилетий мы боимся, что однажды суперкомпьютеры выйдут из под контроля и начнут вредить человечеству. Но пока что мы сами успешно справляемся с этой задачей. Изображение сгенерировано нейросетью. 

    Но еще опаснее дипфейки, которые используются для политической манипуляции. С помощью дипфейков  можно дискредитировать любого оппонента. 

    Так было с пранком антивоенных российских активистов, с дипфейк-видео с президентом Молдовы Майей Санду о грядущей мобилизации в стране. Или с аудио-дипфейком с голосом мэра Лондона, в котором тот призывает отложить мероприятие в память о жертвах Второй мировой войны в пользу про-Палестинского марша. Распространение последнего фейка чуть не привело к массовым беспорядкам.

    Пропагандисты также взяли на вооружение генеративные нейросети. Например, некий новостной сайт, аффилированный с правительством Китая, с помощью ИИ распространял в казахстанском сегменте Сети фейки об «американских биолабораториях в Республике». 

    Российские пропагандисты с самого начала полномасштабного вторжения в Украину использовали дипфейки с высокопоставленными украинскими государственными деятелями. Чаще других, пожалуй, в таких “видео” используют образ Владимира Зеленского. Например, фейк о капитуляции Украины или с призывом сдать Авдеевку.

    Порнография, пропаганда, пранки — все это активно создается с помощью нейросетей. Как распознать фейки , созданные AI

    Мировое сообщество обеспокоено тем, как сгенерированные фейки могут повлиять на демократию. Изображение сгенерировано нейросетью. 

    Серьезные опасения вызывает влияние сгенерированной дезинформации на электоральный процесс. В 2024 пройдут выборы в 50 странах по всему миру, включая многие европейские страны и США. Мы уже наблюдали как нейросети использовались на выборах в Пакистане, Индонезии, Индии и Словакии. 

    На данный момент сгенерированная дезинформация не нанесла серьезного ущерба глобальному избирательному процессу. Однако до конца года еще далеко, и неизвестно, как дипфейк-кампании повлияют на грядущие выборы.

    Видеть — значит верить

    Проблема распространения ИИ-дезинформации заключается даже не в количестве сгенерированных фейков — хотя их число значительно возросло за последние пару лет — а в том, что технологии создания подделок стали доступны любому, у кого есть доступ в Интернет. При этом сами подделки настолько реалистичны, что определить их искусственную природу бывает очень трудно без специальных навыков и инструментов. 

    Одновременно с этим виральность ИИ-фейков так велика, что даже при оперативной работе фактчекеров, распространение дезинформации невозможно остановить. Более того, дезинформация влияет на мировоззрение и уровень доверия к медиа даже в тех случаях, когда поддельная природа сообщения становится известна, и создатели фейков, вероятно, об этом прекрасно знают.

    К сожалению, когнитивные искажения, из-за которых люди «держатся» за ложную информацию даже после опровержения, не единственная особенность нашей психики, которая играет на руку распространителям ИИ-дезинформации.

    Порнография, пропаганда, пранки — все это активно создается с помощью нейросетей. Как распознать фейки , созданные AI

    Дезинформация влияет на человека даже после того,
    как он сталкивается с её опровержением (Иллюстрация: Midjourney)

    Ученые из Цюрихского университета выяснили в ходе эксперимента, что люди более склонны верить фейковым сообщения, которые созданы ИИ, чем тем, что написаны людьми. Вероятно сгенерированные тексты кажутся более правдоподобными из-за более четкой структуры и краткости изложения. Отметим, что разница в пользу ИИ составила всего 3%, но исследователи, использовавшие в эксперименте ChatGPT-3, предполагают, что процент будет увеличиваться, если задействовать более продвинутые версии больших языковых моделей.

    Еще одну особенность восприятия дипфейков — сродни эффекту Данинга-Крюгера — обнаружили ученые из Института Макса Планка и Амстердамского университета. В результате экспериментов выяснилось, что неподготовленные зрители не отличают реальные видео от дипфейков, но при этом оценивают свои способности в распознавании подделок как достаточно высокие. Отягчающим фактором можно считать то, что в большинстве случаев испытуемые принимали фейковые видео за реальные, а не наоборот. 

    Эффективными средствами для нейтрализации когнитивных искажений и противостояния дезинформации считаются информационная грамотность и пребанкинг. «Кампании по повышению медиаграмотности крайне важны, если мы хотим минимизировать ущерб, причиняемый дипфейками. Если научить аудиторию мыслить как фактчекеры, можно значительно снизить скорость, с которой широкая публика распространяет дезинформацию, и ослабить стимул для тех, кто стоит за её созданием», — считает Инок Нярики, менеджер по работе с сообществом в Международной сети по проверке фактов IFCN.

    А как же инструменты по обнаружению следов искусственного интеллекта?

    Программы по обнаружению следов ИИ в видео, изображениях или текстах — важный инструмент, но для рядового пользователя они не так полезны и эффективны, как критическое мышление и внимательность.

    На сегодняшний день идентификаторы ИИ остаются по большей части профессиональным инструментом для бизнеса, журналистов и фактчекеров.  Многие программы либо целиком, либо в расширенном функционале доступны только по корпоративной подписке или за плату. Для такого положения вещей есть несколько причин.

    Разработка качественных многофункциональных инструментов для идентификации сгенерированного контента требуют ресурсов, поэтому закономерно, что компании, разрабатывающие идентификаторы ИИ заинтересованы в монетизации своего продукта. Особенно учитывая, что инвесторы, судя по всему (1, 2), уделяют технологиям по определению следов ИИ меньше внимания, чем разработкам самого генеративного ИИ. 

    Следующая вероятная причина небольшого количества общедоступных инструментов по определению ИИ заключается в том, что получив доступ к  открытому инструменту, можно очень быстро создать программу, которая будет уметь этот инструмент «обманывать». Поэтому разработчики вынуждены искать компромисс между доступностью и эффективностью своего продукта.

    Ещё один важный фактор, ограничивающий доступ к специальным программам для широкой публики заключается в том, что для правильного использования программой и интерпретации результатов необходимы определенные навыки и знания. По словам Энджи Холан, директора IFCN и бывшего редактора портала PolitiFact, тщательная верификация информации требует внимания, которого часто не хватает широкой публике. В некоторых случаях проверка дезинформации требует специальных навыков по поиску информации, которых также нет у неспециалистов. Кроме того, рядовой потребитель новостей должен обладать достаточно высокой мотивацией, чтобы иметь стимул воспользоваться платной программой для определения следов ИИ.

    Любой желающий может воспользоваться такими программами, как Deepware или AI or Not, но понять, что означают полученные результаты — особенно, если они разнятся в разных программах — задача со звездочкой. У некоторых инструментов по обнаружению следов ИИ вердикт обозначается в процентах вероятности, у других результат выводится в одной из нескольких категорий, например: «скорее всего создано ИИ» или «скорее всего создано человеком». Некоторые программы используют также более продвинутые средства визуализации, например графики и «тепловые карты», которые может быть сложно правильно интерпретировать без дополнительной подготовки.

    Порнография, пропаганда, пранки — все это активно создается с помощью нейросетей. Как распознать фейки , созданные AI

    Источник: AI or Not

    Что касается эффективности инструментов, часто она все еще оставляет желать лучшего. Особенно сложно техническим инструментами правильно идентифицировать сгенерированные текст и аудио. В частности, детекторы ИИ показывают совершенно разные результаты, если поменять местами абзацы в тексте или отправить на проверку аудиофайл, который множество раз скачивали и снова заливали в сеть. Поэтому для надежного определения дипфейка стоит полагаться не только на специальные программы по идентификации ИИ, но и на другие инструменты, а также на внимательность, критическое мышление и знание маркеров ИИ в различных модальностях.

    Если вам все же необходимо прибегнуть к помощи технических анализаторов, можем посоветовать следующие детекторы, которые использовали в своей практике.

    Мы выбрали именно эти программы из-за их доступности, удобства использования и относительной эффективности. Но, к сожалению, ни один из этих анализаторов не безупречен и лучше не полагаться только на их вердикты, но также анализировать изображения, аудио или видео с помощью других средств и методов.

    1. AI or Not — анализирует изображения и аудио. С первым, по нашему опыту, справляется вполне достойно, но с аудио-дипфейками работает уже не так уверенно. Бесплатная базовая проверка 10 изображений и аудио доступна после регистрации, далее тарифы начинаются от 5 долларов в месяц.
    2. Undetectable AI — проверяет текст на следы ИИ. Показывает программы с помощью которых вероятно был сгенерирован текст. Доступен без регистрации.  К сожалению, склонен давать ложноположительные результаты.
    3. DeepFake-o-Meter — анализирует изображения, аудио и видео. Позволяет выбрать детектор из списка доступных вариантов от различных разработчиков. Есть опция не сохранять проверяемые файлы на сервере, что может быть актуально, если вы работаете с чувствительной информацией. Инструмент бесплатный, доступен после простой регистрации. Увы, не все детекторы успешно определяют сгенерированный контент, хотя в отдельных случаях программа показала себя лучше конкурентов.
    4. Deepware — определяет дипфейк в видео. Можно загружать свои файлы, а можно по ссылке из YouTube, Facebook или X. Работает как агрегатор — показывает результат различных детектеров в процентах вероятности  следов ИИ. Не всегда выдает достоверный средний результат, но неплохо справляется с виральными фейками.
    5. AI Speech Classifier от ElevenLabs — распознает сгенерированное аудио, созданное с помощью нейросети ElevenLabs. Доступен без регистрации и ограничений на количество проверок. По нашему опыту анализатор справляется неплохо, но, судя по тому, что программа не распознала следы ИИ в фейковой записи голоса президента США, эффективность детектора может быть не такой постоянной.

    Глаз — алмаз

    Хотя технологическое совершенствование генеративного ИИ грозит тем, что однажды сгенерированный контент станет невозможно отличить от настоящего, на сегодняшний день распространители фейков не особо утруждают себя составлением качественных подделок.

    Во многих виральных видео-дипфейках и сгенерированных изображениях подделку можно было определить невооруженным глазом. В числе таких фейков «фотографии» президента Франции Эмануэля Макрона — якобы в во время беспорядков в Париже, недавний фейк с Дональдом Трампом якобы в окружении его темнокожих сторонников и видео-фейк  «интервью» секретаря СНБО Украины Алексея Данилова, где тот якобы подтверждает причастность Украины к теракту в московском Крокус Сити Холле.

    Причина, по которой эти сообщения распространились, заключается не в высоком качестве фейка, а в невнимательности зрителей, склонности искать подтверждение своей точки зрения и делиться сенсационными новостями, не проверяя их правдивость. Создатели фейков знают об этих слабостях нашего восприятия и рассчитывают на быстрое распространение фейков, а посредственное качество подделок этому не препятствует.

    И здесь снова поможет информационная грамотность. В этой статье мы не будем подробно рассказывать о методах обнаружения ИИ-фейков, об этом уже создано немало достойных материалов: как распознать сгенерированное аудио, изображение или видео-дипфейк. Однако отметим, что для борьбы с дезинформацией, созданной ИИ достаточно соблюдать пару простых правил:

    1. Внимательно изучать материал, которым вы собираетесь поделиться, обращая внимание на детали изображения. Такие явные маркеры ИИ, как лишняя рука на изображении или неестественная мимика человека на видео, можно упустить, если просматривать новость поверхностно.

      Порнография, пропаганда, пранки — все это активно создается с помощью нейросетей. Как распознать фейки , созданные AI

      При беглом просмотре можно не заметить, что у мужчины справа три руки. Источник: X 

    2. Убедитесь, что источники сообщения заслуживают доверия.
    3. Не ленитесь и пользуйтесь методом латерального чтения, чтобы перепроверить информацию — возможно фактчекеры уже опровергли  ее.

    Меры по контролю искусственного интеллекта

    Дезинформация, созданная с помощью нейросетей — достаточно новый вызов для мирового сообщества. Поэтому правовые рамки использования генеративного ИИ как внутри стран, так и на международном уровне ещё только устанавливаются, а их эффективность будет видна только по прошествии времени. 

    Порнография, пропаганда, пранки — все это активно создается с помощью нейросетей. Как распознать фейки , созданные AI

    В исторической перспективе генеративный ИИ появился совсем недавно, поэтому, насколько эффективными окажутся законодательные меры по контролю за использованием нейросетей — покажет время. Изображение сгенерировано нейросетью.

    К сожалению, существующее законодательство на данный момент не препятствует распространению фейков, а скорее действует реактивно. При этом аналитики из сфер экономики и IT предполагают (1, 2), что эффективность любых мер по контролю ИИ всегда будет отставать от развития технологий. 

    Это не значит, однако, что ИИ не следует регулировать. По словам экспертов из Google: «ИИ слишком важная [технология], чтобы ее не регулировать, и слишком важная, чтобы не регулировать хорошо».

    Михаил Климарёв, IT-специалист и директор организации «Общества защиты интернета» считает, что технически ограничить распространение сгенерированной нейросетями дезинформации невозможно, как и привлечь к ответственности создателей фейков — ведь часто они находятся за пределами тех стран, в которых распространяют дезинформацию. Однако можно законодательно обязать компании следить за качеством сведений, которые распространяются на их платформах или с помощью подконтрольных им технологий.

    Основные игроки на рынке соцсетей — например X, YouTube, Facebook и TikTok — уже сформировали ряд мер, по контролю над сгенерированным или измененным контентом. В феврале Google, OpenAI, TikTok, Meta, Microsoft представили черновую версию соглашения по совместной разработке мер противодействия «предвыборной дезинформации, созданной искусственным интеллектом». В начале весны Meta и YouTube уже объявили о расширении правил маркировки сгенерированного контента, а Google заблокировал пользователям возможность задавать вопросы на тему выборов в своем чате Gemini. 

    Национальные законы и стратегии

    Один из первых законодательных актов, косвенно связанных с работой искусственного интеллекта, появился в Южной Корее в 2008 году задолго до громкого появления генеративных моделей. Документ был направлен на регулирование развития и распространения «умных роботов». Руководства и правила для контроля технологий ИИ, применяющихся в разных сферах, постепенно появлялись и в других странах (1, 2).

    Первой страной, которая опубликовала Национальную стратегию развития искусственного интеллекта, стала Канада. В документе содержатся 4 цели для достижения и программы реализации. Из них следует, что главным приоритетом для канадцев является поддержка исследований и талантов.

    Почти одновременно с Канадой принял свой «План развития искусственного интеллекта нового поколения» Китай. Это наиболее обширный и всеобъемлющий проект по работе с ИИ.

    При этом авторы китайского плана обращают внимание на то, что развитие искусственного интеллекта может таить в себе угрозу для безопасности, и это необходимо учитывать. В 2018 году в Китае появилась «Белая книга по стандартизации ИИ» (полный текст книги в редакции 2021 года здесь). Помимо инициатив по внедрению и управлению документ также освещает вопросы надёжности и безопасности. Таким образом в сфере ИИ с одной стороны реализовываются проекты по масштабированию и развитию, а с другой по оценке и регулированию. 

    В 2020 году международное агентство HolonIQ сообщило о 50 национальных стратегиях в области искусственного интеллекта. В том же году была официально запущена OECD AI Policy Observatory — Обсерватория Организации экономического сотрудничества и развития (ОЭСР) по политике в области искусственного интеллекта. На данный момент OECD AI предоставила данные о более чем 1000 политических инициатив об ИИ в 69 странах мира. 354 из них направлены на руководство и регулирование в области ИИ, однако важно отметить, что основная часть  носит общей рекомендательный характер. 

    Евросоюз, AI act как модельный закон

    Больше всех, судя по всему, в сфере правового урегулирования работы ИИ нерекомендательного типа добился Евросоюз. 

    В 2019 году Еврокомиссия опубликовала досье «Укрепление доверия к человекоориентированному искусственному интеллекту». В нём перечислены рекомендации по созданию ИИ, заслуживающему доверия. Ключевые требования, которым должны соответствовать  приложения ИИ:

    1.  человеческая активность и надзор;
    2.  техническая надежность и безопасность;
    3.  конфиденциальность и управление данными;
    4.  прозрачность;
    5.  разнообразие, недискриминация и справедливость;
    6.  социальное и экологическое благополучие;
    7.  подотчетность.

    В декабре 2023 года страны ЕС и Европейский парламент достигли соглашения по закону об искусственном интеллекте. В марте 2024 года Закон, известный как AI act, был принят Европарламентом. Уже сейчас его называют знаковым и высказывают мнение о том, что именно он станет отправной точкой для новой модели управления, построенной на технологиях. 

    Проект направлен на классификацию и регулирование приложений, использующих ИИ, и разделяет их на 4 категории в зависимости от уровня риска, который они представляют. Согласно регламенту, некоторые системы будут полностью запрещены (к примеру, часть из тех, что следит за людьми в режиме реального времени). Другие подвергнутся серьёзной оценке, третьи же не будут подлежать надзору.  

    Также в документе указано, что искусственные или обработанные изображения, аудио- или видеоконтент («дипфейки») должны быть четко обозначены как таковые.

    США

    Ещё одним важным событием в правовом поле является Указ о разработке и использовании искусственного интеллекта, подписанный в 2023 году в США. На сайте Белого дома говорится, что проект «устанавливает новые стандарты безопасности и защиты ИИ, защищает конфиденциальность американцев, продвигает справедливость и гражданские права, защищает потребителей и работников, способствует инновациям и конкуренции, продвигает американское лидерство во всем мире и многое другое».

    Так, согласно новым требованиям, разработчики систем ИИ, представляющих угрозу национальной безопасности США, экономике, здоровью населения или безопасности, должны предоставлять правительству результаты испытаний на безопасность. Министерству внутренней безопасности поручено создать Совет по безопасности ИИ и вместе с Министерством энергетики противостоять угрозам, связанным с искусственным интеллектом/ кибербезопасностью, а также химическим биологическим, радиологическим, ядерным рискам. Для защиты американцев от мошенничества с использованием ИИ Министерство торговли разработает руководство по аутентификации контента и нанесению водяных знаков для четкой маркировки контента, созданного искусственным интеллектом.  

    Кроме того, в начале февраля 2024 года правительство США ввело запрет на роботизированные звонки, которые используют голоса, сгенерированные ИИ. Ограничение было принято на фоне происшествия в штате Нью-Гемпшир, где местным жителям стали массово поступать звонки якобы от президента Джо Байдена. Сгенерированный голос президента призывал своих сторонников не голосовать на предварительных президентских выборах.   

    Заключение

    Для борьбы с дезинформацией, созданной нейросетями, нет никакого универсального средства. Для эффективного противодействия необходимы совместные усилия социальных сетей, разработчиков ИИ, журналистов и правительств, а также повышение медиаграмотности среди широкой публики.

    Последнее сродни иммунизации через вакцинацию и выработку коллективного иммунитета. Только через информирование и обучение критическому мышлению можно снизить распространение и воздействие ИИ-фейков, защищая таким образом информационное пространство и демократию.

    При поддержке Медиасети

    exchange

    Источник: jam-news.net

    719
    Share. Facebook VKontakte Twitter Pinterest Telegram WhatsApp
    Previous ArticleГрузинский каноист завоевал бронзу на чемпионате Европы
    Next Article Министр иностранных дел Латвии о статусе кандидата для Грузии: «дело за властью Грузии сделать свой максимум»
    Рубрики
    Нейросеть для создания песен на грузинском языке
    Зарабатывайте 300 000 лари на Тему
    Нажмите на ссылку https://temu.to/k/ez67xqj41mj, чтобы присоединиться к ⭐️партнерской программе Temu⭐️! До 💰300 000 ₾ в месяц ждет вас~!
    Нажмите на ссылку https://temu.to/k/ez67xqj41mj, чтобы присоединиться к ⭐️партнерской программе Temu⭐️! До 💰300 000 ₾ в месяц ждет вас~!
    Новости партнеров
    BATUMI-TODAY.COM

    BATUMI-TODAY.COM — информационный портал о Батуми и Грузии.

    Контакты редакции: [email protected]

    Свежие записи
    • Фестиваль языков в школе «ШАГИ»: от немецкого до межславянского
    • Гражданин Грузии, обвиняемый в планировании преступления на почве ненависти, экстрадирован из Молдовы в США
    • RSF: Британскому журналисту отказано во въезде в Грузию
    • Избран новый председатель Сакребуло Тбилиси
    • Международная реакция на арест Зураба Джапаридзе
    FreeCurrencyRates.com Яндекс.Метрика Top.Mail.Ru
    Facebook Pinterest
    • Главная
    • Справочник товаров и услуг в Батуми
    © 2025 BATUMI-TODAY.COM. Все права защищены.

    Type above and press Enter to search. Press Esc to cancel.

    Блокировщик рекламы включен
    Блокировщик рекламы включен
    Наш сайт работает благодаря показу онлайн-рекламы нашим посетителям. Пожалуйста, поддержите нас, отключив свой Ad Blocker.