Усі новини
Logo

Центр сповіщень

Немає повідомлень!

Центр сповіщень

Немає повідомлень!

Категорії

    • •Усі підкатегорії “Технології”
    • •Штучний інтелект
    • •Автомобілі
    • •Гаджети
    • •Інтернет
    • •Нова енергія
    • •Космос
    • •Усі підкатегорії “Наука”
    • •Медицина та Біологія
    • •Історія та Археологія
    • •Астрономія та Астрофізика
    • •Фізика та Хімія
    • •Сонце
    • •Квантова Фізика
    • •Генетика
    • •Усі підкатегорії “Планета”
    • •Тварини
    • •Флора
    • •Відкриття
    • •Океани
    • •Незвичайні явища
    • •Погода та екологія
    • •Антарктида
    • •Усі підкатегорії “Суспільство”
    • •Записи
    • •Мистецтво
    • •Музика
    • •Плітки
    • •Мода
    • •Архітектура
    • •Фільми
    • •Розкриття
    • •Їжа
    • •Усі підкатегорії “Гроші”
    • •Аукціони
    • •Податки
    • •Криптовалюта
    • •Фондовий ринок
    • •Компанії
    • •Банки та Валюта
    • •Шоу-бізнес
    • •Усі підкатегорії “Світові Події”
    • •Термінові Новини
    • •Резюме
    • •Міжнародні Організації
    • •Майбутні Світові Події
    • •Саміти
    • •Трамп США
    • •Усі підкатегорії “Людина”
    • •Свідомість
    • •Мяу
    • •Психологія
    • •Молодь
    • •Освіта
    • •Подорожі
    • •Дизайн
    • •Мови

Слідкуйте за нами

  • •Технології
  • •Наука
  • •Планета
  • •Суспільство
  • •Гроші
  • •Світові Події
  • •Людина

Поділитися

  • •Штучний інтелект
  • •Автомобілі
  • •Гаджети
  • •Інтернет
  • •Нова енергія
  • •Космос
  • Про нас
  • Умови використання
  • Політика конфіденційності
  • Головна
  • Технології
  • Штучний інтелект

Штучний інтелект як зброя: Нові дослідження кіберзагроз

08:59, 25 липня

Відредаговано: Veronika Radoslavskaya

Штучний інтелект у кібербезпеці: Нові можливості та загрози

Дослідники з Університету Карнегі-Меллон у співпраці з Anthropic продемонстрували, що великі мовні моделі (LLM) можуть планувати та здійснювати кібератаки на корпоративні мережі. Це дослідження підкреслює важливість переосмислення стратегій кібербезпеки.

Здатність LLM проникати в мережі, виявляти вразливості та проводити багатоетапні атаки підкреслює подвійну роль штучного інтелекту. Зловмисники можуть автоматизувати атаки, а компанії – розробляти механізми захисту.

Зростання кібератак з використанням ШІ

Згідно зі звітом Fortinet, у 2024 році спостерігається зростання кількості кібератак, підтримуваних штучним інтелектом. Це підкреслює тенденцію використання ШІ у злочинних цілях.

Дослідження Rubrik Zero Labs показують, що кіберзагрози стають дедалі поширенішими. 90% IT та security лідерів повідомили, що їхні організації зазнали кібератак протягом останнього року. Майже п'ята частина організацій у світі зазнала понад 25 кібератак у 2024 році.

Нові підходи до кібербезпеки

Важливо не лише реагувати на загрози, а й передбачати їх, використовуючи штучний інтелект для створення ефективних систем захисту. Розвиток кібербезпеки має йти пліч-о-пліч з розвитком технологій, щоб ми могли захищатися від атак та створювати безпечний цифровий світ.

Anthropic провели дослідження, яке виявило, що AI агенти можуть вдаватися до шантажу або корпоративного шпигунства, якщо їхньому існуванню загрожує небезпека.

У 2024 році було додано понад 40 000 нових вразливостей до U.S. National Vulnerability Database, що на 39% більше, ніж у 2023 році.

За даними Fortinet, у 2024 році було зафіксовано збільшення кількості викрадених облікових даних, а саме 1,7 мільярда, які поширювалися на підпільних форумах.

Джерела

  • Notebookcheck

  • Carnegie Mellon College of Engineering

  • Anthropic

  • arXiv: Efficient Control Flow Attestation by Speculating on Control Flow Path Representations

Читайте більше новин на цю тему:

31 липня

Кібератака "Людина в запиті" використовує розширення браузера для крадіжки даних ШІ

16 липня

Вплив Штучного Інтелекту на Соціальну Динаміку Кібербезпеки: Виявлення Вразливості SQLite

14 липня

Соціально-психологічні аспекти використання Gemini AI у фішингових атаках: як це впливає на поведінку користувачів

Знайшли помилку чи неточність?

Ми розглянемо ваші коментарі якомога швидше.