Практичний посібник

Пояснення генеративного штучного інтелекту: Розуміння впливу технології та її потенційної шкоди

У 2025 році, коли технологія штучного інтелекту продовжує розвиватися, ми вступили в нове покоління загальнодоступних інструментів і контенту, створених штучним інтелектом. І хоча ви, ймовірно, чули про генеративний ШІ або бачили його у своїй стрічці в соціальних мережах, ви, швидше за все, стикаєтеся з ним частіше, ніж ви думаєте, в соціальних мережах, в Інтернеті та під час перегляду різних веб-сайтів. Хоча загальнодоступні інструменти ШІ за своєю суттю не є небезпечними, стає все важче відрізнити справжній контент від фейкового. Зловмисники все частіше використовують ШІ, щоб зробити шахрайство більш переконливим і схожим на людське, що неухильно підвищує ризик для нічого не підозрюючих користувачів інтернету, таких як ви. Важливість освіти в галузі штучного інтелекту практично для всіх, хто працює в Інтернеті, стала як ніколи актуальною.

Фейкові люди, реальні наслідки

НОВА СТАТТЯ

CNN: Фінансовий працівник виплатив $25 мільйонів після відеодзвінка з фальшивим "фінансовим директором

На початку 2024 року багатонаціональна фірма в Гонконзі стала жертвою витонченої шахрайської афери, втративши приблизно 1 трлн 4 трлн 25 млн доларів США. Співробітника обманом змусили переказати кошти після того, як він приєднався до відеоконференції, де генеративні фейки зі штучного інтелекту видавали себе за топ-менеджерів компанії. Правдоподібність шахрайства посилювалася тим, що працівникові здавалося, що він перебуває у звичайній телефонній розмові зі знайомими колегами, в тому числі менеджерами та генеральним директором. Насправді ж він був єдиною реальною людиною в цій розмові, не підозрюючи, що його оточували згенеровані штучним інтелектом самозванці, які обманом змусили його надіслати гроші. Це лише один з реальних прикладів зловживання цією технологією, який демонструє, як легко зловмисники можуть обдурити і завдати реальної шкоди, використовуючи цю технологію

Що таке штучний інтелект (ШІ)?

Штучний інтелект (ШІ) - це імітація людського інтелекту за допомогою машин, що дозволяє їм виконувати такі завдання, як навчання, міркування, вирішення проблем і сприйняття. Однією з основних категорій ШІ є Генеративний ШІякий створює новий контент, наприклад, зображення, текст, музику чи відео, навчаючись на основі величезної кількості наявних даних. Ці системи можуть створювати оригінальні результати, що імітують людську роботу, а популярні інструменти здатні писати історії, генерувати ілюстрації, створювати реалістичні фейкові відео та багато іншого.

Зображення, створені за допомогою штучного інтелекту - це зображення, створені за допомогою штучного інтелекту. Ці інструменти можуть створювати реалістичні фотографії, ілюстрації, анімованих персонажів або повністю вигадані сцени без використання камери або людини-художника. Їх можна використовувати у творчих цілях, але також можна зловживати ними для створення оманливих або фальшивих візуальних образів.

DeepFakes

  • Діпфейки - це високореалістичні та маніпульовані відео- або аудіозаписи, створені за допомогою штучного інтелекту. Вони часто включають в себе накладання обличчя однієї людини на тіло іншої або зміну голосів і дій, щоб створити враження, що хтось говорить або робить щось, чого насправді не робив. Ця технологія може бути використана для введення в оману, видачі себе за іншу особу або поширення неправдивої інформації.

DeepNudes

  • DeepNudes - це використання штучного інтелекту для створення або маніпулювання зображеннями з метою отримання відверто оголених або сексуально відвертих зображень людей без їхньої згоди. Технологія змінює завантажені фотографії, додаючи реалістичну наготу, що викликає серйозні етичні та правові занепокоєння щодо приватності, згоди та несанкціонованого обміну зображеннями.

Відео, створені за допомогою штучного інтелекту - це відео, створені або модифіковані за допомогою штучного інтелекту, а не традиційних методів зйомки. Ці відео можуть включати повністю синтетичні сцени, змінені кадри (наприклад, глибокі фейки) або покращені візуальні ефекти, створені алгоритмами. ШІ може генерувати реалістичні людські обличчя та голоси людей, які виконують певні дії, оживляти персонажів, створювати футуристичні або нереалістичні сцени тощо. Сьогодні громадськість має доступ до високотехнологічних відеогенераторів зі штучним інтелектом, які можуть створювати повністю синтетичні відео з людськими голосами та рисами обличчя за лічені хвилини, використовуючи прості підказки.

Генератори тексту використовують штучний інтелект для створення письмового контенту на основі підказок користувача. Ви вводите запитання або запит, і ШІ швидко реагує, спираючись на свої навчальні дані та інтернет, щоб згенерувати найбільш вірогідну та релевантну відповідь. Хоча він може писати пости в блогах, відповідати на запитання, пояснювати концепції або допомагати в мозковому штурмі ідей зрозумілою, нейтральною мовою, ці інструменти не є досконалими. Іноді вони можуть надавати неточну інформацію або навіть вигадувати факти, оскільки покладаються на шаблони, а не на перевірені джерела.

  • Приклади: ChatGPT, Google Gemini, Microsoft Copilot

Інтернет у захваті: Випуск відео-генератора Veo 3 від Google

Останнім інструментом штучного інтелекту, що потрапив у заголовки газет, є Veo 3 від Google - потужний відеогенератор, який створює реалістичні 8-секундні кліпи з людськими голосами, звуковими ефектами та реалістичними зображеннями. Доступ до цього інструменту, який коштує понад $250 на місяць, може отримати будь-хто.

Коли користувачі почали публікувати свої творіння, інтернет відреагував на це з трепетом і тривогою. Люди побоюються, що цей просунутий інструмент генеративного ШІ може завдати більше шкоди, ніж користі, підірвати довіру до медіа, уможливити майже непомітну дезінформацію та викликати серйозні етичні, правові та творчі проблеми.

Рекламне відео VEO 3 від Google: повністю створене штучним інтелектом
Стаття CBC

Чи можемо ми все ще сказати, що є реальним? "Тривожна" нова технологія штучного інтелекту дозволяє легко створювати ультрареалістичні відео

Як ці інструменти використовуються?

Швидше за все, ви вже стикаєтеся з генеративним ШІ частіше, ніж уявляєте, навіть якщо не помічаєте цього безпосередньо. Ці інструменти лежать в основі багатьох текстів, зображень і відео, які ви бачите в Інтернеті щодня. Вони широко застосовуються в індустрії розваг і маркетингу, де творці використовують ШІ для створення музики, мистецтва, відео, онлайн-постів та історій, що пришвидшує і спрощує створення контенту для соціальних мереж, веб-сайтів, потокових платформ і відеоігор. Маркетологи використовують ШІ для розробки персоналізованих оголошень, написання описів продуктів і створення візуальних ефектів, які привертають увагу та залучають людей на різних платформах.
Стаття з сайту Forbes.com: Персоналізація та контекст: Зростання ролі штучного інтелекту в рекламі

У той же час, генеративний ШІ зловживають. Дезінформація може легше поширюватися через створені штучним інтелектом фейкові новини, підроблені відео або оманливі зображення, які виглядають дуже реалістично. Шахраї використовують ШІ для створення фальшивих особистостей, клонування голосів і створення переконливих повідомлень, які змушують людей ділитися особистою інформацією або надсилати гроші. Оскільки контент виглядає і звучить настільки реалістично, що користувачам, які нічого не підозрюють, може бути складно відрізнити справжній контент від штучно створеного.

Статистика

За даними Центру фінансових послуг Deloitte, генеративний ШІ дасть змогу $40 мільярдів збитків до 2027 року порівняно з 1 трлн 4 трлн 12,3 млрд у 2023 році. Це 32% сукупний річний темп зростання.

Шкода, створена генеративним штучним інтелектом

Перейдіть до випадаючого меню, щоб прочитати про різні види шкоди, яку створює генеративний ШІ.

Існує незліченна кількість способів фінансового шахрайства та крадіжок, а генеративний ШІ ще більше полегшує шахраям створення переконливих сценаріїв, фальшивих оголошень, фальшивих продуктів, видавання себе за іншу особу та фішингових схем.

Шахрайство з телефонними дзвінками під виглядом клонування голосу

  • Шахрайські дзвінки не є чимось новим, але завдяки штучному інтелекту вони звучать дедалі реалістичніше. Замість очевидних голосів роботів або закордонних кол-центрів, які люди звикли розпізнавати як шахрайські, тепер у таких дзвінках звучать голоси, згенеровані штучним інтелектом, які звучать більш природно, доброзичливо і звично. Шахраям не потрібно клонувати ваш голос, щоб обдурити когось; їм потрібен голос, який звучить досить правдоподібно. Вони можуть зателефонувати, прикидаючись вами в екстреній ситуації, сказати, що ви потрапили в аварію або потребуєте допомоги, і попросити ваших близьких надіслати гроші. Оскільки голос звучить по-людськи і переконливо, люди з більшою ймовірністю піддаються на обман. Сама схема шахрайства майже не змінилася, але завдяки штучному інтелекту її набагато складніше розпізнати.

    З розвитком технології клонування голосу зростає занепокоєння, що шахраї можуть почати націлюватися на окремих людей, копіюючи їхні голоси, щоб видавати себе за них під час дзвінків друзям або родичам. Це підкреслює зростаючу важливість захисту ваших голосових даних та уникнення методів автентифікації на основі голосу. Оскільки штучний інтелект тепер може генерувати дуже реалістичні голоси, системами безпеки з голосовим управлінням стає легше маніпулювати. Це знижує їхню ефективність і підвищує ризик витоку особистої інформації.

Реклама штучного інтелекту, яка веде до фальшивих продуктів або можливостей штучного інтелекту

  • У той час як реклама в Інтернеті допомагає легальним компаніям залучати клієнтів, шахраї також використовують генеративний ШІ для створення фальшивих і переконливих оголошень. Це часто призводить до появи шкідливих веб-сайтів, які продають фальшиві товари чи послуги, або з'єднує вас із шахраями, які видають себе за реальні компанії. Наприклад, фальшиве оголошення про роботу може спрямувати вас до фальшивого менеджера з найму, який "наймає" вас і запитує ваші банківські реквізити, а потім використовує їх для шахрайства.
  • Фальшиві оголошення про товари можуть містити посилання на професійний сайт, де ви несвідомо передаєте свою фінансову інформацію під час здійснення покупки. Штучний інтелект може швидко генерувати реалістичні оголошення, веб-сайти та продукти, що дозволяє шахраям швидко поширюватися. Легальні платформи часто намагаються вчасно їх видаляти.

Фішинг та соціальна інженерія

  • Використовуючи соціальну інженерію, шахраї тепер можуть створювати дуже детальні, персоналізовані електронні листи за допомогою штучного інтелекту. Ці повідомлення виглядають так, ніби надходять від надійного джерела, наприклад, від генерального директора, колеги або ділового партнера, і часто вимагають грошових переказів, оплати рахунків або надання конфіденційної фінансової інформації. Оскільки електронні листи виглядають такими справжніми, вони експлуатують людську довіру та психологію, обманом змушуючи людей надсилати гроші шахраям, яких вони вважають законними людьми.

Хоча шахрайство з сексуальними домаганнями не є чимось новим, генеративний ШІ робить їх більш переконливими та легшими для масштабування. Зараз шахраї використовують інструменти генеративного ШІ та чат-ботів для автоматизації повідомлень, створення фейкових профілів і завоювання довіри швидше, ніж будь-коли.

  • Сексуальне насильство полягає в тому, що шахрай обманом або примусом змушує когось поділитися інтимними зображеннями чи відео, а потім погрожує оприлюднити їх, якщо не буде здійснено оплату. Шахраям достатньо однієї фотографії, щоб за допомогою генеративного штучного інтелекту створити фейкові, але реалістичні відверті зображення чи відео. Потім жертв шантажують цими підробками, змушуючи платити через страх, що їхні друзі, сім'я або колеги побачать ці зображення або відео і не дізнаються, що це фейк.
  • Романтичні афери використовують фальшиві ідентичності для побудови фальшивих стосунків з метою отримання фінансової вигоди. Створені штучним інтелектом профілі з переконливими біографіями, фотографіями і навіть відео- чи голосовими повідомленнями допомагають шахраям здаватися реальними. Чат-боти зі штучним інтелектом, запрограмовані для романтичного шахрайства, можуть відповідати в режимі реального часу, роблячи взаємодію людяною, такою, що запам'ятовується, і особистою. Після того, як довіра побудована, шахраї просять гроші і можуть продовжувати просити або зникати, отримавши їх.
    Читайте про це: У шахраїв онлайн-романтиків може з'явитися новий поплічник - штучний інтелект | CBC News

Генератори текстів зі штучним інтелектом іноді можуть видавати упереджену або неправдиву інформацію випадково - але їх також використовують навмисно, щоб поширювати дезінформацію. Деякі веб-сайти створюються з єдиною метою - публікувати фейкові історії, створювати аудиторію, змушувати людей вірити і ділитися неправдивою інформацією, часто з метою привернути увагу або просто викликати хаос, паніку чи плутанину. Ці історії варіюються від нешкідливих матеріалів, що піднімають настрій, до шкідливих фейкових новин про публічних осіб. Завдяки генеративному ШІ такий контент можна створювати і поширювати в Інтернеті за лічені хвилини, підживлюючи постійний потік дезінформації в соціальних мережах і в Інтернеті.
Дезінформація зі штучного інтелекту в демократичній Канаді: Боротьба з дезінформацією, керованою штучним інтелектом

Публічні особи, зокрема політики, ведучі новин, знаменитості та впливові люди, мають безліч фотографій і відео в Інтернеті, що робить їх легкою мішенню для підробок, створених за допомогою штучного інтелекту. Хоча деякі з них явно фейкові і призначені для жартів, інші є більш шкідливими, оскільки на них зображені люди, які схвалюють шахрайські продукти, просувають небезпечні сайти або поширюють неправдиві повідомлення. Навіть якщо людина знає, що це фейк, інші можуть не знати, і шкода для її репутації може бути серйозною. Ці глибокі фейки використовуються для того, щоб обманом змусити людей жертвувати гроші, піддаватися на фальшиві криптовалютні схеми або навіть слідувати небезпечним закликам до дії, зробленим так, щоб виглядати як заклики від лідера, якому можна довіряти.

Генеративний контент зі штучним інтелектом стає все більш переконливим і починає підривати довіру людей до того, що вони бачать і чують. Раніше було легше розпізнати фейковий контент, але тепер, завдяки інструментам, які можуть точно імітувати людську мову та візуальні ефекти, стає складніше визначити, що є справжнім, а що ні. Ця зростаюча невизначеність може створити плутанину і сумніви не лише щодо самого контенту, а й щодо платформ, які ним діляться. Люди можуть почати ставити під сумнів надійність соціальних мереж, новинних агентств і журналістики загалом, не знаючи, хто насправді стоїть за інформацією і чи не піддавався вона маніпуляціям.

Колекція постів у соціальних мережах, зроблених за допомогою генеративного ШІ

Менша шкода: помиї штучного інтелекту

Інтернет наповнюється дешевим, низькоякісним контентом, створеним за допомогою генеративного ШІ, часто з метою привернути увагу, викликати емоції або просунути певний порядок денний. З розвитком генеративного ШІ в інтернеті поширюються дезінформаційні веб-сайти. Цей тип контенту, незалежно від того, чи створюється він впливовими особами низького рівня, які женуться за кліками, чи є частиною скоординованих кампаній політичного впливу, тепер називають "помиями штучного інтелекту".

Його легко створити, він швидко поширюється і сприяє зростанню шуму в Інтернеті, що ускладнює розрізнення корисної інформації та маніпулятивного або оманливого контенту, створеного і розміщеного штучним інтелектом, а також розмежування між контентом, створеним людиною, і контентом, згенерованим штучним інтелектом. Існує припущення, що швидке поширення такого контенту зумовлене ботами, запрограмованими на його розповсюдження, оскільки, за оцінками, на ботів зараз припадає значна частка інтернет-трафіку.

У міру того, як інструменти генеративного ШІ вдосконалюються в імітації людської поведінки, стає дедалі важче відрізнити, що є реальним, а що - ні. Хоча соціальні мережі та браузери стверджують, що борються зі стрімким поширенням такого контенту, особливо того, що містить дезінформацію, він все одно потрапляє в стрічки людей набагато частіше, ніж мав би потрапляти.

Як безпечно використовувати генеративний ШІ

Генеративний ШІ може бути дуже корисним та інформативним, якщо використовувати його правильно та безпечно. Ось кілька рекомендацій щодо використання цих інструментів.

Обмежте те, чим ви ділитеся

Не друкуйте і не завантажуйте нічого, що ви не хотіли б зробити публічним.

  • Уникайте імен, паролів, ідентифікаційних номерів або особистих історій.
  • Не завантажуйте фотографії, якщо ви не розумієте, як інструмент обробляє дані.

Припускайте, що все, що ви вводите, може бути збережене або переглянуте.

  • Навіть якщо на інструменті вказано, що він приватний, співробітники компанії можуть переглядати зразки для навчання або модерації.
  • Щоразу, коли компанія має ваші дані, вона є вразливою до порушення конфіденційності та вразливою до хакерів.

Змінити налаштування конфіденційності за замовчуванням

Вимкніть "історію чату" або функції збереження даних.

  • Приклад: У ChatGPT перейдіть до Налаштування → Керування даними → Вимкнути "Історію чату та навчання".
  • У Google Gemini перейдіть на myaccount.google.com/activitycontrols → Діяльність в Інтернеті та додатках → Вимкніть перемикач, щоб зупинити збереження чатів → Керування діяльністю, щоб видалити старі чати

Регулярно видаляйте свою активність

  • Очистіть підказки або завантажений вміст, де це дозволено.

Використовуйте інструменти з кращим захистом конфіденційності

Обирайте інструменти штучного інтелекту, які обробляють дані локально або дозволяють відмовитися від них.

  • Використовуйте інструменти з відкритим вихідним кодом або на пристрої (наприклад, деякі генератори зображень або помічники).

Знайдіть політику конфіденційності інструменту

  • Шукайте: "Що ми збираємо", "Як ми використовуємо ваші дані" та "Чи можу я відмовитися від навчання?"

Подумайте, перш ніж натиснути, опублікувати або поділитися

Перегляньте згенерований ШІ контент, перш ніж копіювати, вставляти або ділитися ним.

  • Особливо, якщо це стосується інших людей, медичної та юридичної інформації або делікатних тем.
  • Використовуйте зовнішніх фактчекерів, щоб переконатися в достовірності інформації.

Додайте відмову від відповідальності, якщо використовуєте ШІ для публічного контенту

  • "Ця публікація містить вміст, створений штучним інтелектом" - простий спосіб зберегти прозорість і уникнути проблем.

Підтримуйте належну цифрову гігієну

  • Виходьте з інструментів штучного інтелекту після використання їх на пристроях зі спільним доступом.
  • Використовуйте надійний, унікальний пароль і MFA для своїх акаунтів ШІ.
  • Регулярно оновлюйте розширення браузера або плагіни ШІ.

Будьте в курсі подій

  • Підпишіться на оновлення інструментів ШІ або сповіщення про конфіденційність.
  • Слідкуйте за надійними сайтами з технологічними новинами, щоб бути в курсі змін у політиці та ризиків.

Поради щодо виявлення генеративного контенту зі штучним інтелектом

  • Збільшитишукайте деформовані риси обличчя, розплавлені окуляри, дивні руки або плаваючі предмети. 
  • Перевірте симетрію та пропорціїзайві пальці, зміщені риси обличчя або непропорційні кінцівки часто зустрічаються у низькоякісних генеративних ШІ. 
  • Зверніть увагу на текстури: Фотографії зі штучним інтелектом часто мають намальований аерографом вигляд, дивне тло або випадкові розмиті ділянки. 
  • Слідкуйте за проблемами з освітленняммерехтливі тіні або непослідовні чи неточні джерела світла
  • Неприродні рухи або мова тілазастигла або дивна мова тіла, відсутність моргання або роботизовані жести
  • Слухай уважно.дивний темп, дивна інтонація або фонові звуки, які не мають сенсу.

Як уникнути шахрайства з клонуванням голосу за допомогою генеративного ШІ:

  • Робіть паузу перед тим, як діяти: Незалежно від того, наскільки переконливо звучить телефонний дзвінок або голосова пошта, покладіть слухавку або закрийте повідомлення, якщо вам щось не подобається. Зателефонуйте людині, яка стверджувала, що вона вам телефонувала, безпосередньо за номером телефону, який ви зберегли для неї. Не передзвонюйте на номер, вказаний абонентом або визначником номера. Ставте запитання, на які самозванцю буде важко дати правильну відповідь.
  • Не надсилайте гроші під тиском: Якщо абонент терміново просить вас надіслати гроші через платіжний додаток для електронного гаманця або подарункову картку, це може бути червоним прапорцем шахрайства. Якщо ви переказали комусь гроші, а потім зрозуміли, що це шахрайство, необхідно повідомити про це поліцію.
  • Захистіть свої рахунки: Налаштуйте багатофакторну автентифікацію для входу в електронну пошту та інших змін у налаштуваннях електронної пошти як на роботі, так і вдома. На роботі перевіряйте зміни в інформації про клієнтів, співробітників або постачальників.

Завжди...

  • Погляньте на зміст ближче
  • Переконайтеся, що ви знаєте, з ким розмовляєте
  • Будьте обережні з тим, що публікуєте в Інтернеті
  • Будьте обережні, коли ділитеся інформацією в цифровому вигляді з будь-ким
  • Уникайте прийняття фінансових рішень на основі вірусних відео
  • Ставтеся скептично до всього, що бачите в інтернеті
  • Використовуйте інструменти штучного інтелекту, такі як інструменти зворотного пошуку зображень, або перевіряйте інформацію на перевірених джерелах

Порадник: Практичний посібник з генеративного ШІ

Інструкція: Як безпечно використовувати генеративний ШІ

.
.

Додаткові ресурси

Умови використання

Ми вітаємо обмін нашими ресурсами і запрошуємо вас переглянути наші Умови використання. Ці правила покликані забезпечити чесний, відповідальний та ефективний обмін нашими матеріалами для підтримки вашої спільноти.