Два роки тому AI-відео було мемом - криві пальці, розплавлені обличчя, текст із паралельного всесвіту. Сьогодні AI-згенеровані креативи крутяться в реальних рекламних кабінетах і приносять ліди за ціною нижчою, ніж класичне продакшн.
Але між "подивись який класний ролик" і "це крутиться в адсеті на $500/день" - прірва. У цій статті - без хайпу і захоплень - розберемо, які інструменти реально використовують вебмайстри в нутрі, де AI економить тисячі доларів, а де зливає бюджет у трубу.
Навіщо взагалі AI-відео в нутрі
Класичний продакшн креативу для нутри виглядає так:
- Знайти актора / UGC-мейкера - $50-300 за ролик
- Зачекати 2-5 днів
- Отримати результат, який може не пройти модерацію
- Повторити
При тестуванні 10-20 креативів на тиждень це перетворюється на конвеєр, який жере час і гроші. AI змінює економіку:
Головна перевага - не ціна, а швидкість ітерацій. Ти можеш протестувати 15 кутів за день замість трьох за тиждень.

Ландшафт інструментів: що є у 2026
Генерація відео
Veo 3.1 (Google) - основний робочий інструмент. Генерує кліпи до 8 секунд у portrait (9:16). Вміє:
- Текст → відео з діалогом (персонаж говорить потрібною мовою)
- Зображення → відео (оживити фото)
- Нативне аудіо - звук, ембієнт, діалог генеруються разом із відео
- Вертикальний формат (9:16) нативно
Особливо сильний там, де потрібні фізичні ефекти: крапля крові на тест-смужці, сльози на обличчі, крем вбирається в шкіру - Veo робить це на порядок реалістичніше за конкурентів. Доступний через Gemini API і Google AI Studio. Лінійка моделей: Veo 3.1 Lite (бюджетний, ~$0.05/сек), Veo 3.1 Fast (баланс), Veo 3.1 Pro (максимум якості).
Kling, Runway, Pika - існують, але для нутри менш релевантні. Kling добрий для азіатських облич (стане в пригоді для SEA), Runway - для стилізації.
Генерація зображень
Gemini Image - швидка генерація портретів, продуктових фото, "до/після".
GPT Image - альтернатива з гарною роботою з текстом на зображеннях.
Озвучення (TTS)
ElevenLabs - золотий стандарт для LATAM. Клонування голосу за 30-секундним семплом.
MiniMax - відмінний варіант для SEA. Тайська, індонезійська - все звучить природно.
Аватари (Talking Head)
InfiniteTalk - фото + аудіо → говоряча голова з lip sync. Платно ($0.03/сек), але для форматів "лікар пояснює" незамінний.

Що реально працює: 4 формати з ROI
1. AI Hook + реальний контент
Формула: AI-згенеровані перші 3-5 секунд (hook) + реальні кадри / UGC.
Це найбезпечніший і найефективніший формат. AI робить те, що вміє найкраще - генерує чіпкий, провокаційний хук, який ти ніколи б не зняв із живим актором (бо модерація, бо дорого, бо ніяково просити актора зображати шок).
Приклад для діабет-нутри:
- Hook (AI, 5 сек): Лікар дивиться в камеру з виразом шоку, тримає в руках результати аналізів
- Body (реальне, 20 сек): UGC-відгук, продуктові кадри, CTA
Чому працює: Hook - це найбільш витратний елемент креативу. Він вигорає першим. Можливість штампувати 10 варіантів хука за годину замість одного за день - це game changer.
2. Повністю AI-згенерований ролик (B-roll стиль)
Формула: 3-4 AI-кліпи + AI-озвучення + субтитри.
Жодних голів, що говорять. Тільки атмосферні кадри: руки на тест-смужці, склянка води вранці, крупний план очей, прогулянка в парку. Поверх - голос розповідає історію.
Структура 30-секундного ролика:
- Hook-кліп (5 сек) - провокація / біль
- Problem-кліп (8 сек) - посилення проблеми
- Discovery-кліп (10 сек) - натяк на рішення
- CTA-кліп (7 сек) - заклик
Чому працює: Модерація лояльніша до B-roll, ніж до говорячих голів. Немає обличчя = немає претензій до "оманливих відгуків". При цьому емоційна сила ролика не втрачається - вона в голосі і монтажі.
3. "Лікар пояснює" (Avatar)
Формула: AI-портрет лікаря + AI-озвучення → Talking Head avatar.
Суперечливий, але робочий формат. Генеруєш фото "лікаря" → пишеш скрипт → озвучуєш через TTS → проганяєш через InfiniteTalk.
Ризики:
- Модерація Meta дедалі жорсткіша до медичних claims
- Lip sync поки не ідеальний - помітно при уважному перегляді
- Етичні питання (fake doctor)
Не називай персонажа "лікарем" у тексті оголошення. Візуально - білий халат, стетоскоп - але в копії: "дослідник", "фахівець із харчування". Це не захистить від бану на 100%, але знижує ризик.
4. "UGC-стиль" (AI-імітація)
Формула: AI-відео в стилі selfie-камери + "сирий" look.
Veo вміє генерувати відео, яке виглядає як знятe на телефон: handheld, трохи не у фокусі, природне світло. Додай субтитри з помилкою - і 80% глядачів не відрізнять від реального UGC.
Зв'язка для масштабування: Генеруєш 5 "різних людей" з одним скриптом → тестуєш, який типаж конвертує краще → масштабуєш переможця.

Підводні камені
1. Модерація - головний ворог
Meta активно бореться з AI-контентом. Що тригерить:
- Медичні клейми в будь-якій формі - "лікує", "позбавляє", "лікар рекомендує"
- Нереалістичні результати - "до/після" з AI-генерацією
- Глітчі - артефакти AI (зайві пальці, текст що пливе) привертають увагу рев'юерів
- Аудіо-невідповідність - губи рухаються, але звук не збігається
Що робити:
- Завжди проганяй через QA перед заливкою (перевіряй артефакти, lip sync, логіку)
- B-roll безпечніший, ніж talking head
- Не генеруй текст усередині відео - завжди додавай субтитри поверх у пост-продакшні
- Тримай запасні акаунти - навіть ідеальні креативи іноді потрапляють під automated review
2. "Моторошна долина" вбиває конверсію
AI-відео, яке майже реалістичне, працює гірше, ніж очевидно стилізоване. Глядач підсвідомо відчуває, що "щось не так", і скролить далі.
Рішення:
- Використовуй creative presets (VHS, CCTV, handheld) - стилізація маскує артефакти
- Короткі кліпи (5-10 сек) кращі за довгі - менше часу помітити косяки
- CCTV-стиль - глітчі стають фічею, а не багом
3. Промпт ≠ результат
Головне розчарування новачків: ти пишеш "лікар у білому халаті дивиться в камеру з серйозним обличчям", а отримуєш щось середнє між стоматологом зі стокової фотографії і NPC з відеогри 2015 року.
Правила хорошого промпта:
- Конкретика > абстракція ("жінка 45 років, втомлене обличчя, тьмяне світло кухні" > "сумна жінка")
- Вказуй камеру і світло (close-up, handheld, warm natural light)
- Обмежуй діалог (максимум 2.5 слова/секунду)
- Завжди додавай "Avoid: visible text, logos, watermarks" - інакше AI наліпить рандомні букви
4. Мова і гео
Найчастіший фейл: промпт англійською → відео з англійською мовою → запускається на Мексику. Глядач чує англійську і скролить.
Правило: Пиши промпт цільовою мовою. Для іспаномовного ринку - промпт іспанською. Для тайського - тайською. Це не примха, це прямо впливає на те, якою мовою говоритиме персонаж.

Воркфлоу: від ідеї до адсету за 2 години
- Ідея / кут (10 хв) - Вибираєш hook-стиль: shock / question / story / proof
- Промпт (15 хв) - Пишеш 3-4 промпти для кліпів. Вказуєш стиль, камеру, дію, діалог
- Генерація (30-40 хв) - Запускаєш паралельно 3-4 кліпи. Поки чекаєш - пишеш субтитри і копі
- QA (10 хв) - Перевіряєш артефакти, lip sync, логіку. Відбраковуєш брак, задоволений 60-70% usable rate
- Збірка (15 хв) - Concat кліпів → накладення субтитрів → нормалізація звуку. Компресія для Meta (<4GB, але краще <50MB)
- Заливка (10 хв) - 2-3 варіанти в адсет на тест
Разом: ~2 години на 2-3 готових креативи. Проти 2-5 днів при класичному підході.
Висновок
AI-відео в нутрі - це не заміна мізків, це заміна рутини. Інструменти стали достатньо хорошими, щоб генерувати конвертуючі креативи. Але перемагає як і раніше той, хто розуміє аудиторію, вміє писати скрипти і швидко ітерує.
Найкраща стратегія сьогодні: AI для хуків і B-roll + реальний UGC для proof і CTA. Повністю AI-згенеровані ролики працюють, але вимагають більшого контролю якості і несуть вищий ризик з модерацією.
Почни з одного: згенеруй 5 варіантів хука для свого поточного офера. Порівняй CTR із тим, що крутиш зараз. Цифри скажуть більше, ніж будь-яка стаття.
