Словник термінів ШІ: що таке AGI, LLM та ШІ-агенти простими словами

Словник термінів ШІ: що таке AGI, LLM та ШІ-агенти простими словами

Штучний інтелект інтегрується в бізнес, технології та повсякденне життя — разом із ним зростає і кількість спеціалізованих термінів. У цьому словнику ми зібрали ключові поняття у галузі штучного інтелекту із простими, зрозумілими поясненнями.

Матеріал допоможе базово розібратися в основах і орієнтуватися в темі.

The Inweb Media

Слідкуйте за трендами digital — приєднуйтеся до каналу The Inweb Media

Стежити за новинами

AGI (Artificial General Intelligence або Загальний штучний інтелект) — це тип ШІ, який може виконувати більшість інтелектуальних завдань на рівні або краще за людину. AGI — це еталонна універсальна система, здатна вчитися, аналізувати, приймати рішення і діяти в нових ситуаціях без донавчання. Дослідники ще не досягли AGI, і точне визначення цього поняття все ще викликає суперечки.

AI agent (Artificial Intelligence agent або ШІ-агент) — автономна програма, що використовує ШІ для виконання складних завдань за користувача. Вона може діяти поетапно, приймати рішення, звертатися до зовнішніх інструментів і навіть писати код. Наприклад, агент може самостійно спланувати подорож: знайти рейси, забронювати готель і скласти маршрут. Такі системи ще на ранньому етапі розвитку, але мають значний потенціал.

Chain of thought (Ланцюжок міркувань) — це здатність ШІ розв’язувати складні запити, розбиваючи їх на послідовні логічні кроки. Замість швидкої відповіді модель описує хід міркувань, що веде до результату. Такий підхід підвищує точність у задачах, де потрібне глибше розуміння логіки, це корисно у розвʼязанні складних математичних задач чи програмуванні.

Deep learning (Глибинне навчання) — підгалузь машинного навчання, яка використовує багатошарові штучні нейронні мережі. Вона дозволяє моделі самостійно визначати, які особливості в даних важливі, без ручного втручання. Цей метод лежить в основі найсучасніших ШІ-систем — від розпізнавання зображень до генерації текстів. Глибинне навчання потребує великих обсягів даних і значних обчислювальних ресурсів.

Diffusion (Дифузія) — технологія, яка використовується для генерації зображень, музики чи тексту. Модель спочатку додає шум до даних (фото, мелодії), руйнуючи їх структуру, а потім вчиться відновлювати їх у зворотному порядку. Це дозволяє створювати нові твори на основі заданих параметрів — як це робить, наприклад, Stable Diffusion.

Distillation (Дистиляція) — метод зменшення великої ШІ-моделі до меншої й ефективнішої. Велика модель генерує відповіді на запити, а менша навчається на цих прикладах. Так можна створити швидшу модель, яка працює подібно до більшої, але використовує менше ресурсів. Цей підхід активно застосовується для оптимізації продуктів, як-от GPT-4 Turbo.

Fine-tuning (Донавчання) — додаткове навчання вже створеної ШІ-моделі на нових, вузькоспеціалізованих даних. Це дозволяє адаптувати універсальну модель для конкретних завдань або галузей — наприклад, для юридичних документів або медичних звітів. Донавчання покращує точність і корисність ШІ в реальних умовах.

GAN (Generative Adversarial Network або Генеративно-змагальна мережа) — тип нейронної мережі, що складається з двох частин: одна генерує дані, інша — оцінює їх правдоподібність. Ці частини змагаються між собою: генератор намагається обдурити оцінювача, а той — розпізнати підробку. Такий процес покращує якість результату. GAN використовуються для створення фотореалістичних зображень, deepfake-відео та іншого контенту.

Hallucination (Галюцинація) — термін, яким позначають випадки, коли ШІ вигадує неправдиву або неточну інформацію, що звучить переконливо. Це поширена проблема у генеративних мовних моделях. Галюцинації можуть бути безпечними (наприклад, у вигаданих історіях) або шкідливими (у медичних порадах). Основна причина — брак релевантних або точних даних під час навчання моделі.

Inference (Інференс або Виведення) — процес використання вже навченої моделі для створення результату у відповідь на запит. Наприклад, коли ви ставите питання в ChatGPT — модель застосовує знання, отримані під час навчання, щоб згенерувати відповідь. Інференс відбувається швидко, але його якість залежить від того, як добре модель була навчена.

LLM (Large Language Model або Велика мовна модель) — модель, навчена на величезних обсягах текстів, яка вміє аналізувати, прогнозувати та генерувати людську мову. LLM використовуються в таких продуктах, як ChatGPT, Gemini або Claude. Вони складаються з мільярдів параметрів, які визначають, яке слово найімовірніше має бути наступним. Такі моделі — серце сучасного генеративного ШІ.

Neural network (Нейронна мережа) — математична структура, натхненна людським мозком. Складається з багатьох рівнів нейронів, які передають і обробляють дані. Вона є основою більшості сучасних ШІ-систем, зокрема глибинного навчання, мовних моделей та генеративних алгоритмів.

Training (Навчання) — процес, коли модель аналізує великі масиви даних і навчається знаходити закономірності, щоб видавати правильні результати. До початку навчання модель — це просто набір випадкових чисел. Саме під час навчання вона перетворюється на систему, здатну відповідати на запити, класифікувати зображення чи писати тексти.

Transfer learning (Трансферне навчання) — метод, при якому вже навчена модель використовується як основа для вирішення нових, але пов’язаних завдань. Це дає змогу заощадити ресурси, особливо якщо нових даних обмаль. Наприклад, модель, навчена на новинах, можна адаптувати для аналітики фінансових документів.

Weights (Ваги) — це числові значення, які визначають, наскільки важливою є кожна частина вхідних даних для моделі. Під час навчання модель коригує ваги, щоб покращити результати. Ваги — це те, що формує внутрішні знання і логіку ШІ.

Prompt (Запит або Промпт) — текстова інструкція, яку користувач подає мовній моделі для отримання відповіді. Промпт може бути коротким або докладним, простим або складним. Саме запит визначає, що і як згенерує модель, тому його формулювання є критично важливим для результату.

Retrieval-Augmented Generation (Генерація з підключенням до бази знань) — метод, за якого модель поєднує генерацію тексту зі зверненням до зовнішніх джерел даних — наприклад, баз документів або актуальних пошукових результатів. Це дозволяє отримувати точніші відповіді у спеціалізованих темах.

Embedding (Векторне представлення) — перетворення слів, фраз або об’єктів у числову форму, яку розуміє машина. Кожне слово або речення отримує координати у багатовимірному просторі, що дозволяє оцінювати схожість, контекст і значення для пошуку, класифікації або рекомендацій.

Zero-shot learning (Навчання без прикладів) — здатність моделі виконувати нове завдання без попереднього навчання на прикладах цього завдання. Модель використовує загальні знання, отримані під час тренування, щоб інтерпретувати інструкцію і згенерувати релевантну відповідь або дію.

Token (Токен) — одиниця інформації, з якою працює мовна модель. Токен — це не обов’язково слово; це може бути частина слова, розділовий знак або службова конструкція. Вартість і об’єм запитів часто вимірюють у токенах, а не в словах.

Token limit (Обмеження на кількість токенів) — загальна технічна межа на довжину одного запиту або всієї сесії з моделлю. Вона визначає, скільки токенів (тобто частинок тексту) можуть бути використані в одному зверненні — включно з промптом, відповіддю моделі, інструкціями та метаданими. Token limit — це системне обмеження, що залежить від типу моделі (наприклад, 8 000 або 128 000 токенів).

Context window (Контекстне вікно) — обсяг тексту (у токенах), який модель здатна одночасно обробити для генерації відповіді. В контекстному вікні містяться як запит користувача, так і попередні репліки (історія розмови) та частина відповіді. Вихід за межі вікна означає, що модель втрачає частину контексту — наприклад, не памʼятає початок розмови.

Overfitting (Перенавчання) — ситуація, коли модель надто точно запам’ятала навчальні дані і погано працює з новими. Замість того щоб виявляти закономірності, вона просто відтворює побачене. Це знижує точність і гнучкість моделі в реальних умовах.

AI Engine Optimization (AIEO або Оптимізація для ШІ-систем) — сукупність стратегій і технік, спрямованих на те, щоб контент або продукти були краще сприйняті, процитовані або використані штучним інтелектом — наприклад, мовними моделями чи AI-агентами. AIEO передбачає створення структурованого, чіткого та фактологічного контенту, який легко інтерпретується моделями під час генерації відповідей або рекомендацій. Це новий напрям у диджитал-маркетингу, подібний до SEO, але орієнтований на алгоритми ШІ, а не пошукові системи.

Foundation model (Базова модель або Фундаментальна модель) — велика ШІ-модель, навчена на універсальних даних для широкого кола задач — текст, зображення, код. Foundation model не спеціалізується на одній галузі, але може бути адаптована для конкретного використання через донавчання або підключення зовнішніх джерел. Приклад: GPT-4, Gemini, Claude.

Multimodal model (Мультимодальна модель) — модель, яка здатна обробляти й поєднувати різні типи даних — текст, зображення, аудіо, відео або сенсори. Наприклад, така модель може прочитати текст, проаналізувати фото й відповісти на запитання за обома джерелами. Multimodal підхід розширює можливості ШІ у складних сценаріях.

Synthetic data (Синтетичні дані) — штучно створені дані, які використовуються для тренування або тестування моделей ШІ, коли реальних даних бракує або вони конфіденційні. Синтетичні дані можуть імітувати реальні закономірності, не розкриваючи чутливу інформацію. Це корисно в охороні здоров’я, банківській сфері та безпеці.

Fine-tuning with RLHF (Донавчання з підкріпленням від людини) — метод донавчання, у якому модель отримує зворотний зв’язок від людини, щоб покращити якість відповіді. Люди оцінюють кілька варіантів відповіді, а система навчається обирати кращі. Саме цей підхід використовувався для навчання ChatGPT — модель не просто генерує текст, а навчається відповідати так, як зручно людині.


Штучний інтелект постійно розвивається, і базове розуміння ключових термінів допомагає краще орієнтуватися в темі, працювати з технологіями ефективніше та ухвалювати рішення. Цей словник — базовий старт для тих, хто хоче розібратися у простих поняттях ШІ.

Софія Старк
Софія Старк
• Media Editor
Агенція digital-маркетингу Inweb
Media Editor, дипломована журналістка із пристрастю до Digital та технологій. Маю стаж графічного дизайну розрізом у 5 років, вивчала основи SEO, email-маркетингу та була Head of SMM. Ваша персональна Сірі у світі digital, штучного інтелекту тощо. Педантична перфекціоністка із неймовірною допитливістю, тому збираю найцікавіше, щоб ви могли прочитати це в медіа. Обожнюю геймінг та практикую мобільну фотографію.
Більше цікавого