Як компаніям і стартапам розробляти продукти з AI — великий гайд від Мінцифри
Міністерство цифрової трансформації підготувало великий документ з рекомендаціями з відповідальної розробки систем із використанням технологій штучного інтелекту.

- У документі є практичні підказки, як компаніям обрати велику мовну модель та адаптувати її під себе через навчання й тонке налаштування. Зокрема, рекомендується звертати увагу не лише на кількість параметрів чи популярність моделі, а й на якість тренувальних даних, прозорість, можливість адаптації та репутацію вендора.
- У рекомендаціях пояснюється, на яких даних потрібно тренувати модель. А також як їх обробити перед тренуванням, щоб модель працювала без галюцинацій, дискримінації та упереджень.
- Крім того, експерти зібрали перелік ключових прав людини та приклади порушень цих прав у AI-продуктах. Вони охоплюють кейси в медицині, працевлаштуванні, освіті, фінансах тощо. Ці приклади допоможуть компаніям уникнути поширених помилок при розробці продуктів.
- В окремому блоці є поради, як уникнути порушення авторського права і права власності, особливо під час використання генеративного ШІ.
- У додатку наведено понад 30 інструментів для розробки рішень із ШІ, виявлення помилок у коді, аудиту упередженості та справедливості в системах тощо.
- Рекомендації в документі можна застосувати для розробки технологічних рішень у різних сферах — фінанси, медицина, освіта, працевлаштування, маркетинг тощо.
Як стверджують у Мінцифри, поради розроблені на основі світових стандартів, зокрема методології HUDERIA від Ради Європи, яка допомагає оцінювати вплив AI-систем на права людини.
Документ є у вільному доступі, проглянути та завантажити можна за посиланням.
Кілька порад від упорядників документа:
- Для тренування моделі використовуйте лише ті набори даних, на які маєте законні права, а також перевіряйте, чи є дані збалансованими, повними, знеособленими та нормалізованими.
- Залучайте користувачів до створення та вдосконалення продукту. Використовуйте ітераційний підхід, у якому ви регулярно тестуєте модель, отримуєте зворотний зв’язок й адаптуєте продукт. Це дає змогу зробити систему справедливішою, кориснішою та точнішою — особливо в чутливих сферах.
- Забезпечте фаховий людський нагляд, особливо в ухваленні рішень про доступ до послуг, надання кредитів, роботи або освіти, а також у медичній сфері.
- Враховуйте авторське право. Завжди перевіряйте умови використання моделей і сервісів, а також чи не містить згенерований контент чужих авторських матеріалів.
- Проєктуйте приватність за замовчуванням і дизайном: мінімізуйте збирання даних, забезпечте шифрування, контроль доступу, логування, право на видалення даних. Користувач має контролювати свою інформацію.
Як компаніям і стартапам розробляти продукти з AI — великий гайд від Мінцифри
Міністерство цифрової трансформації підготувало великий документ з рекомендаціями з відповідальної розробки систем із використанням технологій штучного інтелекту.

- У документі є практичні підказки, як компаніям обрати велику мовну модель та адаптувати її під себе через навчання й тонке налаштування. Зокрема, рекомендується звертати увагу не лише на кількість параметрів чи популярність моделі, а й на якість тренувальних даних, прозорість, можливість адаптації та репутацію вендора.
- У рекомендаціях пояснюється, на яких даних потрібно тренувати модель. А також як їх обробити перед тренуванням, щоб модель працювала без галюцинацій, дискримінації та упереджень.
- Крім того, експерти зібрали перелік ключових прав людини та приклади порушень цих прав у AI-продуктах. Вони охоплюють кейси в медицині, працевлаштуванні, освіті, фінансах тощо. Ці приклади допоможуть компаніям уникнути поширених помилок при розробці продуктів.
- В окремому блоці є поради, як уникнути порушення авторського права і права власності, особливо під час використання генеративного ШІ.
- У додатку наведено понад 30 інструментів для розробки рішень із ШІ, виявлення помилок у коді, аудиту упередженості та справедливості в системах тощо.
- Рекомендації в документі можна застосувати для розробки технологічних рішень у різних сферах — фінанси, медицина, освіта, працевлаштування, маркетинг тощо.
Як стверджують у Мінцифри, поради розроблені на основі світових стандартів, зокрема методології HUDERIA від Ради Європи, яка допомагає оцінювати вплив AI-систем на права людини.
Документ є у вільному доступі, проглянути та завантажити можна за посиланням.
Кілька порад від упорядників документа:
- Для тренування моделі використовуйте лише ті набори даних, на які маєте законні права, а також перевіряйте, чи є дані збалансованими, повними, знеособленими та нормалізованими.
- Залучайте користувачів до створення та вдосконалення продукту. Використовуйте ітераційний підхід, у якому ви регулярно тестуєте модель, отримуєте зворотний зв’язок й адаптуєте продукт. Це дає змогу зробити систему справедливішою, кориснішою та точнішою — особливо в чутливих сферах.
- Забезпечте фаховий людський нагляд, особливо в ухваленні рішень про доступ до послуг, надання кредитів, роботи або освіти, а також у медичній сфері.
- Враховуйте авторське право. Завжди перевіряйте умови використання моделей і сервісів, а також чи не містить згенерований контент чужих авторських матеріалів.
- Проєктуйте приватність за замовчуванням і дизайном: мінімізуйте збирання даних, забезпечте шифрування, контроль доступу, логування, право на видалення даних. Користувач має контролювати свою інформацію.