Каталог
Продукты и решения
О нас в СМИ
Сведения об ОО
Основные сведения
Структура и органы управления
Документы
Образование
Руководство
Материально-техническое обеспечение
Платные услуги
Деятельность
Вакантные места
Стипендии
Международное сотрудничество
Организация питания
Стандарты
Узнать больше
Скидка 15%
При оплате картой прямо сейчас получи скидку 15%
ЭТИКА ПРИМЕНЕНИЯ ИИ
Где проходит граница между помощником и обманом?
Зарегистрироваться
Начало обучения
X МАРТА 2026
Формат проведения
ОНЛАЙН-ВЕБИНАР 2 ЧАСА
Вы Получите:
СЕРТИФИКАТ ОБ УЧАСТИИ
О ВЕБИНАРЕ
ИИ уже стал повседневным инструментом — от учебных заданий до
управленческих решений.
Но вместе с удобством приходят риски: отчисления, увольнения, судебные иски и репутационные скандалы.
Этот промо‑вебинар —
практичный разговор о том, где проходит граница между разумной помощью нейросетей и этически (и юридически) опасным использованием.
Мы разберём реальные истории, покажем «светофор» этичности и дадим первые инструменты личной защиты.
Для кого этот вебинар
СТУДЕНТ ИЛИ АСПИРАНТ
Пользуетесь ChatGPT и другими ИИ‑инструментами в учёбе и не хотите оказаться отчисленным из‑за «детектора ИИ».
ПРЕПОДАВАТЕЛЬ ИЛИ НАУЧНЫЙ РУКОВОДИТЕЛЬ
Хотите понять, как честно разрешать/регулировать использование ИИ в работах студентов и защитить себя и вуз.
СПЕЦИАЛИСТ В БИЗНЕСЕ: МАРКЕТОЛОГ, HR, АНАЛИТИК, ЮРИСТ, МЕНЕДЖЕР
Уже используете ИИ в текстах, документах, подборе персонала, принятии решений и боитесь репутационных и правовых последствий.
РУКОВОДИТЕЛЬ, КТО ОТВЕЧАЕТ ЗА РЕПУТАЦИЮ И РИСКИ
Хотите, чтобы команда использовала ИИ эффективно, но безопасно, без скандалов и «самодеятельности».
ПОСЛЕ 2 ЧАСОВ ВЕБИНАРА ВЫ СМОЖЕТЕ:
Понимать, где
заканчивается помощник и начинается обман
И отличать «нормальное» использование ИИ от зон, грозящих отчислением, увольнением или судом.
Оценивать свои кейсы по
простой шкале «зелёная / жёлтая / красная зона»
Применять «светофор» этичности к учебным, рабочим и личным задачам.
Осознанно работать с
ИИ‑контентом
Понимать, когда нужно проверять факты, источники и формулировки, а
когда можно спокойно опираться на ИИ.
Чётко понимать, почему «ИИ сам придумал» — не
оправдание
Осознать, где именно лежит личная ответственность за результат.
Сделать первые шаги к
своим правилам работы с
ИИ
Сформулировать, что для вас «можно», «рискованно» и «точно нельзя».
ЧТО БУДЕТ НА ВЕБИНАРЕ
Живой разбор ситуаций, где использование ИИ уже стоило людям карьеры и репутации.
Простая модель «зелёная / жёлтая / красная зона» для ежедневных решений.
Практика с реальными кейсами: участники сами оценивают ситуации и видят последствия.
Объяснение, почему юридически и практически отвечает всегда человек, а не нейросеть.
Тизер системы курса «Этика применения ИИ» — что будет дальше, если вы пойдёте учиться.
Программа вебинара
01. ЗАХВАТ ВНИМАНИЯ: ГДЕ ВЫ УЖЕ ИСПОЛЬЗУЕТЕ ИИ
Короткая практика:
участники вспоминают, как применяли ИИ за последнюю неделю (учёба, тексты, презентации, переводы, идеи для контента).
Обсуждение:
почему большинство уже живёт «с ИИ», но почти не задумывается об этике и последствиях.
02. ТРИ ИСТОРИИ, КОТОРЫЕ ВСЁ ИЗМЕНИЛИ
Студент:
эссе от ИИ → детектор → отчисление.
Маркетолог:
текст с дискриминирующими формулировками → скандал → увольнение и иск.
Врач:
диагноз по рекомендации ИИ → неверное лечение → судебное разбирательство.
Вывод: во всех случаях ответственность несёт человек, а не инструмент.
03. СВЕТОФОР ЭТИЧНОСТИ: ЗЕЛЁНАЯ, ЖЁЛТАЯ И КРАСНАЯ ЗОНЫ
01. Зелёная зона (этично):
мозговой штурм, генерация идей;
исправление грамматики и стиля;
поиск информации и источников;
черновики, которые вы серьёзно перерабатываете.
02. Жёлтая зона (спорно, зона риска):
переводы и тексты без проверки;
генерация структуры работы без осмысления;
автоматизация задач без контроля;
использование без указания участия ИИ.
03. Красная зона (неэтично и опасно):
полная генерация работы без изменений;
присвоение авторства;
выдуманные данные и источники;
дискриминационные, предвзятые формулировки.
04. ПРАКТИКА: РАЗБОР 4 РЕАЛЬНЫХ КЕЙСОВ
Участники оценивают кейсы как «зелёный / жёлтый / красный»:
студент и список литературы, который он проверяет и прорабатывает сам;
журналист, публикующий сплошной ИИ‑текст под своим именем;
HR, который доверяет алгоритму, отсекающему женщин;
преподаватель, который генерирует тест, но тщательно его проверяет и адаптирует.
Обсуждение логики решений и последствий.
05. ПОЧЕМУ «ИИ САМ ПРИДУМАЛ» — НЕ ОПРАВДАНИЕ
Юридически:
закон не признаёт ИИ субъектом, отвечает человек.
Этически:
вы выбрали инструмент, не проверили результат и подписались под ним.
Практически:
отчисляют, увольняют и судят не нейросеть, а вас.
06. ТИЗЕР КУРСА: ГЛУБЖЕ, ЧЕМ НА ПРОМО-ВЕБИНАРЕ
Коротко о том, что будет на полном курсе «Этика применения ИИ»:
детекторы ИИ‑текстов и как они работают;
галлюцинации ИИ и быстрая проверка фактов;
предвзятость и дискриминация в HR, маркетинге, медицине и финансах;
этический чек‑лист из трёх вопросов, который помогает «спать спокойно»;
что говорит закон и какие требования уже вводятся в вузах и компаниях;
как собрать личный этический протокол и правила для команды.
Зарегистрируйтесь на вебинар
ДАТА
10 марта 2026 года.
ДЛИТЕЛЬНОСТЬ
45 минут контента + 15 минут ответов на вопросы
УЧАСТИЕ
По предварительной регистрации.
ОРГАНИЗАЦИЯ
После регистрации вы получите письмо с подтверждением и ссылкой на подключение.
Дополнительная информация придёт на указанную почту/в личный кабинет.
ФОРМАТ
Живой эфир с модератором и экспертом по цифровой этике.
Практические мини‑задания и разбор ответов из чата.
Возможность задать вопросы спикеру.
Зарегистрироваться бесплатно
ЧТО ВЫ УНЕСЁТЕ С СОБОЙ
Простую и понятную картину, где заканчивается «помощь ИИ» и начинается риск.
Первую версию своей личной шкалы «зелёная / жёлтая / красная зона».
Осознание, за что вы лично несёте ответственность при работе с нейросетями.
Понимание, стоит ли вам идти на полный курс по этике ИИ и что вы там получите.