Применять «светофор» этичности к учебным, рабочим и личным задачам.
Осознанно работать сИИ‑контентом
Понимать, когда нужно проверять факты, источники и формулировки, акогда можно спокойно опираться на ИИ.
Чётко понимать, почему «ИИ сам придумал» — неоправдание
Осознать, где именно лежит личная ответственность за результат.
Сделать первые шаги ксвоим правилам работы сИИ
Сформулировать, что для вас «можно», «рискованно» и «точно нельзя».
ЧТО БУДЕТ НА ВЕБИНАРЕ
Живой разбор ситуаций, где использование ИИ уже стоило людям карьеры и репутации.
Простая модель «зелёная / жёлтая / красная зона» для ежедневных решений.
Практика с реальными кейсами: участники сами оценивают ситуации и видят последствия.
Объяснение, почему юридически и практически отвечает всегда человек, а не нейросеть.
Тизер системы курса «Этика применения ИИ» — что будет дальше, если вы пойдёте учиться.
Лектор
Тихомирова Екатерина Григорьевна
Доктор философских наук.
Доцент, профессор кафедры философии, онтологии и теории познания.
Ведущий эксперт лаборатории цифровых технологий в гуманитарных науках центра изучения культурного наследия Национального исследовательского ядерного университета «МИФИ».
Топ-профессор ИИ - образовательные программы.
Программа вебинара
Короткая практика: участники вспоминают, как применяли ИИ за последнюю неделю (учёба, тексты, презентации, переводы, идеи для контента).
Обсуждение: почему большинство уже живёт «с ИИ», но почти не задумывается об этике и последствиях.
Студент: эссе от ИИ → детектор → отчисление. Маркетолог: текст с дискриминирующими формулировками → скандал → увольнение и иск. Врач: диагноз по рекомендации ИИ → неверное лечение → судебное разбирательство.
Вывод: во всех случаях ответственность несёт человек, а не инструмент.
01. Зелёная зона (этично):
мозговой штурм, генерация идей;
исправление грамматики и стиля;
поиск информации и источников;
черновики, которые вы серьёзно перерабатываете.
02. Жёлтая зона (спорно, зона риска):
переводы и тексты без проверки;
генерация структуры работы без осмысления;
автоматизация задач без контроля;
использование без указания участия ИИ.
03. Красная зона (неэтично и опасно):
полная генерация работы без изменений;
присвоение авторства;
выдуманные данные и источники;
дискриминационные, предвзятые формулировки.
Участники оценивают кейсы как «зелёный / жёлтый / красный»:
студент и список литературы, который он проверяет и прорабатывает сам;
журналист, публикующий сплошной ИИ‑текст под своим именем;
HR, который доверяет алгоритму, отсекающему женщин;
преподаватель, который генерирует тест, но тщательно его проверяет и адаптирует.
Обсуждение логики решений и последствий.
Юридически: закон не признаёт ИИ субъектом, отвечает человек.
Этически: вы выбрали инструмент, не проверили результат и подписались под ним.
Практически: отчисляют, увольняют и судят не нейросеть, а вас.
Коротко о том, что будет на полном курсе «Этика применения ИИ»:
детекторы ИИ‑текстов и как они работают;
галлюцинации ИИ и быстрая проверка фактов;
предвзятость и дискриминация в HR, маркетинге, медицине и финансах;
этический чек‑лист из трёх вопросов, который помогает «спать спокойно»;
что говорит закон и какие требования уже вводятся в вузах и компаниях;
как собрать личный этический протокол и правила для команды.