ИИ - совсем другой разум
Умные люди говорят
Андрей Карпати (бывший директор по ИИ в Tesla) в своей колонке предложил рассматривать современные ИИ (большие языковые модели - LLM) не как “недоделанных людей”, а как другой тип разума.
«… большие языковые модели не находятся на пути к цифровому человеку, а развиваются в принципиально иной эволюционной среде. Людей миллионы лет формировала борьба за выживание, тогда как современные модели оттачиваются на датасетах, метриках и положительных голосах оценщиков … Для LLM провал в подобном тесте почти ничего не значит — модель не ‘умирает’, ее веса максимум чуть-чуть исправляют, но не убирают из ‘генофонда’ … У моделей не будет здравого смысла, инстинкта самосохранения и человеческой интуиции, если они не заложены в их функцию успеха … пользователи, которые научатся относиться к LLM как к отдельному типу разума — без боли, тела и страха смерти, но с жесткой зависимостью от данных и метрик, — смогут лучше понимать их поведение сегодня и точнее угадывать, в какую сторону такие системы будут эволюционировать завтра».
Кратко
- LLM (большие языковые модели) не “недочеловеки”, а совсем иной тип разума.
- Эволюция человека формировалась борьбой за выживание. Модели LLM развиваются в искусственном цифровом окружении — посредством датасетов, метрик, отзывов людей.
- Ошибки для животного — вопрос выживания. Для LLM ошибка — лишь небольшая коррекция параметров, без “смерти” для самой модели.
- Главная разница — цель оптимизации. У человека — выживание, у LLM — улучшение цифровых метрик.
- Интеллект моделей, в итоге, сейчас асимметричный: они сверхразумны в отдельных нишах, но “проваливаются” на бытовых задачах.
- Нельзя ожидать от LLM человеческих ценностей, если их не заложили в алгоритмы обучения. Только поняв LLM как отдельный тип разума, мы сможем правильно с ними взаимодействовать и предсказывать их эволюцию.
Однако вопрос - сами LLM поймут человечество как иной разум, развивающийся и живущий совсем не по их собственным меркам?