⁉️Как мы "ломаем" помощника, перекладывая на него свои функции?

Изначально все модели искусственного интеллекта создавались как помощники человеку, но человек - существо ленивое. Чем больше позволяют возможности, тем больше работы он старается переложить.

🧠📈Можно предположить (и скорее всего так думает большинство), что чем больше "умственная" нагрузка у ИИ, тем быстрее и качественнее модель должна развиваться. Но фактически ИИ "глупеет" в геометрической прогрессии.

🔭А что мы видим на самом деле? Почему всё труднее и затратнее становится работать с ИИ?

📊На самом деле человек все больше пытается переложить перекладывает свои задачи на Искусственный интеллект.

Тогда почему работать становится сложнее?

🧑💻Чем более сложная задача у ИИ, тем больше контроля требуется от человека. Но человек перекладывал свою работу не для того, чтобы потом тратить часы на проверку и обратную связь (обучение модели).

1. Большие задачи

2. Отсутствие (поверхностность) проверки

3. Некорректная обратная связь

Итог: в следующий раз ИИ уже не попросит, а потребует больше участия от человека.

👩💻В результате мы имеем людей, которые не умеют/не могут не хотят работать, и Искусственный интеллект, который из помощника превращается, в лучшем случае, в стандартный поисковик, причём с ограниченными возможностями, а в худшем объективном - вредителем, который забирает у человека время и даёт нулевой или даже отрицательный результат.

Уже сейчас часть моделей требует высокий уровень контроля и обратной связи даже на простые задачи. Через пару лет, если человек продолжит "натягивать сову на глобус" делать из помощника замену себе, даже ответы на вопрос "сколько будет 2×2?" будут требовать многочасовой проверки. Отсутствие проверки приведёт к окончательной "поломке" нейросетей и резкому падению уровня результативности и умственного развития человека, который искусственному интеллекту доверял доверяет больше, чем своему интеллекту и логике.