Leave a comment

Comments 41

misha_panda November 11 2024, 19:12:50 UTC
Исчерпав имеющиеся в открытом доступе тексты ОпенАИ взялись за видеоролики и аудиоподкасты.
У гугла есть запас тестов отсутствующих в открытом доступе из-за проблем с правобладателем, который к примеру не найден.

Reply


vashu11 November 11 2024, 20:39:08 UTC

Есть попытки оценить предел эффективности, например ищем Neural Scaling Laws и compute efficient frontier


... )

Reply

giovanni1313 November 12 2024, 09:38:57 UTC
Первый момент: есть явный разрыв между задачей предсказания следующего токена в тексте и общими интеллектуальными способностями. То, что до определенного момента прогресс в первом давал существенный прогресс во втором - очень счастливое совпадение, которое сложно вывести из какой-то фундаментальной теории. Причем речь не просто о тексте - но о рандомном тексте, доступном в Сети ( ... )

Reply

vashu11 December 21 2024, 18:22:03 UTC

Как там OpenAI o3?

Теперь до следующего бряка какого-нибудь мутного товарища прежде чем можно начинать ждать конца прогресса?

Reply

giovanni1313 December 22 2024, 10:35:57 UTC
o3 - шикарно. Но дорого. Но шикарно.

Но в принципе, да, я продолжаю оставаться открытым к мутным сливам как со стороны скептиков, так и со стороны оптимистов :)

Reply


akor168 November 11 2024, 20:53:40 UTC
Есть еще один сильный косвенный признак - ОпенАИ почти полностью разогнали свою команду по безопасности. То есть стало абсолютно очевидно, что никакого само-зарожденного скайнета в принципе не может получится на текущем пути.

Reply

snake_d_ha November 12 2024, 00:13:27 UTC

Или он уже без помощи людей займется своей безопасностью. :)

Reply

giovanni1313 November 12 2024, 09:48:41 UTC
Ну не такой уж и сильный :) Мне кажется более сильной версия, что товарищи специалисты по этике мешали расширению коммерческого использования моделей. "Путались под ногами". Плюс внутренняя политика: Ян Лейке мог быть близок к Суцкеверу, и они оба противостояли Сэму Альману и его стратегии.

Reply


vladimir690 November 12 2024, 12:09:59 UTC
Да, такие же мысли про новый дотком..

Reply


akor168 November 12 2024, 13:00:12 UTC
На самом деле это даже хорошо если нащупывается плато в ЛЛМ-ках, потому что ЛЛМ-ка это всего лишь базовый элемент для сборки собственно более интеллектуальных систем. Но пока этого плато нет никто ничего сложного не собирает ибо будет глупо если транзистор следующего поколения будет бесплатно давать весь функционал сложных систем на базе предыдущих. А сейчас появляется мотвация мутить сложные схемы и одновременно удешевлять работу базовых ЛЛМ-ок.

Но это лишь в том случае если плато действительно есть. Мы даже не знаем насколько ГПТ-4 большая сеть, и насколько большая сеть тренируется сейчас. Если речь идет а всего лишь несколько раз то это еще ни о чем не говорит кроме того что дешевого решения нет и для прогресса надо увеличивать таки базовые модели в дестяки-сотни и даже тысячи раз. Но денег пока столько не дают да и стремно сливать их.

Reply


Leave a comment

Up