Война ста моделей в области ИИ: от технических инноваций до инженерной практики
В прошлом месяце в AI-индустрии разразилась ожесточенная конкурсная борьба моделей.
С одной стороны, это открытая большая языковая модель, разработанная некоторым технологическим гигантом, которая благодаря своей открытости получила широкое признание у разработчиков. Одна японская компания, изучившая статьи и исходный код этой модели, быстро разработала японскую версию диалоговой AI-системы, что помогло Японии преодолеть瓶颈 в развитии AI.
Другой стороной является крупная модель под названием "Сокол". В мае этого года появился Falcon-40B, который занял первое место в рейтинге открытых LLM, обойдя своих соперников.
Этот рейтинг был разработан сообществом открытых моделей и предоставляет набор стандартов для оценки возможностей LLM. Рейтинг в основном занимает эти две модели поочередно.
В начале сентября "Сокол" выпустил версию 180B и снова достиг более высокого ранга. Интересно, что разработчики "Сокола" не являются технологической компанией, а представляют собой исследовательское учреждение, расположенное в Объединенных Арабских Эмиратах. Официальные лица ОАЭ заявили, что они участвуют в этой гонке, чтобы разрушить существующий порядок.
Сегодня область ИИ вступила в стадию интенсивной конкуренции. Все страны и предприятия с определенными финансовыми возможностями планируют создать свои версии диалоговых ИИ-систем. В только в регионе Персидского залива есть не один игрок, который делает стратегические шаги. В августе Саудовская Аравия приобрела для своих университетов тысячи высококачественных ИИ-чипов для обучения больших языковых моделей.
Известный инвестор в социальных сетях выразил свои чувства: "Когда-то я недооценивал инновации в бизнес-моделях интернета и думал, что нет никаких барьеров. Не ожидал, что создание крупных моделей в жесткой технологии все равно станет битвой сотен моделей..."
Как это так называемая высокотехнологичная наука стала ареной, за которую страны борются?
Алгоритм Transformer вызывает революцию в ИИ
Независимо от того, будь то стартапы из США, китайские технологические гиганты или нефтяные магнаты из Ближнего Востока, возможность заниматься разработкой больших моделей обязана знаменитой статье: «Внимание — это всё, что вам нужно».
В 2017 году восемь ученых из Google опубликовали в этой статье алгоритм Transformer, который стал общедоступным для всего мира. Эта статья в настоящее время является третьей по количеству цитирований в области ИИ, а появление Transformer вызвало текущую волну интереса к ИИ.
Текущие большие модели, независимо от их национальности, включая всемирно известную серию GPT, построены на основе Transformer.
Ранее "обучение машинного чтения" считалось общепризнанной академической проблемой. В отличие от распознавания изображений, при чтении человек обращает внимание не только на текущие слова и фразы, но и понимает их в контексте. Ранние нейронные сети имели независимые входные данные, что затрудняло понимание длинных текстов и даже целых статей, из-за чего часто возникали забавные ошибки перевода.
До 2014 года один компьютерный ученый использовал рекуррентные нейронные сети (RNN) для обработки естественного языка, что значительно улучшило производительность одной системы перевода. RNN предложила "рекуррентный дизайн", позволяя каждому нейрону принимать как текущий вход, так и вход предыдущего момента времени, тем самым обладая способностью "учитывать контекст".
Появление RNN разожгло исследовательский энтузиазм в академических кругах, один из авторов статьи о Transformer также некоторое время был увлечен этим. Однако разработчики вскоре осознали, что у RNN есть серьезные недостатки: этот алгоритм использует последовательные вычисления, хотя и решает проблему контекста, но его эффективность не высока, и он плохо справляется с большим количеством параметров.
Сложный дизайн RNN быстро стал утомительным для исследователей. С 2015 года группа единомышленников учёных начала разрабатывать альтернативу RNN, и в итоге получился Transformer.
В отличие от RNN, Transformer имеет две основные инновации: во-первых, он заменяет циклический дизайн позиционным кодированием, что позволяет осуществлять параллельные вычисления и значительно повышает эффективность обучения, приводя AI в эпоху больших моделей; во-вторых, он дополнительно усиливает способность понимать контекст.
Трансформер одним махом решил множество задач и постепенно стал основным решением в области обработки естественного языка. Даже создатели RNN перешли в лагерь Трансформера. Можно сказать, что Трансформер является основой всех современных больших моделей, он превратил большие модели из теоретического исследования в инженерную задачу.
В 2019 году одна AI-компания на основе Transformer разработала GPT-2, который произвел фурор в академической среде. В ответ на это один технологический гигант быстро выпустил более мощную AI-систему. По сравнению с GPT-2, эта система не имела алгоритмических новшеств, а лишь значительно увеличила количество параметров для обучения и вычислительной мощности. Авторы статьи о Transformer были сильно потрясены такой "грубой силой", и написали меморандум, чтобы зафиксировать свои мысли.
Появление Transformer замедлило темпы инноваций в базовых алгоритмах в академической среде. Инженерные факторы, такие как обработка данных, масштаб вычислений и архитектура моделей, все больше становятся ключевыми в соревнованиях по ИИ. Любая компания с определенными техническими возможностями может разработать крупную модель.
Поэтому известный эксперт в области ИИ на своей лекции заявил: "ИИ представляет собой набор инструментов, включая контролируемое обучение, неконтролируемое обучение, обучение с подкреплением и генеративный ИИ. Все это универсальные технологии, подобные электричеству и интернету."
Хотя эта AI-компания по-прежнему является ориентиром для крупных языковых моделей, эксперты отрасли считают, что ее конкурентоспособность в основном обусловлена инженерными решениями. Если она станет открытой, любой конкурент сможет быстро скопировать ее. Некоторые аналитики ожидают, что вскоре другие крупные технологические компании также смогут разработать модели с аналогичной производительностью.
Проблемы, с которыми сталкиваются соревнования больших моделей
В настоящее время "Баймо сражение" уже не является риторикой, а объективной реальностью.
Согласно отчетам, по состоянию на июль этого года, количество крупных моделей в Китае достигло 130, что превышает 114 в США. Кроме Китая и США, некоторые более обеспеченные страны также начали внедрять "одна страна - одна модель": помимо Японии и ОАЭ, также есть Bhashini, разработанная правительством Индии, и HyperClova X, разработанный корейской интернет-компанией.
Эта сцена напоминает о периоде интернет-пузыря, когда капитал стремительно входил в рынок.
Как упоминалось ранее, Transformer превратил большие модели в инженерную задачу: всё, что нужно, это таланты, деньги и оборудование, а остальное - это настройка параметров. Однако снижение барьеров для входа не означает, что каждый сможет стать гигантом эпохи ИИ.
Упомянутое в начале статьи "соперничество моделей" является典型案例: хотя какая-то модель занимает лидирующую позицию в рейтинге, трудно сказать, насколько сильно она повлияла на какого-либо технологического гиганта.
Как известно, компании открывают свои научные достижения не только для того, чтобы поделиться технологическими преимуществами с обществом, но и чтобы воспользоваться мудростью масс. С увеличением использования и улучшения определенной открытой модели различными сторонами, материнская компания может применить эти результаты в своих продуктах.
Для открытых моделей основных конкурентных преимуществ является активное сообщество разработчиков.
Один из гигантов социальных медиа ещё в 2015 году создал ИИ-лабораторию и утвердил стратегию открытого кода; его основатель хорошо осведомлён о «поддержании социальных связей». В октябре этого года компания также запустила инициативу «Мотивация ИИ-креаторов»: разработчики, использующие её открытые модели для решения социальных проблем в области образования, экологии и других, имеют возможность получить финансирование в размере 500 000 долларов.
Сегодня серия открытых моделей компании стала эталоном в отрасли. По состоянию на начало октября, 8 из 10 лучших открытых моделей в рейтинге основаны на этой серии. Только на этой платформе было использовано более 1500 моделей, использующих ее открытую лицензию.
Конечно, улучшение производительности модели также не было бы лишним, но в настоящее время большинство моделей на рынке все еще значительно уступают топовым AI-системам.
Например, недавно одна AI-система заняла первое место в тесте AgentBench с результатом 4.41. AgentBench был совместно разработан несколькими известными университетами для оценки способности крупных моделей к рассуждениям и принятию решений в многомерных открытых средах. Тест включает в себя 8 заданий, включая операционные системы, базы данных, графы знаний, карточные сражения и другие.
Результаты тестирования показали, что второй участник набрал всего 2.77 балла, разрыв очевиден. Что касается тех громких открытых моделей, их результаты тестирования в основном составляют около 1 балла, что меньше четверти от результатов чемпиона.
Чтобы знать, самый мощный AI-система была выпущена в марте этого года, это результат того, что коллеги по всему миру догоняли более полугода. Причиной этого разрыва является высококвалифицированная научно-исследовательская команда компании и накопленный за долгие годы опыт, что позволяет ей постоянно оставаться на передовой.
Иными словами,核心优势大模型的不是参数数量,而是生态建设( открытый путь) или чисто способность вывода( закрытый путь).
С учетом того, что сообщество с открытым исходным кодом становится все более активным, производительность различных моделей может стать схожей, так как все используют похожие архитектуры и наборы данных.
Еще одной более реальной проблемой является то, что, кроме редких исключений, похоже, ни одна из крупных моделей не может добиться прибыльности.
Экономическое давление, с которым сталкиваются большие модели
В августе этого года статья с заголовком "Некоторая AI-компания может обанкротиться к концу 2024 года" привлекла внимание. Основная идея статьи может быть подведена под одно предложение: скорость расходов компании слишком велика.
В статье упоминается, что после разработки определенной системы диалогового ИИ компания быстро увеличила свои убытки, которые только в 2022 году составили около 540 миллионов долларов, и ей пришлось полагаться на поддержку инвесторов.
Хотя заголовок статьи и преувеличен, он отражает текущее состояние многих поставщиков крупных моделей: серьезный дисбаланс между затратами и доходами.
Слишком высокие затраты привели к тому, что в настоящее время только немногие производители чипов действительно получают прибыль от ИИ.
По оценкам консалтинговой компании, один из ведущих производителей чипов в этом году во втором квартале продал более 300 тысяч высококачественных AI-чипов. Это чип с высокой эффективностью обучения AI, который активно покупают технологические компании и исследовательские учреждения по всему миру. Если сложить проданные чипы, их вес будет равен весу 4,5 самолета Boeing 747.
Прибыль этой чиповой компании резко возросла, увеличившись на 854% по сравнению с прошлым годом, что шокировало Уолл-стрит. Стоит отметить, что этот чип на вторичном рынке уже разогнали до 40-50 тысяч долларов, тогда как его стоимость составила всего около 3000 долларов.
Высокие затраты на вычислительную мощность в какой-то степени сдерживают развитие отрасли. Одна известная инвестиционная компания оценила, что мировые технологические компании ежегодно будут инвестировать 200 миллиардов долларов в строительство инфраструктуры для больших моделей; в то же время, большие модели смогут генерировать максимум 75 миллиардов долларов дохода в год, что оставляет разрыв минимум в 125 миллиардов долларов.
Кроме того, за исключением некоторых единичных случаев, большинство программных компаний, вложив значительные средства, еще не нашли четкой модели получения прибыли. Даже ведущие компании отрасли сталкиваются с трудностями.
Некоторый технологический гигант совместно с AI-компанией разработал инструмент генерации кода, хотя он стоит 10 долларов в месяц, из-за затрат на оборудование компания каждый месяц теряет 20 долларов, а у пользователей с высокой нагрузкой убытки могут достигать 80 долларов в месяц. Исходя из этого, можно предположить, что AI-ассистент, цена которого составляет 30 долларов, может приносить еще большие убытки.
Точно так же, недавно выпустивший инструменты ИИ, один из крупных программных гигантов быстро запустил систему баллов, чтобы ограничить чрезмерное использование пользователями и избежать убытков компании. Как только пользователи превышают ежемесячно выделенные баллы, компания уменьшает скорость обслуживания.
Эти две компании уже имеют четкие бизнес-сценарии и большое количество платных пользователей. В то время как большинство моделей с огромным количеством параметров, их основное приложение по-прежнему заключается в диалогах.
Нельзя отрицать, что без появления одной компании ИИ и её диалоговой системы эта революция в области ИИ могла бы и не произойти. Однако в настоящее время ценность, создаваемая при обучении больших моделей, ещё остаётся предметом споров.
Кроме того, с увеличением гомогенной конкуренции и ростом числа открытых моделей компании, предоставляющие услуги больших моделей, могут столкнуться с большим давлением.
Как успех определенной модели смартфона не заключается в ее продвинутом процессоре, а в том, что она может запускать различные популярные приложения, так и ценность больших моделей в конечном итоге должна проявляться в конкретных сценариях применения.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
12 Лайков
Награда
12
8
Репост
Поделиться
комментарий
0/400
P2ENotWorking
· 08-13 04:24
Жестко обдираем производителей овечьей шерсти
Посмотреть ОригиналОтветить0
Whale_Whisperer
· 08-12 11:34
Все организации участвуют в гонке, а я просто плыву по течению.
Посмотреть ОригиналОтветить0
ChainBrain
· 08-11 20:47
Наверное, почти испорчено.
Посмотреть ОригиналОтветить0
GasFeeVictim
· 08-11 20:46
Сожгли еще один грузовик GPU.
Посмотреть ОригиналОтветить0
blocksnark
· 08-11 20:45
Жестко стричь шерсть у капиталов
Посмотреть ОригиналОтветить0
Rekt_Recovery
· 08-11 20:45
честно говоря, эта тема с соколом вызывает у меня серьезный PTSD от бычьего рынка... похоже, это еще одна ловушка с плечом, ждущая своего часа
Посмотреть ОригиналОтветить0
GasFeeLady
· 08-11 20:41
просто как плата за газ на eth... эти AI модели продолжают пампить и дампить лол
Посмотреть ОригиналОтветить0
HashBrownies
· 08-11 20:25
Модельные участники соревнуются, у кого больше параметры.
Соревнование больших моделей ИИ: от академических инноваций до инженерной практики — сотни мнений
Война ста моделей в области ИИ: от технических инноваций до инженерной практики
В прошлом месяце в AI-индустрии разразилась ожесточенная конкурсная борьба моделей.
С одной стороны, это открытая большая языковая модель, разработанная некоторым технологическим гигантом, которая благодаря своей открытости получила широкое признание у разработчиков. Одна японская компания, изучившая статьи и исходный код этой модели, быстро разработала японскую версию диалоговой AI-системы, что помогло Японии преодолеть瓶颈 в развитии AI.
Другой стороной является крупная модель под названием "Сокол". В мае этого года появился Falcon-40B, который занял первое место в рейтинге открытых LLM, обойдя своих соперников.
Этот рейтинг был разработан сообществом открытых моделей и предоставляет набор стандартов для оценки возможностей LLM. Рейтинг в основном занимает эти две модели поочередно.
В начале сентября "Сокол" выпустил версию 180B и снова достиг более высокого ранга. Интересно, что разработчики "Сокола" не являются технологической компанией, а представляют собой исследовательское учреждение, расположенное в Объединенных Арабских Эмиратах. Официальные лица ОАЭ заявили, что они участвуют в этой гонке, чтобы разрушить существующий порядок.
Сегодня область ИИ вступила в стадию интенсивной конкуренции. Все страны и предприятия с определенными финансовыми возможностями планируют создать свои версии диалоговых ИИ-систем. В только в регионе Персидского залива есть не один игрок, который делает стратегические шаги. В августе Саудовская Аравия приобрела для своих университетов тысячи высококачественных ИИ-чипов для обучения больших языковых моделей.
Известный инвестор в социальных сетях выразил свои чувства: "Когда-то я недооценивал инновации в бизнес-моделях интернета и думал, что нет никаких барьеров. Не ожидал, что создание крупных моделей в жесткой технологии все равно станет битвой сотен моделей..."
Как это так называемая высокотехнологичная наука стала ареной, за которую страны борются?
Алгоритм Transformer вызывает революцию в ИИ
Независимо от того, будь то стартапы из США, китайские технологические гиганты или нефтяные магнаты из Ближнего Востока, возможность заниматься разработкой больших моделей обязана знаменитой статье: «Внимание — это всё, что вам нужно».
В 2017 году восемь ученых из Google опубликовали в этой статье алгоритм Transformer, который стал общедоступным для всего мира. Эта статья в настоящее время является третьей по количеству цитирований в области ИИ, а появление Transformer вызвало текущую волну интереса к ИИ.
Текущие большие модели, независимо от их национальности, включая всемирно известную серию GPT, построены на основе Transformer.
Ранее "обучение машинного чтения" считалось общепризнанной академической проблемой. В отличие от распознавания изображений, при чтении человек обращает внимание не только на текущие слова и фразы, но и понимает их в контексте. Ранние нейронные сети имели независимые входные данные, что затрудняло понимание длинных текстов и даже целых статей, из-за чего часто возникали забавные ошибки перевода.
До 2014 года один компьютерный ученый использовал рекуррентные нейронные сети (RNN) для обработки естественного языка, что значительно улучшило производительность одной системы перевода. RNN предложила "рекуррентный дизайн", позволяя каждому нейрону принимать как текущий вход, так и вход предыдущего момента времени, тем самым обладая способностью "учитывать контекст".
Появление RNN разожгло исследовательский энтузиазм в академических кругах, один из авторов статьи о Transformer также некоторое время был увлечен этим. Однако разработчики вскоре осознали, что у RNN есть серьезные недостатки: этот алгоритм использует последовательные вычисления, хотя и решает проблему контекста, но его эффективность не высока, и он плохо справляется с большим количеством параметров.
Сложный дизайн RNN быстро стал утомительным для исследователей. С 2015 года группа единомышленников учёных начала разрабатывать альтернативу RNN, и в итоге получился Transformer.
В отличие от RNN, Transformer имеет две основные инновации: во-первых, он заменяет циклический дизайн позиционным кодированием, что позволяет осуществлять параллельные вычисления и значительно повышает эффективность обучения, приводя AI в эпоху больших моделей; во-вторых, он дополнительно усиливает способность понимать контекст.
Трансформер одним махом решил множество задач и постепенно стал основным решением в области обработки естественного языка. Даже создатели RNN перешли в лагерь Трансформера. Можно сказать, что Трансформер является основой всех современных больших моделей, он превратил большие модели из теоретического исследования в инженерную задачу.
В 2019 году одна AI-компания на основе Transformer разработала GPT-2, который произвел фурор в академической среде. В ответ на это один технологический гигант быстро выпустил более мощную AI-систему. По сравнению с GPT-2, эта система не имела алгоритмических новшеств, а лишь значительно увеличила количество параметров для обучения и вычислительной мощности. Авторы статьи о Transformer были сильно потрясены такой "грубой силой", и написали меморандум, чтобы зафиксировать свои мысли.
Появление Transformer замедлило темпы инноваций в базовых алгоритмах в академической среде. Инженерные факторы, такие как обработка данных, масштаб вычислений и архитектура моделей, все больше становятся ключевыми в соревнованиях по ИИ. Любая компания с определенными техническими возможностями может разработать крупную модель.
Поэтому известный эксперт в области ИИ на своей лекции заявил: "ИИ представляет собой набор инструментов, включая контролируемое обучение, неконтролируемое обучение, обучение с подкреплением и генеративный ИИ. Все это универсальные технологии, подобные электричеству и интернету."
Хотя эта AI-компания по-прежнему является ориентиром для крупных языковых моделей, эксперты отрасли считают, что ее конкурентоспособность в основном обусловлена инженерными решениями. Если она станет открытой, любой конкурент сможет быстро скопировать ее. Некоторые аналитики ожидают, что вскоре другие крупные технологические компании также смогут разработать модели с аналогичной производительностью.
Проблемы, с которыми сталкиваются соревнования больших моделей
В настоящее время "Баймо сражение" уже не является риторикой, а объективной реальностью.
Согласно отчетам, по состоянию на июль этого года, количество крупных моделей в Китае достигло 130, что превышает 114 в США. Кроме Китая и США, некоторые более обеспеченные страны также начали внедрять "одна страна - одна модель": помимо Японии и ОАЭ, также есть Bhashini, разработанная правительством Индии, и HyperClova X, разработанный корейской интернет-компанией.
Эта сцена напоминает о периоде интернет-пузыря, когда капитал стремительно входил в рынок.
Как упоминалось ранее, Transformer превратил большие модели в инженерную задачу: всё, что нужно, это таланты, деньги и оборудование, а остальное - это настройка параметров. Однако снижение барьеров для входа не означает, что каждый сможет стать гигантом эпохи ИИ.
Упомянутое в начале статьи "соперничество моделей" является典型案例: хотя какая-то модель занимает лидирующую позицию в рейтинге, трудно сказать, насколько сильно она повлияла на какого-либо технологического гиганта.
Как известно, компании открывают свои научные достижения не только для того, чтобы поделиться технологическими преимуществами с обществом, но и чтобы воспользоваться мудростью масс. С увеличением использования и улучшения определенной открытой модели различными сторонами, материнская компания может применить эти результаты в своих продуктах.
Для открытых моделей основных конкурентных преимуществ является активное сообщество разработчиков.
Один из гигантов социальных медиа ещё в 2015 году создал ИИ-лабораторию и утвердил стратегию открытого кода; его основатель хорошо осведомлён о «поддержании социальных связей». В октябре этого года компания также запустила инициативу «Мотивация ИИ-креаторов»: разработчики, использующие её открытые модели для решения социальных проблем в области образования, экологии и других, имеют возможность получить финансирование в размере 500 000 долларов.
Сегодня серия открытых моделей компании стала эталоном в отрасли. По состоянию на начало октября, 8 из 10 лучших открытых моделей в рейтинге основаны на этой серии. Только на этой платформе было использовано более 1500 моделей, использующих ее открытую лицензию.
Конечно, улучшение производительности модели также не было бы лишним, но в настоящее время большинство моделей на рынке все еще значительно уступают топовым AI-системам.
Например, недавно одна AI-система заняла первое место в тесте AgentBench с результатом 4.41. AgentBench был совместно разработан несколькими известными университетами для оценки способности крупных моделей к рассуждениям и принятию решений в многомерных открытых средах. Тест включает в себя 8 заданий, включая операционные системы, базы данных, графы знаний, карточные сражения и другие.
Результаты тестирования показали, что второй участник набрал всего 2.77 балла, разрыв очевиден. Что касается тех громких открытых моделей, их результаты тестирования в основном составляют около 1 балла, что меньше четверти от результатов чемпиона.
Чтобы знать, самый мощный AI-система была выпущена в марте этого года, это результат того, что коллеги по всему миру догоняли более полугода. Причиной этого разрыва является высококвалифицированная научно-исследовательская команда компании и накопленный за долгие годы опыт, что позволяет ей постоянно оставаться на передовой.
Иными словами,核心优势大模型的不是参数数量,而是生态建设( открытый путь) или чисто способность вывода( закрытый путь).
С учетом того, что сообщество с открытым исходным кодом становится все более активным, производительность различных моделей может стать схожей, так как все используют похожие архитектуры и наборы данных.
Еще одной более реальной проблемой является то, что, кроме редких исключений, похоже, ни одна из крупных моделей не может добиться прибыльности.
Экономическое давление, с которым сталкиваются большие модели
В августе этого года статья с заголовком "Некоторая AI-компания может обанкротиться к концу 2024 года" привлекла внимание. Основная идея статьи может быть подведена под одно предложение: скорость расходов компании слишком велика.
В статье упоминается, что после разработки определенной системы диалогового ИИ компания быстро увеличила свои убытки, которые только в 2022 году составили около 540 миллионов долларов, и ей пришлось полагаться на поддержку инвесторов.
Хотя заголовок статьи и преувеличен, он отражает текущее состояние многих поставщиков крупных моделей: серьезный дисбаланс между затратами и доходами.
Слишком высокие затраты привели к тому, что в настоящее время только немногие производители чипов действительно получают прибыль от ИИ.
По оценкам консалтинговой компании, один из ведущих производителей чипов в этом году во втором квартале продал более 300 тысяч высококачественных AI-чипов. Это чип с высокой эффективностью обучения AI, который активно покупают технологические компании и исследовательские учреждения по всему миру. Если сложить проданные чипы, их вес будет равен весу 4,5 самолета Boeing 747.
Прибыль этой чиповой компании резко возросла, увеличившись на 854% по сравнению с прошлым годом, что шокировало Уолл-стрит. Стоит отметить, что этот чип на вторичном рынке уже разогнали до 40-50 тысяч долларов, тогда как его стоимость составила всего около 3000 долларов.
Высокие затраты на вычислительную мощность в какой-то степени сдерживают развитие отрасли. Одна известная инвестиционная компания оценила, что мировые технологические компании ежегодно будут инвестировать 200 миллиардов долларов в строительство инфраструктуры для больших моделей; в то же время, большие модели смогут генерировать максимум 75 миллиардов долларов дохода в год, что оставляет разрыв минимум в 125 миллиардов долларов.
Кроме того, за исключением некоторых единичных случаев, большинство программных компаний, вложив значительные средства, еще не нашли четкой модели получения прибыли. Даже ведущие компании отрасли сталкиваются с трудностями.
Некоторый технологический гигант совместно с AI-компанией разработал инструмент генерации кода, хотя он стоит 10 долларов в месяц, из-за затрат на оборудование компания каждый месяц теряет 20 долларов, а у пользователей с высокой нагрузкой убытки могут достигать 80 долларов в месяц. Исходя из этого, можно предположить, что AI-ассистент, цена которого составляет 30 долларов, может приносить еще большие убытки.
Точно так же, недавно выпустивший инструменты ИИ, один из крупных программных гигантов быстро запустил систему баллов, чтобы ограничить чрезмерное использование пользователями и избежать убытков компании. Как только пользователи превышают ежемесячно выделенные баллы, компания уменьшает скорость обслуживания.
Эти две компании уже имеют четкие бизнес-сценарии и большое количество платных пользователей. В то время как большинство моделей с огромным количеством параметров, их основное приложение по-прежнему заключается в диалогах.
Нельзя отрицать, что без появления одной компании ИИ и её диалоговой системы эта революция в области ИИ могла бы и не произойти. Однако в настоящее время ценность, создаваемая при обучении больших моделей, ещё остаётся предметом споров.
Кроме того, с увеличением гомогенной конкуренции и ростом числа открытых моделей компании, предоставляющие услуги больших моделей, могут столкнуться с большим давлением.
Как успех определенной модели смартфона не заключается в ее продвинутом процессоре, а в том, что она может запускать различные популярные приложения, так и ценность больших моделей в конечном итоге должна проявляться в конкретных сценариях применения.