Несмотря на то, что GPT-5 пока находится на этапе предварительного тестирования, первые корпоративные пользователи заявляют о заметных изменениях в точности работы модели.
GPT-5 и ее предшественники обучаются на огромных наборах данных, как правило, собранных из интернета, имитируя диалоговую модель общения человека.
Как правило, большее количество параметров позволяет нейронным сетям гораздо эффективнее решать поставленные перед ними задачи, тем не менее, ошибки в настройке могут привести к тому, что нейронная сеть будет больше полагаться на тренировочные данные, нежели на реальные (т. н. overfitting).
Технические параметры новой модели пока неизвестны, однако количество параметров предположительно составит от 2 до 5 триллионов. Обучается GPT-5 на ИИ-ускорителях Nvidia H100.
О чат-боте от Илона Маска читайте в нашем материале.