В основе всей концепции лежат идеи британского информатика Джеффри Хинтона из университета Торонто. Еще в ранних 90-х Хинтон работал над математической моделью нейронной сети, которая наращивала бы понимание проговариваемых вслух слов по мере анализа поступающих данных. В настоящий момент концепцию Хинтона использует Google в голосовом помощнике Google Now и Microsoft в анонсированном «Стар Трек»-переводчике Skype Translate.
Но компания Apple ранее нейронными сетями не занималась. Вместо этого Apple лицензировала технологию распознавания голоса у американской компании Nuance, специализирующейся на методах фильтрования и автоматического распознавания телефонных разговоров. Но в «узком кругу исследователей искусственного интеллекта» стало известно, что Apple собирает команду для работы над нейронной сетью для Siri. В прошлом году Apple переманила у Microsoft Алекса Ацеро, который в течение 20 лет занимался в Microsoft распознаванием речи. Сейчас Ацеро — один из старших директоров группы разработки Siri. Старшего менеджера Siri Гуннара Эвермана увели у Nuance, а ведущего специлиста Арнаба Гошала — из университета Эдинбурга.
Немногочисленные устоявшие перед соблазном ученые — вроде Абдула-Рахмана Мохаммеда из университета Торонто — говорят, что Apple «нанимает не только менеджеров, но и людей в лидеры отдельных команд и просто исследователей». В целом, по прогнозам специалистов, поднять Siri до уровня Google Now и Skype Translate можно за 6 месяцев.
Читайте о мобильных приложениях в нашем разделе APPS. Новые материалы — каждый день.