Превосходная альтернатива инструменту транскрипции AI Openai: меньше галлюцинации, более точности

Искры OpenAI, инструмент распознавания речи и транскрипции на основе ИИ, выпущенный в 2022 году, часто генерирует галлюцинации или вымышленную информацию, что вызывает опасения по поводу его потенциального вреда в критических ситуациях.
Исследователь из Университета Мичигана обнаружил галлюцинации в 80% аудиотранскрипций с публичных собраний, которые он проанализировал. Аналогично, инженер, исследовавший 100 часов транскрипций Искры, сообщил о галлюцинациях примерно в половине из них, а другой разработчик выявил их почти в каждой созданной им транскрипции, в общей сложности 26 000 случаев.
Хотя незначительные ошибки в транскрипции встречаются часто, эксперты отметили, что уровень галлюцинаций Искры беспрецедентен среди инструментов транскрипции на основе ИИ. OpenAI утверждает, что Искра, нейронная сеть с открытым исходным кодом, достигает почти человеческой точности в распознавании английской речи. Она широко используется в различных отраслях для таких задач, как транскрипция интервью, перевод контента и создание субтитров для видео.
Широкое использование Искры может привести к распространению вымышленного текста, ошибочно приписываемых цитат и другой дезинформации на различных платформах, причем влияние варьируется в зависимости от характера исходного контента. Искра интегрирована в некоторые версии ChatGPT, используется в колл-центрах, голосовых помощниках и облачных платформах от Oracle и Microsoft, и была загружена более 4,2 миллиона раз за последний месяц с HuggingFace.
Особую озабоченность вызывает нарастающее использование инструментов на базе Искры медицинскими специалистами для транскрипции консультаций с пациентами. AP побеседовала с более чем дюжиной инженеров, исследователей и разработчиков, которые подтвердили, что Искра часто выдумывает фразы и целые предложения, иногда включая расистские комментарии, насильственную риторику и даже вымышленные медицинские процедуры.
«Никто не хочет ошибочного диагноза», — подчеркнула Алондра Нельсон, профессор Института перспективных исследований.
Хотя OpenAI предостерегает от использования Искры в сферах с высоким риском, таких как контексты принятия решений, где ошибки точности могут привести к серьезным проблемам, разрекламированная точность инструмента делает его привлекательным для различных отраслей, стремящихся оптимизировать операции, часто игнорируя потенциальные риски.
Проблема не ограничивается длинными или плохо записанными аудио; исследователи обнаружили галлюцинации даже в коротких и четких аудиосемплах. Они оценивают, что это может привести к десяткам тысяч неверных транскрипций среди миллионов записей. Кристиан Фоглер, директор Программы технологического доступа Университета Галлодета и сам глухой, отметил, что люди с нарушением слуха могут не заметить эти галлюцинации, «скрытые среди всего этого текста».
Эти выводы подчеркивают более широкую проблему в индустрии ИИ: спешка с выпуском продуктов на рынок ради прибыли, особенно в отсутствие всесторонних регулирований ИИ в США. Это особенно актуально на фоне дебатов о статусе OpenAI как коммерческой или некоммерческой организации и недавних заявлений руководства, преуменьшающих риски ИИ.
Представитель OpenAI сообщил AP, что компания постоянно работает над сокращением галлюцинаций и ценит выводы исследователей, включая их отзывы в обновления модели.
В то же время мы предлагаем рассмотреть Otter.ai, надежный инструмент транскрипции на основе ИИ, которому доверяют журналисты, недавно добавивший поддержку шести новых языков. Хотя давний пользователь сообщил о вымышленной статистике в новой функции ИИ-резюме, ошибка не появилась в самой транскрипции. Otter.ai советует пользователям проверять и редактировать транскрипции для точности, особенно для критически важных задач, отмечая, что точность может варьироваться из-за таких факторов, как фоновый шум, акценты и сложность разговора.
Для пользователей iPhone iOS 18.1 с Apple Intelligence теперь предлагает запись и транскрипцию звонков на основе ИИ, хотя главный редактор ZDNET Джейсон Хайнер описывает это как «все еще в процессе доработки».
OpenAI недавно объявила о планах предоставить больше инструментов своим 250 миллионам пользователей ChatGPT Plus.
Связанная статья
Компания Assort Health получила финансирование в размере 50 млн долларов на автоматизацию коммуникации с пациентами
Компания Assort Health, развивающийся ИИ-стартап в сфере здравоохранения, специализирующийся на автоматизированных коммуникациях с пациентами для специализированных клиник, привлекла около 50 миллионо
Мгновенная генерация формул Excel с помощью инструмента Excel на основе искусственного интеллекта
Преобразуйте рабочий процесс с электронными таблицами с помощью GPTExcel - решения на базе искусственного интеллекта, которое преобразует описания на естественном языке в точные формулы Excel и Google
Грок обрушился с критикой на демократов и "еврейских руководителей" Голливуда в своих неоднозначных высказываниях
В пятницу утром Элон Маск объявил о значительном обновлении @Grok, заявив, что пользователи заметят улучшение производительности при взаимодействии с ИИ-ассистентом. Хотя конкретные данные не были пре
Комментарии (18)
DouglasScott
15 августа 2025 г., 5:01:03 GMT+03:00
This transcription tool sounds like a game-changer! If it really cuts down on AI hallucinations, it could be a big win for accuracy in sensitive fields like medicine or law. Excited to see how it stacks up against Whisper! 😄
0
PaulLewis
5 августа 2025 г., 20:01:00 GMT+03:00
This transcription tool sounds promising! Less hallucination is a big win for accuracy. Excited to see how it stacks up in real-world use. 😊
0
FrankSanchez
4 августа 2025 г., 9:48:52 GMT+03:00
This new AI transcription tool sounds like a game-changer! Whisper’s hallucinations were such a mess for serious work, so I’m hyped to see something more accurate. Can it handle noisy audio though? 🤔
0
WalterWhite
16 апреля 2025 г., 6:50:21 GMT+03:00
このツールは本当に助かる!AIが勝手に作り出す幻覚がなく、非常に正確です。もう少し早く動いてくれると嬉しいけど、正確さが最優先だからね!😊
0
HaroldLopez
15 апреля 2025 г., 21:21:19 GMT+03:00
이 도구는 정말 구세주예요! AI가 내 녹취록에 허구를 만들어내는 걱정은 이제 안 해요. 정말 정확하고, 짜증나는 환각도 줄어들었어요. 조금만 더 빨라지면 좋겠지만, 정확성이 더 중요하죠! 😊
0
JimmyGarcia
15 апреля 2025 г., 21:19:21 GMT+03:00
Essa ferramenta é um salva-vidas! Não preciso mais me preocupar com a IA inventando coisas nas minhas transcrições. É super precisa e realmente reduz aquelas alucinações irritantes. Só gostaria que fosse um pouco mais rápida, mas, né, precisão acima de velocidade qualquer dia! 😊
0
Искры OpenAI, инструмент распознавания речи и транскрипции на основе ИИ, выпущенный в 2022 году, часто генерирует галлюцинации или вымышленную информацию, что вызывает опасения по поводу его потенциального вреда в критических ситуациях.
Исследователь из Университета Мичигана обнаружил галлюцинации в 80% аудиотранскрипций с публичных собраний, которые он проанализировал. Аналогично, инженер, исследовавший 100 часов транскрипций Искры, сообщил о галлюцинациях примерно в половине из них, а другой разработчик выявил их почти в каждой созданной им транскрипции, в общей сложности 26 000 случаев.
Хотя незначительные ошибки в транскрипции встречаются часто, эксперты отметили, что уровень галлюцинаций Искры беспрецедентен среди инструментов транскрипции на основе ИИ. OpenAI утверждает, что Искра, нейронная сеть с открытым исходным кодом, достигает почти человеческой точности в распознавании английской речи. Она широко используется в различных отраслях для таких задач, как транскрипция интервью, перевод контента и создание субтитров для видео.
Широкое использование Искры может привести к распространению вымышленного текста, ошибочно приписываемых цитат и другой дезинформации на различных платформах, причем влияние варьируется в зависимости от характера исходного контента. Искра интегрирована в некоторые версии ChatGPT, используется в колл-центрах, голосовых помощниках и облачных платформах от Oracle и Microsoft, и была загружена более 4,2 миллиона раз за последний месяц с HuggingFace.
Особую озабоченность вызывает нарастающее использование инструментов на базе Искры медицинскими специалистами для транскрипции консультаций с пациентами. AP побеседовала с более чем дюжиной инженеров, исследователей и разработчиков, которые подтвердили, что Искра часто выдумывает фразы и целые предложения, иногда включая расистские комментарии, насильственную риторику и даже вымышленные медицинские процедуры.
«Никто не хочет ошибочного диагноза», — подчеркнула Алондра Нельсон, профессор Института перспективных исследований.
Хотя OpenAI предостерегает от использования Искры в сферах с высоким риском, таких как контексты принятия решений, где ошибки точности могут привести к серьезным проблемам, разрекламированная точность инструмента делает его привлекательным для различных отраслей, стремящихся оптимизировать операции, часто игнорируя потенциальные риски.
Проблема не ограничивается длинными или плохо записанными аудио; исследователи обнаружили галлюцинации даже в коротких и четких аудиосемплах. Они оценивают, что это может привести к десяткам тысяч неверных транскрипций среди миллионов записей. Кристиан Фоглер, директор Программы технологического доступа Университета Галлодета и сам глухой, отметил, что люди с нарушением слуха могут не заметить эти галлюцинации, «скрытые среди всего этого текста».
Эти выводы подчеркивают более широкую проблему в индустрии ИИ: спешка с выпуском продуктов на рынок ради прибыли, особенно в отсутствие всесторонних регулирований ИИ в США. Это особенно актуально на фоне дебатов о статусе OpenAI как коммерческой или некоммерческой организации и недавних заявлений руководства, преуменьшающих риски ИИ.
Представитель OpenAI сообщил AP, что компания постоянно работает над сокращением галлюцинаций и ценит выводы исследователей, включая их отзывы в обновления модели.
В то же время мы предлагаем рассмотреть Otter.ai, надежный инструмент транскрипции на основе ИИ, которому доверяют журналисты, недавно добавивший поддержку шести новых языков. Хотя давний пользователь сообщил о вымышленной статистике в новой функции ИИ-резюме, ошибка не появилась в самой транскрипции. Otter.ai советует пользователям проверять и редактировать транскрипции для точности, особенно для критически важных задач, отмечая, что точность может варьироваться из-за таких факторов, как фоновый шум, акценты и сложность разговора.
Для пользователей iPhone iOS 18.1 с Apple Intelligence теперь предлагает запись и транскрипцию звонков на основе ИИ, хотя главный редактор ZDNET Джейсон Хайнер описывает это как «все еще в процессе доработки».
OpenAI недавно объявила о планах предоставить больше инструментов своим 250 миллионам пользователей ChatGPT Plus.




This transcription tool sounds like a game-changer! If it really cuts down on AI hallucinations, it could be a big win for accuracy in sensitive fields like medicine or law. Excited to see how it stacks up against Whisper! 😄




This transcription tool sounds promising! Less hallucination is a big win for accuracy. Excited to see how it stacks up in real-world use. 😊




This new AI transcription tool sounds like a game-changer! Whisper’s hallucinations were such a mess for serious work, so I’m hyped to see something more accurate. Can it handle noisy audio though? 🤔




このツールは本当に助かる!AIが勝手に作り出す幻覚がなく、非常に正確です。もう少し早く動いてくれると嬉しいけど、正確さが最優先だからね!😊




이 도구는 정말 구세주예요! AI가 내 녹취록에 허구를 만들어내는 걱정은 이제 안 해요. 정말 정확하고, 짜증나는 환각도 줄어들었어요. 조금만 더 빨라지면 좋겠지만, 정확성이 더 중요하죠! 😊




Essa ferramenta é um salva-vidas! Não preciso mais me preocupar com a IA inventando coisas nas minhas transcrições. É super precisa e realmente reduz aquelas alucinações irritantes. Só gostaria que fosse um pouco mais rápida, mas, né, precisão acima de velocidade qualquer dia! 😊












