Многие ученые прибегают к помощи нашумевшего бота ChatGPT и других языковых моделей. Какие риски это несет, и как использование «умных» технологий сказывается на качестве исследований? Научный журнал Nature предложил 5 способов контроля ChatGPT. Мы приводим главные тезисы из статьи.
С тех пор, как в конце прошлого года появился чат-бот под названием ChatGPT, стало очевидно, что такой тип искусственного интеллекта сильно повлияет на работу ученых и исследователей.
ChatGPT — это большая языковая модель (LLM), система машинного обучения, которая автономно извлекает информацию из предоставленных данных и может создавать сложные и достаточно осмысленные тексты после обучения на большом объеме текстовых данных. Это последний из множества подобных ИИ, разработанных OpenAI — компанией, располагающейся в Сан-Франциско, штат Калифорния.
ChatGPT вызвала ажиотаж и многочисленные дискуссии, потому что это одна из первых языковых моделей, которая может убедительно общаться с пользователем не только на английском, но и других языках. Более того, она бесплатна, проста в использовании и продолжает улучшаться.
Технология окажет сильное влияние на науку и общество. Уже сейчас многие исследователи используют ChatGPT и другие известные языковые модели для написания эссе и текстов публичных выступлений, подбора литературы, составления проектов, улучшения существующих статей, а также выявления пробелов в исследованиях и для написания компьютерного кода, включая статистический анализ.
Подробнее https://hi-tech.mail.ru/revi...