Обзор Cody — бесплатного ИИ-помощника для написания кода
IT-блогер Alex Ziskind сделал обзор на Cody — помощника на основе искусственного интеллекта, который пишет код за вас.
1К открытий6К показов
IT-блогер Alex Ziskind сделал обзор на Cody — помощника на основе искусственного интеллекта, который пишет код за вас.
Вот, о чём идёт речь в видео:
- Автор видео рассматривает нового AI помощника по имени Cody для программирования.
- Kodi использует большие языковые модели (LLM) для решения задач по кодированию.
- Автор планирует протестировать Cody на своих собственных проектах разного размера.
- Kodi отличается от других подобных инструментов наличием бесплатного тарифа и возможностью работы с разными редакторами кода, включая VS Code.
- Kodi может автоматически дополнять строки кода или целые функции и имеет уникальные функции, которых нет у GitHub Copilot.
- Одна из уникальных функций Cody - возможность выбора различных LLM от разных поставщиков прямо в чате.
- Kodi предлагает создание пользовательских команд, которые могут воздействовать на весь кодовый репозиторий, а не только на отдельные файлы.
- Kodi осведомлен о всем кодовом репозитории после начальной индексации, что занимает некоторое время.
- Автор видит преимущества в использовании Cody, особенно из-за его уникальных функций и бесплатного тарифа, но также планирует использовать и GitHub Copilot.
- В конце автор выражает желание видеть возможность использования локальных LLM в Cody и упоминает свой недавний видеоурок по настройке LLM локально.
Ниже — транскрибация ролика на русском языке.
Видите эту маленькую иконку в моем редакторе кода? Это Cody, новый помощник по программированию, который я собираюсь опробовать. Я мог бы легко продемонстрировать, как Cody справляется с задачами по Codyрованию, но вот в чем дело.
Эти помощники используют LLM, или большие языковые модели, которые уже обучены на таких задачах. Поэтому я думаю, что лучший подход для использования Cody - это мои собственные проекты различного размера, которые у меня здесь.
Что умеет Cody
Теперь давайте изучим, что Cody предлагает. И учитывая, что я уже год использую GitHub Copilot, я довольно комфортно себя чувствую с ним.
У меня есть высокие ожидания. Первое, что я заметил, что отличает Cody, это то, что у него есть бесплатный уровень. Да, бесплатно навсегда для индивидуальных разработчиков на публичных и частных платформах. Я уже написал код. Он работает в IntelliJ, NeoVim, Emacs скоро тоже, а также в других редакторах, и я собираюсь использовать его в VS Code, потому что это то, где я в основном нахожусь.
Я просто установил расширение там, и вот как я получил эту иконку с моргающим лицом в моей навигационной панели. К этому моменту вы, вероятно, уже знаете, что основное в помощи по кодированию - это написание кода, и автозаполнение Cody делает именно это. Он может завершать строки кода или целые функции за вас. Но есть две довольно уникальные функции, которых нет у Copilot, но есть у Cody. Первая - это функция, которую Copilot, вероятно, никогда не будет иметь, выбор различных моделей LLM от разных поставщиков.
Я покажу вам это чуть позже. И другая - пользовательские команды. Что такое команды?
Есть разные способы взаимодействия с Cody. Два из самых очевидных - это команды и чат. Вверху есть список предварительно настроенных команд, где вы можете быстро кликнуть и получить результаты. Это экономит несколько нажатий клавиш, но я обнаружил, что мне на самом деле нравится просто взаимодействовать с окном чата. Здесь я могу вводить все, что хочу, и все равно использовать предварительно настроенные команды, набирая слэш, а затем имя команды. Почему ты предпочитаешь запускать команды из окна чата, Алекс? Ну, это отличный вопрос, Алекс. Это приводит меня к той уникальной функции, о которой я говорил.
Мне это действительно нравится, и я могу только представить возможности. Copilot позволяет вам использовать только чат GPT или GPT-4 от OpenAI по очевидным причинам. Все принадлежит Microsoft, VS Code, GitHub Copilot, GitHub, OpenAI.
Я, ну, не совсем, но в какой-то степени. Но Cody позволяет нам выбирать, какую LLM использовать от разных поставщиков прямо здесь в чате. Мы можем использовать Anthropix, Claude 2.0, 2.1, Claude Instant, что бы это ни было, никогда не пробовал этот, GPT 3.5 Turbo и GPT 4 Turbo.
Пользовательские команды
Это то, что доступно на данный момент, и они предлагают разные ответы, позволяя вам выбрать то, что вам больше всего нравится. Я упомянул пользовательские команды ранее. Это еще одна уникальная функция, которую я нашел довольно полезной. Вы можете создать пользовательскую команду, нажав на "пользовательская" и затем "новая пользовательская команда". Дайте ей имя, скажите, что вы хотите, чтобы она делала, а затем здесь вы можете выбрать область применения.
Например, вы хотите, чтобы она работала только на выбор? Хотите, чтобы она работала на всей кодовой базе? О да, Cody знает всю кодовую базу, а не только файл, который вы просматриваете. Вам нужно сначала выполнить начальную индексацию.
Это, вероятно, заняло около шести минут на моем самом большом репозитории, в котором девять мобильных приложений в одном моно-репо NX. Как только это включено и проиндексировано, Cody может обращаться к вашей полной кодовой базе, и не только для пользовательских команд, но и для любых команд. Вернемся к пользовательским командам, вы можете выбрать только текущий каталог, только текущие открытые вкладки. Это я собираюсь сделать для выбранного кода. А затем вы указываете, где хотите сохранить эту команду, либо в пользовательских настройках для всех ваших проектов, либо в настройках рабочего пространства только для этого конкретного проекта.
Вы вызываете команду, перейдя в чат и просто выполнив ее, как любую другую команду.
Стоит ли переключиться с Copilot на Cody
Я рад, что этот парень рядом. Теперь стоит ли переключиться с Copilot на Cody? Бесплатный уровень Cody, конечно, делает его привлекательным.
Я использовал Copilot, но я не плачу за него, так как я являюсь участником проектов с открытым исходным кодом. Но если вы не являетесь, то Cody - отличный вариант для вас, особенно с его уникальным набором функций. Я, вероятно, буду продолжать использовать оба, включенные для разных случаев использования, так как мне действительно нравится иметь возможность выбирать свой собственный LLM, и мне нравится функция настраиваемых команд, которая довольно крута. У меня есть короткий список желаемого, чтобы добавить в Cody, что действительно сделало бы его выдающимся. Во-первых, локальные LLM. LLM сейчас взрываются.
Существует так много различных вариантов и некоторые действительно хорошие. Было бы здорово запускать локальный LLM и использовать его в Cody. У бесплатного уровня есть ограничение на скорость, поэтому вы в конечном итоге столкнетесь с этим, и мне действительно пришлось столкнуться с этим.
Вам придется подождать немного, и затем он снова начнет работать. Интеграция с локальным LLM действительно решила бы эту проблему, так что это было бы действительно приятно. Теперь они позволяют вам использовать свой собственный ключ LLM, что означает, что если вы, например, используете API OpenAI и хотите использовать свой собственный ключ для этого, вы можете, что, вероятно, устранит ограничение на скорость.
Я не на 100% уверен в этом, но мне действительно хотелось бы видеть локальный LLM, и если вы хотите узнать, как настроить свой собственный LLM локально, я недавно сделал видеоурок, который покажет вам все тонкости этого.
1К открытий6К показов