
19 июня обозреватель блоков Ethereum и аналитическая платформа Etherscan копье новый инструмент, получивший название «Code Reader», который использует искусственный интеллект для извлечения и интерпретации исходного кода определенного адреса контракта. После ввода приглашения пользователя Code Reader генерирует ответ через модель большого языка OpenAI (LLM), предоставляя предварительный просмотр файлов исходного кода контракта. Разработчики Etherscan написали:
«Чтобы использовать этот инструмент, вам нужен действительный ключ API OpenAI и достаточные ограничения на использование OpenAI. Этот инструмент не хранит ваши ключи API».
Варианты использования Code Reader включают лучшее понимание кода контрактов с помощью генерируемых ИИ объяснений, получение полных списков функций смарт-контрактов, связанных с данными Ethereum, и понимание того, как контракт в рамках -jacent взаимодействует с децентрализованными приложениями (dApps). «После того, как файлы контракта будут получены, вы можете выбрать конкретный файл исходного кода для чтения. Кроме того, вы можете редактировать исходный код непосредственно в пользовательском интерфейсе, прежде чем делиться им с ИИ», — написали разработчики.
В условиях бума искусственного интеллекта некоторые эксперты предупреждают о возможности реализации существующих моделей искусственного интеллекта. Согласно недавнему отчет опубликованный сингапурской венчурной фирмой Foresight Ventures, «вычислительные ресурсы станут следующим крупным полем битвы в следующем десятилетии». Тем не менее, несмотря на растущий спрос на обучение больших моделей ИИ в децентрализованных сетях с распределенной вычислительной мощностью, исследователи говорят, что текущие прототипы сталкиваются со значительными ограничениями, такими как сложная синхронизация данных, оптимизация сети, проблемы конфиденциальности данных и безопасности.
В одном примере исследователи Foresight отметили, что для обучения большой модели со 175 миллиардами параметров с представлением одинарной точности с плавающей запятой потребуется около 700 гигабайт. Однако распределенное обучение требует, чтобы эти параметры часто передавались и обновлялись между вычислительными узлами. В случае 100 вычислительных узлов и каждого узла, который должен обновлять все параметры на каждом единичном шаге, модель потребует передачи 70 терабайт данных в секунду, что намного превышает пропускную способность большинства сетей. Исследователи резюмировали:
«В большинстве сценариев небольшие модели ИИ остаются более приемлемым выбором, и их не следует упускать из виду слишком рано на волне FOMO для больших моделей».