包含 NemoGuard NIMs 的蓝图#

注意

本文档适用于希望将 NeMo Guardrails 集成到 NVIDIA Blueprints 中的开发者

NVIDIA Blueprints 是全面的参考工作流,可加速 AI 应用的开发和部署。它们提供了现成的工作流和工具,使您轻松开始构建和设置虚拟助理。无论您需要简单的 AI 聊天机器人还是完全动画的数字人界面,NVIDIA 都提供了资源来帮助您创建可扩展且符合您品牌的 AI 助理。例如,开发者可以使用 用于 AI 虚拟助理的 NVIDIA AI 蓝图 来构建面向客户服务的 AI 助理,以提供响应迅速、高效的客户支持体验。

前提条件和设置#

NVIDIA 蓝图#

用于 AI 虚拟助理的 NVIDIA 蓝图既可以通过 NVIDIA 托管的端点部署,也可以通过本地托管的 NIM 微服务部署。要开始部署

集成 NemoGuard#

首先在 ai-virtual-assistant/deploy/compose 目录下创建一个 nemoguardrails.yaml 文件,以下载并初始化 NeMo Guardrails 工具包。确保文件中包含以下内容。您可以根据需要更改端口。

services:
  nemoguardrails:
    build:
      context: ../../../nemoguardrails  # Path to the cloned repository
      dockerfile: Dockerfile
    container_name: nemoguardrails
    runtime: nvidia
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: 1
              capabilities: [gpu]
    environment:
      NGC_API_KEY: ${NGC_API_KEY}  # NVIDIA GPU Cloud API Key
    ports:
      - "8650:8650"  # Map container port 8000 to host port 8000
      - "8000:8000"
    user: "${USER_ID:-1000}:${GROUP_ID:-1000}"  # Use the current user's UID/GID
    command: >
      bash -c "
      export OPENAI_API_KEY=${OPENAI_API_KEY} &&
      cd nemoguardrails
      pip install --no-cache-dir -e .[all]
      "

按照 notebook - nemoguardrails/examples/notebooks/safeguard_ai_virtual_assistant_notebook.ipynb 的步骤,使用可下载的容器部署 NemoGuard NIM,并学习如何将其逐步集成到 NIM 蓝图中

NIM 蓝图 API 用法#

使用 ai-virtual-assistant/notebooks/api_usage.ipynb 运行蓝图 api,查看代理响应