服务器在线 - 服务器软件 - 网站地图 服务器在线,专注于服务器技术!

当前位置:主页 > 编程脚本 > Python > 正文

使用python3 flask制作一个过openai接口发送gpt请求

时间:2023-04-22    来源:未知    投稿:admin    点击:

首先,您需要安装必要的库,包括flaskopenai,您可以通过运行以下命令来安装它们:

pip install flask openai

接下来,您需要在OpenAI官网上注册账号并获取API密钥。将API密钥保存在环境变量中以便在代码中引用,例如:

import os

openai.api_key = os.environ["OPENAI_API_KEY"]

现在您可以开始编写Flask应用程序了。以下是一个简单的实现:

import os
import openai
from flask import Flask, request, jsonify

app = Flask(__name__)
openai.api_key = os.environ["OPENAI_API_KEY"]
model_engine = "davinci"

@app.route("/")
def home():
    return "Hello, World!"

@app.route("/chat", methods=["POST"])
def chat():
    message = request.form["message"]
    prompt = f"User: {message}
AI:"
    response = openai.Completion.create(
        engine=model_engine,
        prompt=prompt,
        max_tokens=1024,
        n=1,
        stop=None,
        temperature=0.5,
    )
    answer = response.choices[0].text.strip()
    return jsonify({"message": answer})


该应用程序具有两个路由://chat/路由只是返回一个简单的“Hello,World!”消息,用于测试应用程序是否正常运行。/chat路由用于处理聊天请求。它从POST请求中获取用户输入的消息,然后使用OpenAI API生成AI的回复。它将AI的回复作为JSON响应返回给客户端。

该应用程序使用OpenAI API的Completion.create()方法生成AI的回复。engine参数指定了要使用的OpenAI模型引擎,prompt参数是将用户消息传递给AI的文本,max_tokens参数指定AI生成的回复的最大令牌数,n参数指定AI生成的回复的数量,stop参数指定AI生成回复的条件,temperature参数是用于控制生成回复的随机性的值。

最后,您需要使用app.run()方法运行Flask应用程序。将以下代码添加到文件的底部:
 

if __name__ == "__main__":
    app.run()

现在您可以启动该应用程序并在浏览器中测试它。在终端中导航到应用程序所在的目录,然后运行以下命令:

export FLASK_APP=app.py
export FLASK_ENV=development
flask run

这将在本地主机的默认端口(通常是5000)上启动Flask应用程序。在浏览器中访问http://localhost:5000/应该显示“Hello,World!”消息。要测试聊天机器人,请使用以下命令向/chat路由发送POST请求:
curl -X POST -F "message=Hello" http://localhost:5000/chat

这将向/chat路由发送一个POST请求,其中包含message参数设置为“Hello”。聊天机器人将生成一个回复,并将其作为JSON响应返回。您应该会看到类似于以下内容的输出:
 

{"message": "Hi, how can I help you?"}

现在您可以继续完善聊天机器人的功能。您可以使用更复杂的OpenAI模型引擎、添加多个路由来处理不同的请求、使用数据库存储聊天记录等。

 

 

 

 

 

 

如果您的问题仍未解决,还可以加入服务器在线技术交流QQ群:8017413寻求帮助。


相关内容
最新热点内容