使用python3 flask制作一个过openai接口发送gpt请求
首先,您需要安装必要的库,包括flask
和openai
,您可以通过运行以下命令来安装它们:
pip install flask openai
接下来,您需要在OpenAI官网上注册账号并获取API密钥。将API密钥保存在环境变量中以便在代码中引用,例如:
import os
openai.api_key = os.environ["OPENAI_API_KEY"]
现在您可以开始编写Flask应用程序了。以下是一个简单的实现:
import os
import openai
from flask import Flask, request, jsonify
app = Flask(__name__)
openai.api_key = os.environ["OPENAI_API_KEY"]
model_engine = "davinci"
@app.route("/")
def home():
return "Hello, World!"
@app.route("/chat", methods=["POST"])
def chat():
message = request.form["message"]
prompt = f"User: {message}
AI:"
response = openai.Completion.create(
engine=model_engine,
prompt=prompt,
max_tokens=1024,
n=1,
stop=None,
temperature=0.5,
)
answer = response.choices[0].text.strip()
return jsonify({"message": answer})
该应用程序具有两个路由:/
和/chat
。/
路由只是返回一个简单的“Hello,World!”消息,用于测试应用程序是否正常运行。/chat
路由用于处理聊天请求。它从POST请求中获取用户输入的消息,然后使用OpenAI API生成AI的回复。它将AI的回复作为JSON响应返回给客户端。
该应用程序使用OpenAI API的Completion.create()
方法生成AI的回复。engine
参数指定了要使用的OpenAI模型引擎,prompt
参数是将用户消息传递给AI的文本,max_tokens
参数指定AI生成的回复的最大令牌数,n
参数指定AI生成的回复的数量,stop
参数指定AI生成回复的条件,temperature
参数是用于控制生成回复的随机性的值。
最后,您需要使用app.run()
方法运行Flask应用程序。将以下代码添加到文件的底部:
if __name__ == "__main__":
app.run()
现在您可以启动该应用程序并在浏览器中测试它。在终端中导航到应用程序所在的目录,然后运行以下命令:
export FLASK_APP=app.py
export FLASK_ENV=development
flask run
这将在本地主机的默认端口(通常是5000)上启动Flask应用程序。在浏览器中访问http://localhost:5000/
应该显示“Hello,World!”消息。要测试聊天机器人,请使用以下命令向/chat
路由发送POST请求:
curl -X POST -F "message=Hello" http://localhost:5000/chat
这将向/chat
路由发送一个POST请求,其中包含message
参数设置为“Hello”。聊天机器人将生成一个回复,并将其作为JSON响应返回。您应该会看到类似于以下内容的输出:
{"message": "Hi, how can I help you?"}
现在您可以继续完善聊天机器人的功能。您可以使用更复杂的OpenAI模型引擎、添加多个路由来处理不同的请求、使用数据库存储聊天记录等。
如果您的问题仍未解决,还可以加入服务器在线技术交流QQ群:8017413寻求帮助。