Lark ×(GPT-4 + DALL·E + Whisper)
🚀 Lark OpenAI 🚀
English · 简体中文· 繁體中文 · 日本語 · Tiếng Việt
🗣 Giao tiếp bằng giọng nói: Nhắn riêng tư trực tiếp với các robot
💬 Đối thoại đa chủ đề: Hỗ trợ thảo luận đa chủ đề trong cuộc trò chuyện riêng tư và nhóm, hiệu quả và liên kết
🖼 Đồ thị văn bản: Hỗ trợ đồ thị văn bản và tìm kiếm đồ thị
🛖 Cài đặt cảnh: Danh sách cảnh tích hợp sẵn, chuyển đổi vai trò AI chỉ với một cú nhấp chuột
🎭 Trò chơi vai trò: Hỗ trợ chế độ cảnh, thêm niềm vui và thảo luận sáng tạo
🤖 Chế độ AI: 4 chế độ AI tích hợp sẵn, cảm nhận sự thông minh và sáng tạo của AI
🔄 Bảo tồn ngữ cảnh: Trả lời cuộc đối thoại để tiếp tục thảo luận chủ đề tương tự
⏰ Tự động kết thúc: Tự động kết thúc cuộc đối thoại khi quá thời gian, hỗ trợ xóa lịch sử thảo luận
📝 Thẻ văn bản phong phú: Hỗ trợ trả lời bằng thẻ văn bản phong phú, mang đến thông tin đa sắc màu hơn
👍 Phản hồi tương tác: Truy cập ngay vào kết quả xử lý của robot
🎰 Truy vấn cân đối: Nhận thông tin tiêu thụ token theo thời gian thực
🔙 Quay lại lịch sử từng File: Dễ dàng quay lại lịch sử đối thoại từng File và tiếp tục thảo luận chủ đề🚧
🔒 Chế độ quản trị: Chế độ quản trị tích hợp sẵn, sử dụng an toàn và đáng tin cậy hơn🚧
🌐 Cân bằng tải đa token: Tối ưu hóa các tình huống gọi tần suất cao ở mức sản xuất
↩️ Hỗ trợ proxy ngược: Cung cấp trải nghiệm truy cập nhanh hơn và ổn định hơn cho người dùng ở các vùng khác nhau
📚 Tương tác với Tài liệu Flying Book: Trở thành Trợ lý Siêu hỗ trợ cho nhân viên Doanh nghiệp🚧
🎥 Chủ đề Nội dung giâ
y thành PPT: Làm báo cáo của bạn đơn giản hơn từ bây giờ trở đi🚧
📊 Phân tích bảng: Dễ dàng nhập bảng Flying Book để cải thiện hiệu suất phân tích dữ liệu🚧
🍊 Huấn luyện dữ liệu riêng tư: Sử dụng thông tin sản phẩm của công ty cho huấn luyện phụ thuộc GPT, đáp ứng tốt hơn nhu cầu cá nhân của khách hàng.🚧
- 🍏 Đối thoại dựa trên OpenAI-GPT4 và Lark
- 🥒 Hỗ trợ Serverless 、local、Docker、binary package
Phát triển cục bộ
git clone git@github.com:ConnectAI-E/lark-openai.git
cd Lark-OpenAI/codeNếu máy chủ của bạn không có địa chỉ IP mạng công khai, bạn có thể sử dụng proxy ngược.
Máy chủ của Flying Book rất chậm khi truy cập ngrok tại Trung Quốc, vì vậy khuyến nghị sử dụng các nhà cung cấp dịch vụ proxy ngược trong nước.
# Configure config.yaml
mv config.example.yaml config.yaml
// Testing deployment.
go run ./
cpolar http 9000
//Production deployment
nohup cpolar http 9000 -log=stdout &
//Check server status
https://dashboard.cpolar.com/status
// Take down the service
ps -ef | grep cpolar
kill -9 PIDPhát triển Serverless
git clone git@github.com:ConnectAI/lark-openai.git
cd Lark-OpenAI/codeCài đặt severlesstool
# Cấu hình config.yaml
mv config.example.yaml config.yaml
# Cài đặt severless cli
npm install @serverless-devs/s -gSau khi cài đặt hoàn tất, vui lòng triển khai theo môi trường cục bộ và hướng dẫn sau đây severless
- Môi trường cục bộ
linux/mac os
- Sửa đổi Vùng triển khai và Khóa triển khai trong 's.yaml'
edition: 1.0.0
name: lark-openai
access: "aliyun" # Sửa đổi tên khóa tùy chỉnh.
vars: # Biến toàn cục
region: "cn-hongkong" # Sửa đổi vùng mà chức năng điện toán đám mây muốn triển khai.
- Triển khai chỉ bằng một cú nhấp chuột
cd ..
s deploy- Môi trường cục bộ
Windows
- Đầu tiên mở công cụ dòng lệnh
cmdcục bộ, chạygo envđể kiểm tra cài đặt biến môi trường go trên máy tính của bạn, xác nhận các biến và giá trị sau đây
set GO111MODULE=on
set GOARCH=amd64
set GOOS=linux
set CGO_ENABLED=0Nếu giá trị không chính xác, ví dụ như set GOOS=windows trên máy tính của bạn, vui lòng chạy lệnh sau để đặt giá trị biến GOOS
go env -w GOOS=linux- Sửa đổi vùng triển khai và khóa triển khai trong
s.yaml
edition: 1.0.0
name: lark-openai
access: "aliyun" # Sửa đổi tên bí danh tùy chỉnh
vars: # Biến toàn cục
region: "cn-hongkong" # Sửa đổi vùng triển khai mong muốn cho các chức năng điện toán đám mây
- Sửa đổi
pre-deploytrongs.yaml, xóa phần thay đổi biến ring trước bước thứ hairun
pre-deploy:
- run: go mod tidy
path: ./code
- run: go build -o
target/main main.go # Xóa GO111MODULE=on GOOS=linux GOARCH=amd64 CGO_ENABLED=0
path: ./code
- Triển khai chỉ bằng một cú nhấp chuột
cd ..
s deployPhát triển Docker
docker build -t lark-openai:latest .
docker run -d --name lark-openai -p 9000:9000 \
--env APP_LANG=en \
--env APP_ID=xxx \
--env APP_SECRET=xxx \
--env APP_ENCRYPT_KEY=xxx \
--env APP_VERIFICATION_TOKEN=xxx \
--env BOT_NAME=chatGpt \
--env OPENAI_KEY="sk-xxx1,sk-xxx2,sk-xxx3" \
--env API_URL="https://api.openai.com" \
--env HTTP_PROXY="" \
feishu-chatgpt:latestLưu ý:
APP_LANGlà ngôn ngữ của bot Lark, ví dụ nhưen,ja,vi,zh-hkvà các ngôn ngữ khác.BOT_NAMElà tên của bot Lark, ví dụ:chatGpt.OPENAI_KEYlà mã OpenAI. Nếu bạn có nhiều mã, hãy phân tách chúng bằng dấu phẩy, ví dụ:sk-xxx1,sk-xxx2,sk-xxx3.HTTP_PROXYlà địa chỉ proxy của máy chủ, ví dụ:http://host.docker.internal:7890. Nếu bạn không có proxy, bạn có thể để trống phần này.API_URLlà địa chỉ kết nối API của OpenAI, ví dụ:https://api.openai.com. Nếu bạn không có proxy ngược, bạn có thể để trống phần này.
Để triển khai phiên bản Azure
docker build -t lark-openai:latest .
docker run -d --name lark-openai -p 9000:9000 \
--env APP_LANG=vi \
--env APP_ID=xxx \
--env APP_SECRET=xxx \
--env APP_ENCRYPT_KEY=xxx \
--env APP_VERIFICATION_TOKEN=xxx \
--env BOT_NAME=chatGpt \
--env AZURE_ON=true \
--env AZURE_API_VERSION=xxx \
--env AZURE_RESOURCE_NAME=xxx \
--env AZURE_DEPLOYMENT_NAME=xxx \
--env AZURE_OPENAI_TOKEN=xxx \
feishu-chatgpt:latestChú ý:
APP_LANGlà ngôn ngữ của bot Lark, ví dụ nhưen,ja,vi,zh-hkvà các ngôn ngữ khác.BOT_NAMElà tên của bot Lark, ví dụ:chatGpt.AZURE_ONchỉ ra liệu có sử dụng Azure hay không. Vui lòng đặt giá trị làtrue.AZURE_API_VERSIONlà phiên bản API Azure, ví dụ:2023-03-15-preview.AZURE_RESOURCE_NAMElà tên tài nguyên Azure, tương tựhttps://{AZURE_RESOURCE_NAME}.openai.azure.com.AZURE_DEPLOYMENT_NAMElà tên triển khai Azure, tương tựhttps://{AZURE_RESOURCE_NAME}.openai.azure.com/deployments/{AZURE_DEPLOYMENT_NAME}/chat/completions.AZURE_OPENAI_TOKENlà mã thông báo Azure OpenAI.
Docker-Compose Development
Chỉnh sửa docker-compose.yaml, cấu hình biến môi trường tương ứng qua mục environment (hoặc mount tệp cấu hình tương ứng qua volumes), sau đó chạy các lệnh sau:
# Xây dựng hình ảnh
docker compose build
# Khởi động dịch vụ
docker compose up -d
# Dừng dịch vụ
docker compose downĐịa chỉ gọi lại sự kiện: http://IP:9000/webhook/event
Địa chỉ gọi lại thẻ: http://IP:9000/webhook/card
- Lấy OpenAI KEY (🙉 Dưới đây là các key miễn phí có sẵn cho tất cả mọi người để kiểm tra triển khai)
- Tạo Bot trên lark
- Truy cập Feishu Open Platform, tạo ứng dụng và lấy APPID và Secret.
- Điều hướng đến phần "Features-Bot", tạo bot.
- Lấy địa chỉ công khai từ cpolar, serverless hoặc Railway, và điền vào phần "Event Subscription" của backend bot Lark. Ví dụ,
http://xxxx.r6.cpolar.toplà địa chỉ công khai được cpolar tiếp cận./webhook/eventlà tuyến đường ứng dụng thống nhất.- Địa chỉ gọi lại cuối cùng là
http://xxxx.r6.cpolar.top/webhook/event.
- Trong phần "Bot" của backend bot Lark, điền vào URL yêu cầu cho thẻ tin nhắn. Ví dụ,
http://xxxx.r6.cpolar.toplà địa chỉ công khai được cpolar tiếp cận./webhook/cardlà tuyến đường ứng dụng thống nhất.- URL yêu cầu cuối cùng cho thẻ tin nhắn là
http://xxxx.r6.cpolar.top/webhook/card.
- Trong phần "Event Subscription", tìm kiếm ba thuật ngữ: "Bot Join Group," "Receive Messages," và "Messages Read." Kiểm tra tất cả các quyền hạn phía sau chúng.
Điều hướng đến giao diện quản lý quyền hạn, tìm kiếm "Image," và kiểm tra "Get and upload image or file resources."
Cuối cùng, các sự kiện gọi lại sau đây sẽ được thêm vào:
- im:resource(Đọc và tải lên hình ảnh hoặc tệp khác)
- im:message
- im:message.group_at_msg(Đọc tin nhắn trong nhóm đề cập đến bot)
- im:message.group_at_msg:readonly(Lấy tin nhắn nhóm đề cập đến bot)
- im:message.p2p_msg(Đọc tin nhắn riêng được gửi đến bot)
- im:message.p2p_msg:readonly(Lấy tin nhắn riêng được gửi đến bot)
- im:message:send_as_bot(Gửi tin nhắn dưới dạng ứng dụng)
- im:chat:readonly(Lấy thông tin nhóm)
- im:chat(Lấy và cập nhật thông tin nhóm)
- Xuất bản phiên bản và chờ sự phê duyệt từ quản trị viên doanh nghiệp.
AI |
Application | |
|---|---|---|
| 🎒OpenAI | Go-OpenAI | 🏅Feishu-OpenAI, Lark-OpenAI, 🏅Feishu-EX-ChatGPT, Feishu-OpenAI-Stream-Chatbot, Feishu-OpenAI-Amazing, Feishu-Oral-Friend, Feishu-OpenAI-Base-Helper, Feishu-Vector-Knowledge-Management, Feishu-OpenAI-PDF-Helper, 🏅Dingtalk-OpenAI, Wework-OpenAI, WeWork-OpenAI-Node, llmplugin |
| 🎭 Stablediffusion | ------ | 🏅Feishu-Stablediffusion |
| 🍎 Midjourney | Go-Midjourney | 🏅Feishu-Midjourney, MidJourney-Web, Dingtalk-Midjourney |
| 🍍 文心一言 | Go-Wenxin | Feishu-Wenxin, Dingtalk-Wenxin, Wework-Wenxin |
| 💸 Minimax | Go-Minimax | Feishu-Minimax, Dingtalk-Minimax, Wework-Minimax |
| ⛳️ CLAUDE | Go-Claude | Feishu-Claude, DingTalk-Claude, Wework-Claude |
| 🎡 Prompt | Prompt-Engineering-Tutior | |
| 🤖️ ChatGLM | Feishu-ChatGLM |
















