OpenAI đang lỗ do mức phí khổng lồ để ChatGPT trả lời các câu hỏi

02/02/2023, 14:00
Theo dõi Giáo dục Thủ đô trên

Nhiều người nghĩ rằng dịch vụ từ ChatGPT là miễn phí, song theo thông tin từ phía công ty phát triển mang tên OpenAI, không có sự miễn phí nào đối với họ.

Đa số mọi người hiện nghĩ rằng dịch vụ từ ChatGPT là hoàn toàn miễn phí. Song theo thông tin từ phía công ty phát triển mang tên OpenAI, không có sự miễn phí nào đối với họ.

OpenAI đang phải vận hành ChatGPT với khoản phí khổng lồ dành cho hạ tầng điện toán đám mây mà hãng thuê từ Microsoft. Ông Tom Goldstein - Giáo sư về AI, bảo mật và quyền riêng tư tại Đại học Maryland (Mỹ) - đã ước tính chi phí mà nhà phát triển đang phải trả để "nuôi" ChatGPT mua vui cho người dùng.

AI này sử dụng mô hình xử lý ngôn ngữ tự nhiên GPT-3 làm nền tảng. Đây là mô hình lớn thứ hai thế giới về số lượng tham số, đứng sau Swift Transformer của Google. Giáo sư Goldstein tính toán một mô hình với 3 tỉ tham số chạy trên GPU Nvidia A100 80 GB có thể sản sinh ra một token trong 6 ms (mili giây). ChatGPT có quy mô tới 175 tỉ tham số, tức GPU A100 sẽ mất 350 ms để tạo ra được từ duy nhất.

Thực tế, AI này không sử dụng một GPU. Hiện ChatGPT tạo ra khoảng 15 - 20 từ mỗi giây, nếu sử dụng toàn A100 thì mô hình sẽ cần tới máy chủ ảo sử dụng 8 GPU, lựa chọn phổ biến trên Azure - dịch vụ đám mây do Microsoft cung cấp. Để sử dụng mỗi GPU A100, đơn vị thuê sẽ tốn 3 USD/giờ và tương đương khoản chi 0,0003 USD để tạo ra được một từ. Câu trả lời của ChatGPT thường chứa trung bình 30 từ, vậy OpenAI mất khoảng 1 xu (100 xu = 1 USD) phí tài nguyên cho Microsoft để trí tuệ nhân tạo phản hồi người dùng.

Số tiền trên quá nhỏ đối một người dùng thông thường, nhưng ChatGPT hiện có tới hàng chục triệu người dùng mỗi ngày và con số vẫn chưa có dấu hiệu dừng tăng. Với mỗi người hỏi 5 - 10 câu một ngày, AI đang phải trả lời từ 50 triệu tới 100 triệu câu, vậy tổng phí có thể lên tới gần 30 triệu USD/tháng. Càng nhiều người sử dụng, chi phí càng tăng.

OpenAI đang phải 'gồng lỗ' do mức phí khổng lồ để ChatGPT trả lời các câu hỏi - 3

GPU Nvidia A100 80GB, GPU chuyên dụng cho xử lý tác vụ AI của Nvidia, có giá hàng chục nghìn USD mỗi chiếc. 

Ông Sam Altman - CEO của OpenAI trong một cuộc phỏng vấn đầu tháng 12/2022 tiết lộ công ty đang phải nghĩ cách kiếm tiền từ ChatGPT vì "chi phí điện toán đang cao bất ngờ", OpenAI đang thu chẳng bù chi, "còng lưng gánh lỗ".

Theo Fortune, doanh thu của OpenAI trong năm 2022 đạt gần 30 triệu USD, nhưng chi phí hoạt động tính toán, xử lý dữ liệu là hơn 416 triệu USD, lương nhân viên gần 90 triệu USD cùng với khoảng 39 triệu USD "cho các chi phí hoạt động khác". Theo đó, hãng lỗ gần 545 triệu USD chỉ trong riêng năm 2022.

Sự bùng nổ của ChatGPT có thể kéo khoản lỗ nặng hơn nếu OpenAI không sớm tìm ra giải pháp bù đắp chi phí. Trong động thái mới nhất, Microsoft đã đầu tư 10 tỉ USD vào OpenAI - một khoản tiền khổng lồ đối với hãng hiện nay. Một số tổ chức cũng tỏ ra quan tâm và bắt đầu chi tiền vào dự án trí tuệ nhân tạo này.

Mức chi phí khổng lồ dành cho dịch vụ ChatGPT cũng như sức ép gia tăng doanh thu của OpenAI cũng lý giải cho quyết định mới đây của tổ chức này khi giới thiệu dịch vụ ChatGPT Pro với mức phí thuê bao hàng tháng là 42 USD. Với phiên bản trả phí, khách hàng có thể được ưu tiên sử dụng dịch vụ khi nhu cầu lên cao, tốc độ phản hồi của chatbot nhanh hơn cũng như ưu tiên tiếp cận các tính năng mới.

Theo Mộc Miên (Đời sống & Pháp luật)
https://www.doisongphapluat.com/openai-dang-phai-gong-lo-do-muc-phi-khong-lo-de-chatgpt-tra-loi-cac-cau-hoi-a564719.html
Copy Link
https://www.doisongphapluat.com/openai-dang-phai-gong-lo-do-muc-phi-khong-lo-de-chatgpt-tra-loi-cac-cau-hoi-a564719.html
Bài liên quan

(0) Bình luận
Nổi bật Giáo dục thủ đô
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
OpenAI đang lỗ do mức phí khổng lồ để ChatGPT trả lời các câu hỏi