Apple phát hành 8 mô hình ngôn ngữ AI để cạnh tranh với Phi-3 của Microsoft
Nhận thấy sức mạnh về số lượng, Apple đã thực hiện một bước đi chiến lược trong thị trường trí tuệ nhân tạo đầy cạnh tranh bằng cách cung cấp 8 mô hình AI nhỏ hơn được gọi chung là OpenELM. Các công cụ nhỏ gọn này được thiết kế để chạy trên các thiết bị và ngoại tuyến, hoàn hảo cho điện thoại thông minh.
Được xuất bản trên cộng đồng AI mã nguồn mở Hugging Face, các mô hình này được cung cấp với các phiên bản tham số 270 triệu, 450 triệu, 1,1 tỷ và 3 tỷ. Người dùng cũng có thể tải xuống OpenELM của Apple ở phiên bản pre-trained hoặc phiên bản instruction-tuned.
Các phiên bản pre-trained cung cấp cơ sở để người dùng có thể tinh chỉnh và phát triển. Các phiên bản instruction-tuned được lập trình để phản hồi các hướng dẫn, giúp chúng phù hợp hơn cho các cuộc trò chuyện và tương tác giữa người dùng đầu cuối.
Mặc dù Apple chưa đề xuất các trường hợp sử dụng cụ thể cho các mô hình này nhưng chúng có thể được áp dụng để chạy các chương trình trợ lý phân tích email và văn bản hoặc đưa ra các đề xuất thông minh dựa trên dữ liệu. Đây là một cách tiếp cận tương tự như cách tiếp cận của Google như việc triển khai mô hình Gemini AI trên dòng điện thoại thông minh Pixel của mình.
Các mô hình đã được đào tạo trên các bộ dữ liệu có sẵn công khai và Apple đang chia sẻ cả mã của CoreNet (thư viện được sử dụng để đào tạo OpenELM) và "công thức" sử dụng cho các mô hình của mình. Nói cách khác, người dùng có thể theo dõi cách Apple xây dựng chúng.
Bản phát hành của Apple xuất hiện ngay sau khi Microsoft công bố Phi-3, một dòng mô hình ngôn ngữ nhỏ có khả năng chạy cục bộ. Phi-3 Mini, mô hình 3,8 tỷ tham số được đào tạo trên 3,3 nghìn tỷ mã thông báo, vẫn có khả năng xử lý 128 nghìn mã thông báo tùy ngữ cảnh, khiến nó có thể so sánh với GPT-4 và đánh bại Llama-3 và Mistral Large về dung lượng mã thông báo.
Là nguồn mở và nhẹ, Phi-3 Mini có khả năng thay thế các trợ lý truyền thống như Siri của Apple hoặc Gemini của Google trong một số tác vụ. Microsoft đã thử nghiệm Phi-3 trên iPhone cho ra báo cáo kết quả tương đối khả quan.
Mặc dù Apple vẫn chưa tích hợp các khả năng của mô hình ngôn ngữ AI mới này vào các thiết bị tiêu dùng của mình nhưng bản cập nhật iOS 18 sắp tới được đồn rằng tham số sẽ bao gồm các tính năng AI mới sử dụng quy trình xử lý trên thiết bị để đảm bảo quyền riêng tư của người dùng.
Phần cứng của Apple có lợi thế trong việc sử dụng AI cục bộ vì nó kết hợp RAM thiết bị với RAM GPU (hoặc VRAM). Điều này có nghĩa là máy Mac có RAM 32 GB (cấu hình phổ biến trong PC) có thể sử dụng RAM đó làm GPU VRAM để chạy các mô hình AI. Để so sánh, các thiết bị Windows bị cản trở bởi RAM thiết bị và VRAM GPU riêng biệt. Người dùng thường cần mua GPU 32GB mạnh mẽ để tăng thêm RAM chạy các mô hình AI.
VIC Crypto tổng hợp
Tin tức liên quan:
xAI của Elon Musk đang tiến đến thỏa thuận huy động 6 tỷ USD từ Sequoia?
Căng thẳng leo thang khi Consensys và SEC chuẩn bị khởi kiện lẫn nhau
Bitcoin ETF của BlackRock chấm dứt chuỗi 71 ngày có dòng tiền vào liên tục
Nguyên nhân khiến Sam Altman bị phế truất khỏi vị trí CEO OpenAI: Elon Musk sẽ thế chỗ Sam Altman?
Elon Musk ra mắt chatbot AI “Grok” tích hợp với nền tảng xã hội X