Cách mở rộng ứng dụng LLM

Khám phá cách đẩy mạnh việc ứng dụng LLM để tăng hiệu quả công việc

Trong bài viết này, tôi sẽ chia sẻ về cách mở rộng phạm vi sử dụng các mô hình ngôn ngữ lớn (LLM) nhằm nâng cao năng suất làm việc. Hình minh họa từ ChatGPT.

Khái niệm scaling (mở rộng quy mô) là một trong những yếu tố then chốt khi nói về LLM, nhất là kể từ khi ChatGPT ra mắt. Thành công của ChatGPT chủ yếu nhờ vào quá trình tiền huấn luyện trên quy mô lớn mà OpenAI thực hiện, tạo ra mô hình ngôn ngữ mạnh mẽ.

Sau đó, các phòng thí nghiệm tiên phong về LLM tiếp tục thực hiện hậu huấn luyện trên diện rộng, thông qua việc tinh chỉnh có giám sát và RLHF, giúp các mô hình ngày càng thông minh hơn, tuân thủ chỉ dẫn tốt hơn và xử lý được những nhiệm vụ phức tạp.

Khi tưởng rằng LLM đã đạt đến giới hạn, lại xuất hiện khái niệm mở rộng ở bước suy luận với các mô hình lý luận, nơi việc tăng số lượng thinking tokens đã tạo ra bước tiến vượt trội về chất lượng đầu ra.

Infographic: Scaling LLM Usage

Hình trên tóm tắt những ý chính của bài viết. Tôi sẽ bắt đầu bằng lý do vì sao bạn nên đẩy mạnh ứng dụng LLM, nhấn mạnh cách nó giúp bạn làm việc năng suất hơn. Tiếp theo, tôi sẽ giới thiệu các cách cụ thể để tận dụng LLM như khởi động đồng thời nhiều tác nhân lập trình, sử dụng chế độ nghiên cứu chuyên sâu trên Gemini 3 Pro,… Hình minh họa từ Gemini.

Theo tôi, chúng ta nên tiếp tục xu hướng này theo một hướng mới: mở rộng dựa trên mức độ sử dụng thực tế – nghĩa là bạn hãy tận dụng LLM vào nhiều khía cạnh công việc của mình:

Khởi động đồng thời nhiều tác nhân lập trình
Luôn bật chế độ nghiên cứu chuyên sâu về chủ đề bạn quan tâm
Thiết lập quy trình tự động thu thập thông tin

> Nếu bạn chưa từng khởi động một tác nhân AI để thực hiện nhiệm vụ trong lúc đi ăn trưa hay nghỉ ngơi, có nghĩa là bạn chưa thực sự tận dụng tối đa thời gian của mình

Trong bài viết này, tôi sẽ phân tích vì sao mở rộng ứng dụng LLM giúp tăng hiệu quả công việc, đặc biệt với lập trình viên, đồng thời chia sẻ các phương pháp cụ thể để bạn khai thác LLM tối ưu, cả ở mức cá nhân lẫn doanh nghiệp. Bài viết mang tính tổng quan, nhằm truyền cảm hứng để bạn tận dụng AI cho lợi ích của mình.

## Vì sao nên mở rộng ứng dụng LLM

Chúng ta đã chứng kiến sức mạnh của việc mở rộng ở các khía cạnh:

Tiền huấn luyện
Hậu huấn luyện
Mở rộng ở bước suy luận

Lý do là càng đầu tư nhiều tài nguyên tính toán, chất lượng đầu ra càng cao – tất nhiên, với điều kiện bạn sử dụng tài nguyên đó hợp lý. Ví dụ, để quá trình tiền huấn luyện đạt hiệu quả, bạn cần:

Mô hình đủ lớn (nhiều tham số để huấn luyện)
Đủ dữ liệu chất lượng

Nếu chỉ tăng tài nguyên mà thiếu một trong hai yếu tố trên, hiệu quả sẽ không tăng đáng kể. Ngược lại, khi kết hợp cả ba yếu tố, bạn sẽ nhận được thành quả vượt trội, như các mô hình LLM hiện đại ngày nay – điển hình là Gemini 3.

Tôi cho rằng bạn nên tận dụng LLM ở mức cao nhất có thể. Ví dụ, bạn có thể khởi động cùng lúc nhiều tác nhân lập trình, hoặc bắt đầu một phiên nghiên cứu chuyên sâu bằng Gemini về chủ đề mình quan tâm.

Tất nhiên, hãy dùng LLM cho những việc thực sự có giá trị. Không nên khởi động tác nhân AI cho những nhiệm vụ không cần thiết. Thay vào đó, hãy tận dụng cho những việc như:

Một tác vụ nhỏ bạn chưa có thời gian giải quyết
Một tính năng mới được đề xuất trong cuộc họp bán hàng
* Những cải tiến giao diện nhỏ mà các tác nhân AI hiện nay có thể xử lý nhanh chóng

Quy luật mở rộng ứng dụng LLM

Hình minh họa quy luật mở rộng: hiệu suất tăng lên khi phạm vi ứng dụng được mở rộng. Tôi tin rằng điều này đúng cả khi chúng ta tăng cường ứng dụng LLM. Nguồn hình từ NodeMasters.

> Trong bối cảnh tài nguyên ngày càng dồi dào, chúng ta nên tận dụng tối đa những gì đang có

Điều tôi muốn nhấn mạnh là ngưỡng để hoàn thành một nhiệm vụ đã giảm đáng kể nhờ LLM. Trước đây, khi nhận được một báo cáo lỗi, bạn phải tập trung hàng giờ để tìm cách xử lý.

Bây giờ, mọi chuyện đã khác. Bạn chỉ cần mở Cursor, dán tác vụ trên Linear vào và nhờ Claude Sonnet 4.5 hỗ trợ sửa lỗi. Chỉ sau khoảng 10 phút, bạn kiểm tra lại kết quả, nếu ổn thì tạo pull request.

> Hãy tự hỏi: Bạn có thể sử dụng bao nhiêu tokens mà vẫn đảm bảo hiệu quả công việc?

## Làm sao để mở rộng việc ứng dụng LLM

Tôi đã nói về lý do nên tăng cường sử dụng LLM thông qua nhiều tác nhân lập trình, nghiên cứu chuyên sâu hay các tác nhân AI khác. Tuy nhiên, đôi khi bạn sẽ phân vân nên khởi động loại tác nhân nào. Dưới đây là một số gợi ý để bạn tham khảo:

### Tác nhân lập trình đồng thời

Đây là phương pháp đơn giản nhất để lập trình viên tận dụng tối đa LLM. Thay vì chỉ làm một việc tại một thời điểm, bạn có thể khởi động nhiều tác nhân lập trình cùng lúc, sử dụng các công cụ như Cursor, Claude code hoặc bất cứ giải pháp nào phù hợp. Cách này càng thuận tiện hơn khi bạn áp dụng Git worktrees.

Ví dụ, tôi thường có một dự án chính đang xử lý trong Cursor. Khi nhận được báo cáo lỗi, tôi chuyển sang Claude Code để nhờ AI tự động phân tích nguyên nhân và đề xuất cách sửa nếu có thể. Có lúc tác nhân xử lý tốt ngay, có lúc tôi cần điều chỉnh thêm.

Việc khởi động một tác nhân AI sửa lỗi gần như không tốn công sức (chỉ cần copy tác vụ từ Linear sang Cursor, và Cursor tự động nhận diện nội dung đó). Tương tự, tôi cũng có thể thiết lập script để tự động nghiên cứu khách hàng tiềm năng, chạy song song ở chế độ nền.

### Nghiên cứu chuyên sâu

Bạn có thể sử dụng chức năng này ở các nền tảng AI tiên tiến như Google Gemini, ChatGPT của OpenAI hoặc Claude của Anthropic. Cá nhân tôi thích Gemini 3 chuyên sâu, nhưng vẫn có nhiều lựa chọn khác.

Khi cần tìm hiểu sâu về một chủ đề, hoặc thu thập thông tin, tôi thường khởi động tác nhân nghiên cứu chuyên sâu bằng Gemini.

Ví dụ, tôi muốn tìm khách hàng tiềm năng dựa trên tiêu chí ICP cụ thể. Chỉ cần dán thông tin ICP vào Gemini, bổ sung thêm bối cảnh, rồi để AI tự động nghiên cứu trong lúc mình tiếp tục làm việc khác.

Sau khoảng 20 phút, tôi nhận được báo cáo tổng hợp ngắn gọn nhưng chứa nhiều thông tin hữu ích.

### Xây dựng quy trình tự động với n8n

Một cách khác để mở rộng ứng dụng LLM là xây dựng quy trình tự động với n8n hoặc các công cụ tương tự. Với n8n, bạn có thể thiết lập quy trình như tự động đọc tin nhắn Slack và xử lý nội dung đó.

Bạn có thể tạo quy trình tự động đọc nhóm báo cáo lỗi trên Slack, rồi khởi động Claude code để xử lý lỗi. Hoặc tổng hợp thông tin từ nhiều nguồn, trình bày lại cho bạn dưới dạng dễ tiếp cận. Cơ hội sáng tạo với các công cụ workflow gần như không giới hạn.

### Những cách khác

Còn rất nhiều cách khác để mở rộng ứng dụng LLM. Tôi chỉ liệt kê một vài ý tưởng phổ biến mà tôi thường áp dụng. Hãy luôn suy nghĩ xem bạn có thể tự động hóa quy trình nào bằng AI, và tận dụng để nâng cao hiệu quả công việc. Cách mở rộng ứng dụng LLM sẽ khác nhau tùy vào doanh nghiệp, vị trí công việc và nhiều yếu tố khác.

## Kết luận

Trong bài viết này, tôi đã chia sẻ cách mở rộng ứng dụng LLM để trở thành kỹ sư hiệu quả hơn. Tôi tin rằng, với kinh nghiệm mở rộng quy mô trong quá khứ, nếu tiếp tục đẩy mạnh khai thác LLM, chúng ta sẽ đạt được những kết quả vượt trội. Đó có thể là việc khởi động đồng thời nhiều tác nhân lập trình hoặc để AI nghiên cứu chuyên sâu trong lúc mình nghỉ ngơi. Nhìn chung, càng tận dụng LLM, bạn sẽ càng nâng cao năng suất.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top