So sánh khả năng suy luận của GPT-4 với GPT-3.5

Tram Ho

Tôi đã chạm tay vào mô hình mới và thực hiện một số thử nghiệm.

Khi tôi đăng nhập vào ChatGPT Plus, tôi đã được chào đón bằng một nụ cười thật tươi và một thông điệp thân thiện rằng “Xin chào! GPT-4 mới của OpenAI thông minh đến mức nó có thể làm được tất cả những thứ khó suy nghĩ!”

Lời chào khi tôi mở ChatGPT Plus hôm nay

Khi nhấp vào liên kết, tôi thấy một số nội dung thú vị về ba kiểu máy khác nhau mà họ cung cấp: Legacy, Turbo (còn được gọi là Mặc định) và GPT-4. Nó giống như một biểu đồ so sánh!

Đây là mô hình ban đầu được phát hành dưới dạng ChatGPT

Điều này ban đầu được gọi là mô hình "Turbo", nhưng đã trở thành mặc định dựa trên phản hồi của người dùng. Nó ngắn gọn hơn và nhanh hơn nhiều so với mô hình ban đầu

Đây là mẫu mới nhất: GPT-4. Ở đây tốc độ được hy sinh cho “suy luận nâng cao, hiểu hướng dẫn phức tạp và sáng tạo hơn”

Tôi rất hào hứng so sánh trí thông minh của mẫu Turbo mới với mẫu cũ và tìm hiểu xem nó tốt hơn như thế nào!

Tôi đã hỏi hai người mẫu một số câu hỏi để xem họ thông minh đến mức nào. Câu đầu tiên là một câu hỏi hóc búa về gia đình, câu thứ hai là một câu đố, và câu thứ ba giống như điều mà một người bán hàng sẽ hỏi. Hãy xem liệu họ có thể tìm ra nó không!

Đây là kết quả:

Câu hỏi số 1: Câu đố về Sói, Gà và Thức ăn

Mô hình mặc định đã mắc lỗi này một cách vui nhộn.

GPT-4 đã hiểu đúng.

Hầu hết mọi người đều dễ giải câu đố này, nhưng GPT-3.5 đã đưa ra một câu trả lời khó hiểu. Tuy nhiên, GPT-4 đã có thể giải câu đố một cách chính xác, thực hiện đúng các bước theo đúng thứ tự.

Câu hỏi số 2: Nhân viên bán hàng du lịch

GPT-3.5 đã sử dụng Thuật toán Láng giềng Gần nhất. Nó cho kết quả đúng với thuật toán, nhưng đây không phải là con đường thực sự ngắn nhất cho người bán hàng

Tôi đã cố ép GPT-3.5 đưa ra câu trả lời thô bạo, nhưng nó vẫn sai.

GPT-4 đã giải thành công bài toán người bán hàng lưu động cho năm thành phố.

Mặc dù chỉ có năm thành phố, nhưng có tới 24 tuyến đường có thể, khiến nó trở thành một bài toán NP-khó. GPT-3.5 đã sử dụng Thuật toán Láng giềng Gần nhất, thuật toán này đã đưa ra câu trả lời sai vì đó không phải là con đường ngắn nhất có thể. Tôi đã yêu cầu nó sử dụng cách tiếp cận vũ phu, nhưng nó vẫn đưa ra câu trả lời sai.

GPT-4 đã có thể giải quyết vấn đề về người bán hàng lưu động bằng cách sử dụng một phương pháp gọi là brute-force , có nghĩa là nó đã xem xét tất cả 24 tuyến đường có thể và tìm ra tuyến đường chính xác.

Câu hỏi #3: Mối quan hệ gia đình

Mô hình mặc định đã sai và câu trả lời của nó rất khó hiểu

GPT-4 cũng sai, nhưng ít nhất lý luận của nó tốt hơn

Tôi bối rối trước câu hỏi này đến nỗi ngay cả các chương trình trí tuệ nhân tạo tiên tiến GPT-3.5 và GPT-4 cũng không thể hiểu đúng. Tuy nhiên, câu trả lời đúng là hai người bạn của tôi có quan hệ họ hàng với nhau như anh em họ sau khi bị loại bỏ.

GPT-4 vẫn mắc lỗi, nhưng chúng ít đáng chú ý hơn nhiều so với lỗi của GPT-3.5. Thật ngạc nhiên là mô hình này có thể làm được nhiều việc như vậy với các tính toán xác suất.

Tôi sẽ xem GPT-4 có thể thực hiện các tác vụ mã hóa tốt như thế nào sau khi tôi có một số tác vụ tốt để nó thực hiện. Tôi sẽ cho bạn biết khi tôi đã làm điều này.

Nguồn

Chia sẻ bài viết ngay

Nguồn bài viết : Viblo