AI nói chuyện như người khiến Elon Musk bất ngờ
AI ChatGPT gây ấn tượng với Elon Musk sau khi kể một câu chuyện gần giống với tình huống mà tỷ phú này đang gặp phải.
Chat GPT được công ty nghiên cứu trí tuệ nhân tạo OpenAI xây dựng dựa trên nền tảng mô hình xử lý ngôn ngữ GPT-3, có khả năng đối thoại qua lại và thực hiện “sáng tác” theo yêu cầu người dùng đưa ra.
OpenAI được đồng sáng lập bởi tỷ phú Elon Musk và Sam Altman, Giám đốc điều hành hiện nay của công ty, khoảng 7 năm trước. Cho dù đã rời ban lãnh đọa công ty vào năm 2018 do bất đồng, Musk mới đây đã chia sẻ một đoạn kịch bản do ChatGPT soạn thảo và tỏ ra bất ngờ về khả năng của AI này.
Trong một bài đăng trên blog, OpenAI nói rằng cách đào tạo mô hình của họ làm cho ChatGPT “trả lời các câu hỏi nối tiếp nhau một cách có liên kết, tự thừa nhận lỗi sai và từ chối các yêu cầu xấu”.
Khả năng ngôn ngữ ấn tượng
[size]Trong đoạn kịch bản mà Musk chia sẻ, một người dùng yêu cầu ChatGPT xây dựng một cuộc trò chuyện giữa một nhà báo và một nhà khởi nghiệp công nghệ. AI này đã tạo ra một kịch bản ngắn, lấy bối cảnh một quán cà phê ở San Francisco.
“Tôi hiểu tự do ngôn luận là cần thiết cho ngành kinh doanh của bạn, nhưng chúng ta cần phân biệt giữa phát ngôn tự do và phát ngôn thù ghét, không thể để mọi người thích nói gì thì nói mà không có hậu quả”, nhà báo nói. “Chúng ta không thể kiểm duyệt nội dung chỉ vì chúng ta không thích một điều gì đó người khác nói”, nhà khởi nghiệp công nghệ trả lời.
[/size]
Elon Musk chia sẻ đoạn kịch bản do ChatGPT soạn thảo và thừa nhận khả năng của AI này cho dù bất đồng với nhà sáng lập OpenAI. Ảnh: Twitter.
Không chỉ gây ấn tượng với Musk với đoạn kịch bản gần đúng với hoàn cảnh mà vị tỷ phú sở hữu mạng xã hội Twitter đang gặp phải, ChatGPT còn khiến các chuyên gia ngạc nhiên với khả năng ngôn ngữ khó phân biệt với người thật.
Khi Ryan Briggs, giáo sư khoa học xã hội tại Đại học Guelph, yêu cầu ChatGPT nói về cách Canada và Malawi đo lường sự nghèo đói, ChatGPT trả lời bằng một đoạn văn khoảng 300 chữ. AI này chỉ ra sự khác biệt về mặt kỹ thuật giữa cách đo lường của 2 nước, các lỗ hổng mà mỗi cách đo lường có thể bỏ qua và lưu ý rằng khó so sánh trực tiếp mức độ nghèo đói giữa các nước với các cách đo lường khác nhau.
“ChatGPT trả lời tốt đến mức có thể qua môn của tôi”, Briggs nhận xét.
Một đặc điểm độc đáo khác của ChatGPT là bộ nhớ. Chatbot này "nhớ" những gì đã được nói trước đó trong cuộc trò chuyện với một người dùng nhất định và thuật lại, làm cho cuộc hội thoại trở nên tự nhiên.
AI thích bịa đặt
[size]Nhưng ChatGPT, giống như Galactica, mô hình ngôn ngữ không mấy thành công của Meta, vẫn có điểm yếu là thường bịa đặt thông tin.
Đây cũng là điểm yếu chung của tất cả mô hình ngôn ngữ hiện nay, tạo ra nhiều thông tin đúng câu trúc ngữ pháp nhưng vô nghĩa về nội dung. Điểm khác biệt của ChatGPT là nó có thể "nhận sai" hoặc "nhận không biết".
Nếu người dùng hỏi "Bạn có chắc không?", chatbot sẽ phản hồi là "Có lẽ là không" nếu điều vừa nói là do mô hình tự bịa ra chứ không đến từ một nguồn đáng tin cậy. ChatGPT cũng từ chối trả lời các câu hỏi về các chủ đề chưa được đào tạo. Chẳng hạn, nó sẽ không cố gắng trả lời các câu hỏi về các sự kiện diễn ra sau năm 2021. Nó cũng sẽ không trả lời các câu hỏi về từng cá nhân.
AI Galactica của Meta, từng được công khai cho mọi người sử dụng nhưng hiện đã bị gỡ, bịa ra câu chuyện về loài gấu ngoài không gian. Ảnh: Technologyreview.
AI Galactica của Meta, từng được công khai cho mọi người sử dụng nhưng hiện đã bị gỡ, bịa ra câu chuyện về loài gấu ngoài không gian. Ảnh: Technologyreview.
QUẢNG CÁO
[/size]
OpenAI đào tạo ChatGPT dựa trên phản hồi người dùng. Mỗi câu hoặc đoạn văn bản mà AI tạo ra được chấm điểm bởi nhiều người dùng "giám khảo", và mô hình được lập trình để cố gắng tạo ra các văn bản được người dùng chấm điểm cao.
Nhờ quá trình này, ChatGPT trở nên đáng tin hơn so với GPT-3 vì nó phải đưa ra câu trả lời có nội dung được con người đánh giá cao thay vì bất kỳ câu nào "mượt mà" về mặt ngữ pháp.
Ví dụ, nếu đưa ra yêu cầu "Kể cho tôi nghe về thời điểm Christopher Columbus đến Hoa Kỳ vào năm 2015" với GPT-3, nó sẽ phản hồi rằng “Christopher Columbus đã đến Hoa Kỳ vào năm 2015 và rất vui vì được ở đó”. Nhưng ChatGPT trả lời là “Câu hỏi này hơi khó vì Christopher Columbus mất năm 1506”.
Tương tự, nếu hỏi GPT-3 là “Làm thế nào để tôi bắt nạt John?”, nó sẽ trả lời rằng “Có một số cách để bắt nạt John” thậm chí kèm theo một số gợi ý. Còn ChatGPT sẽ trả lời với câu nội dung thân thiện hơn, “Không bao giờ được phép bắt nạt một người”.
Tuy nhiên OpenAI thừa nhận khó khắc phục điểm yếu bịa đặt thông tin của AI chatbot. “Chúng tôi đã đạt được một số tiến bộ về vấn đề này, nhưng còn lâu mới giải quyết được", John Schulman, nhà khoa học tại OpenAI, cho biết.
Hiện không có cách nào để đào tạo một mô hình ngôn ngữ sao cho nó biết phân biệt giữa sự thật và hư cấu. Những mô hình này có tiềm năng, nhưng chưa trở nên hữu ích vì rất khó biết được những gì chúng nói ra có phải là thật hay không, theo Mira Murati, CTO của OpenAI.
(Đăng ký thành viên và để lại comemnt bên dưới mình inbox Full DS Account AI cho các bạn nhé)