“AI winter” (mùa đông AI) là thuật ngữ chỉ giai đoạn mà sự hào hứng với ý tưởng máy móc có thể học và suy nghĩ như con người suy giảm – kéo theo đó là vốn đầu tư cho sản phẩm, công ty và nghiên cứu AI cạn kiệt. Cụm từ này xuất hiện tự nhiên trong miệng các nhà bình luận AI bởi suốt 70 năm lịch sử của lĩnh vực này, chúng ta đã trải qua vài mùa đông như vậy. Nếu chúng ta sắp bước vào một mùa đông nữa, như nhiều người nghi ngờ, thì đó sẽ ít nhất là lần thứ tư.
Làn sóng bàn tán gần đây xuất phát từ mối lo ngày càng tăng trong giới đầu tư rằng công nghệ AI có thể không đạt được kỳ vọng và định giá của nhiều công ty liên quan đến AI đang cao quá mức. Trong kịch bản xấu nhất, mùa đông AI này có thể đi kèm với việc bong bóng thị trường chứng khoán thổi phồng bởi AI phát nổ, gây chấn động toàn bộ nền kinh tế. Dù trước đây đã có những chu kỳ “thổi phồng – xì hơi”, chưa khi nào số vốn tham gia lại chạm tới hàng trăm tỷ USD như trong cơn sốt AI tạo sinh hiện nay. Vì thế nếu lại có một mùa đông nữa, “độ rét” có thể ở mức “vortex” (cực điểm).
Thị trường gần đây bị khuấy động bởi bình luận của CEO OpenAI Sam Altman, người nói với báo giới rằng một số startup AI được đầu tư vốn mạo hiểm đang bị định giá quá cao (dĩ nhiên không gồm OpenAI – một trong những startup được đầu tư cao nhất mọi thời). Ngay sau phát ngôn của Altman là một nghiên cứu từ MIT kết luận 95% dự án thí điểm AI thất bại.
Nhìn lại những mùa đông AI trước đây và nguyên nhân của chúng có thể cho thấy “cái lạnh” đang cảm nhận chỉ là làn gió thoảng hay là dấu hiệu của một Kỷ băng hà mới. Đôi lúc mùa đông tới vì các nghiên cứu học thuật chỉ ra những giới hạn của một kỹ thuật AI cụ thể. Đôi lúc vì thất vọng khi đưa AI vào ứng dụng thực tế. Đôi khi là cả hai. Điểm chung là sự vỡ mộng của người chi tiền sau khi các bước tiến hứa hẹn không đáp ứng nổi kỳ vọng được thổi lên sau đó.
Chính phủ Mỹ và các đồng minh đã rót tiền hào phóng cho nghiên cứu Trí tuệ nhân tạo trong những năm đầu Chiến tranh Lạnh. Khi đó cũng như bây giờ, Washington coi công nghệ này có thể mang lại lợi thế chiến lược và quân sự, nên phần lớn tài trợ đến từ Bộ Quốc phòng.
Khi ấy có hai hướng tiếp cận cạnh tranh. Một là AI biểu tượng (symbolic), dựa trên việc mã hóa cứng các quy tắc logic để phân loại đầu vào thành các ký hiệu rồi thao tác các ký hiệu đó để cho ra đầu ra. Cách này tạo ra những bước tiến đầu tiên về máy chơi cờ, chơi cờ vua và chatbot sơ khai.
Hướng còn lại dựa trên perceptron, tiền thân của mạng nơ-ron ngày nay – một dạng AI phỏng theo (ở mức giản lược) cách hoạt động của não. Thay vì bắt đầu bằng quy tắc, perceptron học quy tắc thực hiện nhiệm vụ từ dữ liệu. Văn phòng Nghiên cứu Hải quân Mỹ tài trợ nhiều cho perceptron do nhà thần kinh học kiêm tâm lý học Frank Rosenblatt tiên phong. Hải quân và CIA đã thử dùng perceptron để phân loại bóng dáng tàu địch hay mục tiêu trong ảnh trinh sát trên không.
Cả hai phe đều đưa ra tuyên bố khoa trương rằng công nghệ của họ sắp giúp máy tính đạt hoặc vượt trí tuệ con người. Năm 1958, Rosenblatt nói với The New York Times rằng perceptron chẳng bao lâu sẽ nhận diện cá nhân và gọi tên họ, “chỉ cần thêm một bước phát triển nữa” là có thể dịch ngôn ngữ tức thời, và cuối cùng các hệ thống AI sẽ tự sao chép và có ý thức. Năm 1970, Marvin Minsky – đồng sáng lập phòng thí nghiệm AI MIT nói với tạp chí Life rằng “trong 3 đến 8 năm nữa, chúng ta sẽ có cỗ máy sở hữu trí tuệ tổng quát của một người bình thường”.
Điều kiện tiên quyết đầu tiên của mùa đông AI: Hype (thổi phồng). Và ngày nay có những đối ứng rõ ràng. Tháng 1, Sam Altman viết trên blog cá nhân rằng “chúng tôi tin chắc đã biết cách xây [AGI ở mức con người] theo nghĩa truyền thống” và OpenAI đang hướng dần tới “siêu trí tuệ”.
Ông viết rằng “năm nay chúng ta có thể thấy những agent AI ‘gia nhập lực lượng lao động’ và tác động đáng kể đến năng suất doanh nghiệp”. Dario Amodei (Anthropic) nói AI ở mức con người có thể xuất hiện năm 2026. Demis Hassabis (Google DeepMind) dự đoán AI ngang con người trên mọi miền nhận thức sẽ đến trong “5–10 năm” tới.
Nhưng điều kích hoạt mùa đông là bằng chứng rõ ràng rằng hype không thể đạt được. Với mùa đông AI đầu tiên, điều đó tới qua nhiều cú đòn. Năm 1966, một ủy ban do Hội đồng Nghiên cứu Quốc gia (Mỹ) chỉ định đã ra báo cáo chỉ trích mạnh mẽ tình trạng xử lý ngôn ngữ tự nhiên và dịch máy, kết luận dịch bằng máy đắt hơn, chậm hơn và kém chính xác hơn con người. Hội đồng – từng cấp 20 triệu USD (tương đương ít nhất 200 triệu USD ngày nay) cho nghiên cứu này cắt toàn bộ tài trợ.
Năm 1969, Minsky tung cú đòn thứ hai. Ông cùng Seymour Papert xuất bản cuốn sách “hạ bệ” perceptron, chứng minh về mặt toán rằng perceptron một lớp chỉ có thể phân loại nhị phân chính xác (đen/trắng, tròn/vuông), không thể phân loại thành nhiều nhóm hơn.
Vấn đề là: Phê phán đó chỉ đúng với perceptron một lớp – gồm lớp đầu vào nối với một nơ-ron đầu ra. Họ phớt lờ (có lẽ cố ý) rằng một số nhà nghiên cứu thập niên 1960 đã thử perceptron đa lớp với một lớp “ẩn” ở giữa; tiền thân thực sự của “deep learning” sau này có khả năng phân loại nhiều nhóm. Nhưng khi ấy việc huấn luyện mạng nhiều lớp vô cùng khó, và dẫu sao thiệt hại đã xảy ra: Nguồn tài trợ từ chính phủ Mỹ cho hướng mạng nơ-ron gần như chấm dứt.
Không chỉ các nhà tài trợ quốc phòng bị thuyết phục; nhiều nhà khoa học máy tính cũng tin mạng nơ-ron là ngõ cụt. Có người đổ lỗi Minsky đã làm chậm lĩnh vực này hàng thập kỷ.
Song AI biểu tượng của Minsky cũng sớm gặp hạn. Cũng năm 1969, Quốc hội Mỹ buộc DARPA – nhà tài trợ lớn cho cả hai hướng phải chuyển sang cấp vốn cho nghiên cứu có ứng dụng quân sự rõ ràng thay vì “trời xanh” viễn kiến; nhiều dự án AI biểu tượng không đáp ứng tiêu chí đó.
Đòn cuối năm 1973: Quốc hội Anh giao nhà toán học James Lighthill đánh giá AI ở Anh. Kết luận: AI không hứa hẹn sẽ đạt trí tuệ ngang người; nhiều thuật toán chỉ giải được “bài toán đồ chơi”, không chịu nổi độ phức tạp của thế giới thực. Chính phủ Anh cắt gần như toàn bộ tài trợ AI. DARPA và các nhà tài trợ Mỹ ghi nhận kết luận này, củng cố hoài nghi vốn có. Đến 1974, tài trợ ở Mỹ chỉ còn một phần nhỏ so với thập niên 1960. Mùa đông đến – kéo dài đến đầu thập niên 1980.
Ngày nay cũng có những đối ứng: Hai nghiên cứu gần đây từ Apple và Đại học Bang Arizona đặt nghi vấn liệu các mô hình tối tân được cho là sử dụng “chuỗi suy nghĩ” để lập luận có thật sự suy luận hay chỉ khớp mẫu với những gì đã thấy trong dữ liệu huấn luyện. Đây có thể là “cú đấm” kiểu Minsky–Papert của thời hiện đại.
Thêm vào đó là loạt nghiên cứu về tác động thực tế: Nghiên cứu MIT (95% pilot AI thất bại tăng doanh thu), nghiên cứu của Salesforce cho thấy phần lớn LLM hiện tại không làm tốt nhiệm vụ CRM (nghịch lý khi Salesforce đẩy mạnh agent AI cho CRM), nghiên cứu của Anthropic cho thấy Claude không vận hành nổi một “doanh nghiệp” máy bán hàng tự động, và một nghiên cứu của METR chỉ ra lập trình viên dùng trợ lý code AI chậm hơn 19%.
Tuy nhiên, khác biệt lớn nhất so với mùa đông đầu: Cơn sốt hiện nay không phụ thuộc vào tiền công. Vốn là tư nhân, đặc biệt là VC (ít nhất 250 tỷ USD từ khi ChatGPT ra mắt tháng 11/2022), chưa kể chi tiêu khổng lồ của Microsoft, Alphabet, Amazon, Meta. Chỉ riêng năm nay ước tính 350 tỷ USD đổ vào trung tâm dữ liệu AI, năm sau còn hơn nữa.
Quan trọng hơn, khác với thập niên 1960 – 70 khi AI chủ yếu là thử nghiệm, ngày nay AI được triển khai rộng rãi trong doanh nghiệp và tiêu dùng đại chúng, riêng ChatGPT được cho là có 700 triệu người dùng hàng tuần. Dù còn thiếu một số khía cạnh trí tuệ con người, AI hiện hữu dụng rõ rệt cho nhiều nhiệm vụ.
Mùa đông đầu tan vào đầu thập niên 1980 nhờ sức mạnh tính toán tăng và kỹ thuật cải tiến. Lần này, hype xoay quanh hệ chuyên gia – mã hóa tri thức chuyên gia thành các quy tắc logic để phần mềm thực hiện nhiệm vụ cụ thể.
Doanh nghiệp kỳ vọng bùng nổ năng suất. Đỉnh điểm, gần 2/3 Fortune 500 nói đã triển khai hệ chuyên gia. Năm 1985, doanh nghiệp Mỹ chi hơn 1 tỷ USD, và cả một ngành công nghiệp (được VC hậu thuẫn) mọc lên, đặc biệt là máy LISP – phần cứng tối ưu hóa cho hệ chuyên gia viết bằng LISP. DARPA cũng trở lại tài trợ qua chương trình Strategic Computing (hơn 100 triệu USD cho 90+ dự án).
Nhưng ba sự kiện kéo mùa đông tới. Năm 1987, workstation mới của Sun, cộng với PC IBM/Apple mạnh hơn, khiến máy LISP trở nên thừa. Thị trường máy LISP xóa sổ chỉ trong một năm; VC lỗ nặng và trở nên e dè với AI. Cùng năm, Jack Schwartz (ĐH NYU) đứng đầu mảng nghiên cứu tính toán của DARPA – không mấy thiện cảm với AI và cắt mạnh tài trợ.
Doanh nghiệp cũng nhận ra hệ chuyên gia khó và đắt để xây và bảo trì, lại dễ vỡ: Xử lý tốt tác vụ lặp nhưng dễ cho ra kết quả kỳ quặc khi gặp trường hợp khác thường; việc liệt kê quy tắc cho mọi ngoại lệ là bất khả. Đầu thập niên 1990, các công ty bắt đầu bỏ cuộc. Khác mùa đông đầu (khoa học & chính phủ vỡ mộng), mùa đông thứ hai do doanh nghiệp thất vọng là chính.
Ngày nay có vang vọng tương tự: Hàng trăm tỷ USD đang đổ vào trung tâm dữ liệu AI của Microsoft, Alphabet, AWS, X.ai, Meta; OpenAI cùng SoftBank, Oracle… bàn về Project Stargate 500 tỷ USD. Nvidia thành công ty giá trị nhất thế giới nhờ nhu cầu GPU. Giả định lớn ở đây: Các mô hình tiên tiến nhất sẽ càng lớn, cần siêu trung tâm dữ liệu.
Nhưng song song, nhiều startup đã tạo mô hình nhỏ bắt chước phần lớn năng lực của mô hình khổng lồ, cần ít tài nguyên hơn, thậm chí chạy trên Điện thoại – nếu xu hướng tiếp diễn, những trung tâm dữ liệu khổng lồ có thể trở thành “tài sản mắc cạn”, như máy LISP ngày xưa.
Dù linh hoạt hơn hệ chuyên gia, mô hình ngày nay vẫn đắt, phức tạp và không đáng tin cho tác vụ nhiệm vụ sống còn; vẫn “ảo tưởng” (hallucinate), phạm lỗi mà con người không mắc, đặc biệt ở ca ngoại lệ. Liệu doanh nghiệp sẽ mất kiên nhẫn như với hệ chuyên gia? Chưa biết – nhưng hoàn toàn có thể.
Thập niên 1980 ghi nhận sự trở lại của mạng nơ-ron nhờ David Rumelhart, Geoffrey Hinton, Ronald Williams—năm 1986 đưa ra backpropagation (lan truyền ngược), cách sửa lỗi ở lớp ẩn mỗi vòng huấn luyện để mạng học hiệu quả.
Backprop cùng máy tính mạnh hơn khởi phát phục hưng: Mạng đa lớp đọc chữ viết tay trên phong bì, học quan hệ gia phả, nhận chữ in và tổng hợp giọng nói, thậm chí lái xe tự động giữ làn đường.
Nhưng nhược điểm lớn: Cần rất nhiều dữ liệu và tính toán; khi ấy dữ liệu thiếu và phần cứng yếu, huấn luyện chậm. Doanh nghiệp không mặn mà vì ứng dụng hạn hẹp, trong khi các kỹ thuật ML thống kê khác tiến nhanh với ít dữ liệu/tính toán hơn. Một mùa đông kéo dài thêm một thập kỷ.
Hai yếu tố làm tan băng: Internet tạo ra lượng dữ liệu số khổng lồ, và từ 2004, các nhóm ở Maryland rồi Microsoft dùng GPU – vốn cho trò chơi điện tử để huấn luyện/chạy mạng nơ-ron theo kiểu song song. Hinton và học trò chứng minh mạng nơ-ron chạy trên GPU với dữ liệu lớn có thể làm những việc trước đó bất khả (phân loại ảnh 1.000 lớp…). Kỷ nguyên deep learning bùng nổ.
Bước ngoặt 2017: Google giới thiệu Transformer, kiến trúc đặc biệt giỏi xử lý chuỗi ngôn ngữ. Năm 2019, OpenAI phát hiện Transformer huấn luyện trên lượng văn bản lớn không chỉ viết tốt mà còn làm giỏi nhiều tác vụ ngôn ngữ khác (dịch, tóm tắt). Ba năm sau, phiên bản cập nhật GPT-3.5 vận hành chatbot ChatGPT gây bão.
Giờ đây, ba năm sau ChatGPT, hype quanh AI chưa từng lớn hơn. Có vài dấu hiệu “thu sang”—những chiếc lá rơi lác đác nếu đối chiếu lịch sử. Nhưng chỉ thời gian mới trả lời: Đây là khúc dạo đầu cho một “bom cực hàn” sẽ đóng băng đầu tư AI cả một thế hệ, hay chỉ là đợt lạnh thoáng qua trước khi mặt trời lại ló rạng.
https%3A%2F%2Fcafebiz.vn%2Fmua-dong-ai-dang-toi-176250909095507812.chn