Trí tuệ nhân tạo” (AI) hiện đang là thuật ngữ nổi bật nhất trong lĩnh vực công nghệ. Và sự nổi tiếng đó là có lý do - sau nhiều thập kỷ nghiên cứu và phát triển, nhiều kỹ thuật tưởng như chỉ có trong khoa học viễn tưởng đã dần biến thành thực tế khoa học trong vài năm trở lại đây.
Các kỹ thuật AI đang dần ăn sâu vào cuộc sống của chúng ta: AI xác định các kết quả tìm kiếm, chuyển dịch giọng nói của chúng ta thành những hướng dẫn có nghĩa cho máy tính và thậm chí còn giúp chúng ta phân loại dưa chuột.
Nhưng làm thế nào mà chúng ta đạt được đến trình độ này? Công nghệ mới đầy sức mạnh này từ đâu mà ra? Dưới đây là 10 cột mốc lớn nhất dẫn dắt chúng ta tới thành công này.
Khái niệm AI không đột nhiên xuất hiện - nó là chủ đề của một cuộc tranh luận triết học sâu xa mà tới nay vẫn chưa có hồi kết: Liệu máy móc có thể thực sự suy nghĩ như một con người hay không? Liệu một cỗ máy có thể trở thành con người hay không? Một trong những người đầu tiên suy nghĩ về vấn đề này chính là René Descartes, người đã thể hiện ý kiến của mình trong cuốn sách Diễn ngôn Phương pháp (Discourse on the Method) năm 1637.
Điều đáng ngạc nhiên là, tại thời điểm mà ngay cả một chiếc máy gửi email của Amstrad cũng là một sản phẩm của tương lai không tưởng, Descartes đã tóm tắt được những câu hỏi và thách thức quan trọng mà các nhà công nghệ phải vượt qua:
“Nếu có những cỗ máy trông giống như chúng ta và mô phỏng lại những hoạt động của chúng ta một cách giống nhất có thể, vì những mục đích hoàn toàn thực tế, chúng ta vẫn nên có hai cách nhận biết thực sự chắc chắn rằng chúng không phải con người thực sự.”
Ông tiếp tục giải thích rằng, theo ông, máy móc không bao giờ có thể sử dụng từ ngữ hay “kết nối những dấu hiệu” để “bày tỏ những suy nghĩ của chúng ta với người khác,” và ngay cả nếu chúng ta có thể tạo ra một cỗ máy như vậy thì “vẫn không thể tưởng tượng được rằng một cỗ máy như vậy có thể đưa ra những chuỗi từ ngữ được sắp xếp để tạo thành một câu trả lời có nghĩa cho bất kỳ điều gì được nói với nó như cách những người tối dạ nhất cũng làm được.”
Ông tiếp tục mô tả thách thức lớn hiện nay: tạo ra một AI toàn diện thay vì tập trung vào một lĩnh vực hẹp - và những giới hạn của AI sẽ bộc lộ việc máy móc nhất định không phải là con người như thế nào:
“Ngay cả khi một số máy móc có thể làm được một số việc tốt như chúng ta làm, hay thậm chí tốt hơn, thì chúng cũng sẽ không tránh khỏi thất bại trong những công việc khác. Điều đó cho thấy chúng không hành động vì chúng hiểu, mà chỉ vì chúng được cấu tạo để làm những việc đó.”
Cột mốc triết học lớn thứ hai do Alan Turing, nhà tiên phong khoa học máy tính đặt ra. Năm 1950, ông đã lần đầu mô tả thứ được biết đến với tên gọi Phép thử Turing và được ông gọi là “Trò chơi mô phỏng” - một bài kiểm tra trí tuệ của máy móc.
Bài kiểm tra của ông rất đơn giản: nếu người tham gia không thể phân biệt được đâu là con người, đâu là máy móc (ví dụ, qua tương tác bằng văn bản với cả hai bên), máy móc có thể lừa người đó tin rằng nó mới chính là con người hay không?
Điều thú vị là khi đó, Turing đã đưa ra một dự đoán táo bạo về tương lai điện toán - và ông tin là tới cuối thế kỷ 20, bài kiểm tra của ông sẽ được vượt qua.
Ông nói: “Tôi tin rằng trong khoảng 50 năm nữa, có thể lập trình các máy tính với dung lượng bộ nhớ khoảng [1GB] để chúng chơi trò chơi mô phỏng giỏi đến nỗi một người người chất vấn trung bình sẽ không có nhiều hơn 70% cơ hội xác định đúng sau 5 phút đặt câu hỏi. ... Tôi tin rằng tới cuối thế kỷ, việc sử dụng từ ngữ và quan điểm học thức nói chung sẽ thay đổi nhiều đến nỗi một người có thể nói về tư duy của máy móc mà không sợ bị phản bác.”
Tiếc thay, dự đoán của ông có phần hơi quá sớm, vì mặc dù lúc này chúng ta đang chứng kiến một số AI thực sự ấn tượng, nhưng hồi năm 2000 công nghệ vẫn ở mức rất sơ khai. Nhưng ít nhất có lẽ ông cũng sẽ thấy ấn tượng với dung lượng đĩa cứng - đạt trung bình khoảng 10GB khi bước sang thế kỷ 21.
“Mạng nơ ron” là cái tên rất kêu mà các nhà khoa học đặt cho những phép thử và lỗi sai, khái niệm chủ chốt giải phóng cho AI hiện đại. Về cơ bản, khi nói về việc đào tạo AI, cách tốt nhất là để cho hệ thống tự đoán, nhận phản hồi, và lại tiếp tục đoán - liên tục thay đổi xác suất trả lời đúng của nó.
Điều khá thú vị ở đây là mạng nơ ron đầu tiên thực tế đã được khai sinh từ tận năm 1951. Được gọi là “SNARC” - Máy tính tăng cường tín hiệu tương tự nơ ron ngẫu nhiên” (Stochastic Neural Analog Reinforcement Computer) - cỗ máy này được tạo ra bởi Marvin Minsky và Dean Edmonds, và nó không được lắp từ các vi mạch và bóng đèn bán dẫn, mà từ các đèn chân không, động cơ và khớp ly hợp.
Thách thức đặt ra cho cỗ máy này? Giúp một con chuột ảo giải một câu đố mê cung. Hệ thống sẽ gửi các hướng dẫn để định hướng trong mê cung, và trong mỗi lần, hiệu ứng các hành động của nó sẽ được phản hồi về hệ thống - các đèn chân không được dùng để lưu trữ kết quả. Điều này có nghĩa là cỗ máy có thể học và thay đổi các xác suất - dẫn đến khả năng vượt qua mê cung lớn hơn.
Về cơ bản, nó là một phiên bản cực kỳ đơn giản của cùng quá trình mà Google hiện đang dùng để xác định các vật thể trong các bức ảnh.
Khi nghĩ về ôtô tự lái, chúng ta nghĩ về những thứ như dự án Waymo của Google - nhưng ngay từ năm 1995, Mercedes-Benz đã làm ra được một chiếc ôtô S-Class gần như có thể tự vận hành suốt quãng đường từ Munich tới Copenhagen.
Theo AutoEvolution, hành trình 1043 dặm này đã được thực hiện bằng cách gắn thành công một siêu máy tính vào ngăn hành lý phía sau ôtô - chiếc xe chứa 60 con chip vi mạch siêu lớn, khi đó được xem là đỉnh cao của tính toán song song, tức là nó có thể xử lý nhanh rất nhiều dữ liệu lái xe - một phần cực kỳ quan trọng trong việc giúp những chiếc xe tự hành có thể phản ứng hiệu quả.
Chiếc ôtô này đã đạt được vận tốc tới 115 dặm một giờ, gần như tương tự với những chiếc xe tự hành ngày nay, cũng như có thể vượt và đọc các biển báo giao thông. Nhưng nếu chúng ta được mời đi thử trên đó thì sao? Có lẽ chúng tôi sẽ nhường các bạn đi trước.
Mặc dù các mạng nơ ron đã tồn tại như một khái niệm trong một thời gian dài (như đã nói ở trên), nhưng phải tới cuối thập niên 80, một sự chuyển dịch lớn trong cộng đồng các nhà nghiên cứu AI từ cách tiếp cận “dựa trên các quy tắc” sang cách tiếp cận dựa trên số liệu thông kê - hay dạy học cho máy móc mới xuất hiện.
Điều này có nghĩa là thay vì cố gắng xây dựng các hệ thống mô phỏng trí tuệ bằng việc tìm cách đoán biết các quy tắc hoạt động của con người, họ sẽ chọn cách tiếp cận thử-nghiệm-và-lỗi-sai và điều chỉnh các xác suất dựa trên những phản hồi như một cách tốt hơn hẳn để dạy máy móc suy nghĩ. Đây là một sự kiện trọng đại - vì đây là quan niệm giải phóng nhiều khả năng tuyệt vời của AI hiện nay.
Gil Press của tờ Forbes đã lập luận rằng sự chuyển dịch này đã được báo trước từ năm 1988, khi Trung tâm nghiên cứu TJ Watson của IBM công bố nghiên cứu có nhan đề “Một cách tiếp cận thống kê học với dịch thuật ngôn ngữ,” cụ thể nói về việc dạy học cho máy móc để làm chính xác những gì mà Google Translate đang làm hiện nay.
IBM đã đưa vào hệ thống của họ 2.2 triệu cặp câu bằng tiếng Pháp và tiếng Anh để dạy cho hệ thống - và các câu này đều được lấy từ các bản thảo của Quốc hội Canada, cơ quan xuất bản các tài liệu của họ bằng cả hai thứ tiếng - nghe có vẻ nhiều, nhưng vẫn chưa là gì so với việc Google có toàn bộ mạng internet để sử dụng - lý giải tại sao hiện nay Google Translate lại hoạt động tốt một cách đáng sợ như vậy.
Bất chấp việc chuyển sang tập trung vào các mô hình thống kê, các mô hình dựa trên quy tắc vẫn được sử dụng - và vào năm 1997 IBM đã tổ chức một trận đấu cờ vua được xem là nổi tiếng nhất mọi thời đại, ở đó máy tính Deep Blue của họ đã đánh bại nhà vô địch cờ vua thế giới Garry Kasparov - một ví dụ mô tả sức mạnh của máy móc có thể lớn đến thế nào.
Trận đấu này thực tế là một trận tái đấu: năm 1996, Kasparov đã hạ gục Deep Blue với tỷ số 4-2. Tới năm 1997, cỗ máy đã phục thù bằng cách thắng 2 trong số 6 ván cờ và thủ hòa với Kasparov trong 3 ván.
Trí thông minh của Deep Blue, ở một mức độ nhất định, là không khách quan - bản thân IBM cũng nói rằng cỗ máy của họ không sử dụng trí tuệ nhân tạo. Thay vào đó, Deep Blue sử dụng một sự kết hợp của xử lý tổng lực (brute force) - xử lý hàng nghìn nước đi khả thi trong mỗi giây. IBM đã đưa vào hệ thống dữ liệu của hàng nghìn ván cờ trước đó, và mỗi lần bàn cờ thay đổi theo từng nước đi, Deep Blue sẽ không học được điều gì mới mà sẽ tìm kiếm xem những kỳ thủ vĩ đại đã từng phản ứng thế nào trong những tình huống tương tự. “Nó là bóng ma của những kỳ thủ vĩ đại trong quá khứ,” IBM đã nói như vậy.
Dù cỗ máy này có được tính là AI hay không, một điều rõ ràng là đây vẫn là một cột mốc đáng kể, thu hút rất nhiều sự chú ý không chỉ với khả năng tính toán của máy tính cũng như tới toàn bộ lĩnh vực trí tuệ nhân tạo. Từ sau cuộc đối đầu với Kasparov, đánh bại những người chơi là con người trong các trò chơi đã trở thành một cách phổ biến và hay được dùng nhất để xác định trí tuệ của máy móc - như chúng ta lại được chứng kiến hồi năm 2011 khi hệ thống Watson của IBM thắng giòn giã trước hai đấu thủ giỏi nhất trong chương trình trò chơi Jeopardy.
Xử lý ngôn ngữ tự nhiên từ lâu đã trở thành chiếc chén thánh của trí tuệ nhân tạo - và đóng vai trò quyết định nếu chúng ta muốn có một thế giới nơi những robot hình người tồn tại, hay là nơi chúng ta có thể quát những mệnh lệnh vào các thiết bị như trong phim Star Trek.
Và đó là lý do vì sao Siri, ứng dụng được xây dựng bằng các phương pháp thống kê đã nêu, tạo được ấn tượng mạnh như vậy.
Là sản phẩm của SRI International và thậm chí còn được ra mắt với tư cách một ứng dụng độc lập trên cửa hàng ứng dụng của iOS, Siri đã nhanh chóng được Apple mua lại và tích hợp sâu vào iOS: Ngày nay, nó là một trong những thành công rực rỡ nhất của công tác dạy học cho máy móc, bởi ứng dụng này, cùng với các sản phẩm tương tự từ Google (Assistant), Microsoft (Cortana) và Amazon (Alexa) đã thay đổi cách chúng ta tương tác với các thiết bị của mình theo hướng mà mới cách đây vài năm vẫn còn là không tưởng.
Ngày nay, chúng ta xem đó là chuyện bình thường - nhưng hãy nhớ rằng trước năm 2010 chưa từng có ai được sử dụng ứng dụng nhắn tin bằng giọng nói để thấy chúng ta đã tiến xa được đến mức nào.
Cũng như nhận diện giọng nói, nhận diện hình ảnh là một thách thức lớn nữa mà AI đang hỗ trợ để vượt qua. Năm 2015, các nhà nghiên cứu đã lần đầu kết luận rằng máy móc - trong trường hợp này là hai hệ thống máy tính từ Google và Microsoft - xác định các đối tượng trong các bức ảnh thuộc hơn 1000 chủ đề một cách giỏi hơn so với con người.
Các hệ thống “deep learning” (học sâu) này đã thành công trong việc vượt qua thử thách ImageNet - một dạng Phép thử Turing cho nhận diện hình ảnh - và chúng sẽ đóng vai trò căn bản nếu khả năng nhận diện hình ảnh phát triển vượt xa khả năng của con người.
Đương nhiên, có rất nhiều ứng dụng nhận diện hình ảnh - nhưng một ví dụ vui mà Google hay khoe khi quảng bá nền tảng dạy học cho máy móc TensorFlow là việc phân loại dưa chuột: Bằng cách sử dụng thị lực của máy tính, người nông dân không cần đến ý kiến của con người để quyết định các loại rau củ đã sẵn sàng cho bữa tối hay chưa - máy móc có thể tự động quyết định điều đó vì trước đó chúng đã được dạy dữ liệu này.
Một trong những lý do quan trọng giúp AI trở nên quan trọng như bây giờ là chỉ trong vài năm qua, chi phí tính toán một lượng lớn dữ liệu đã trở nên phải chăng.
Theo Fortune, đến cuối thập niên 2000, các nhà nghiên cứu mới nhận ra rằng các bộ xử lý đồ họa chuyên dụng (GPU) được phát triển cho đồ họa 3D và trò chơi điện tử có khả năng tính toán deep learning nhanh hơn 20-50 lần so với các CPU truyền thống. Và khi mọi người đã nhận ra điều đó, sức mạnh tính toán đã tăng lên đáng kể, cho phép các nền tảng AI đám mây hỗ trợ cho vô số ứng dụng AI ngày nay.
Các game thủ xứng đáng được nhận một lời cảm ơn. Có thể cha mẹ và người yêu của họ không thích họ dành quá nhiều thời gian chơi điện tử - nhưng các nhà nghiên cứu AI chắc chắn rất biết ơn họ.
Tháng 3/2016, AI đã đặt thêm một dấu mốc nữa trong lịch sử khi phần mềm AlphaGo của Google đánh bại Lee Sedol, một kiện tướng cờ vây - gợi nhớ lại trận đấu lịch sử của Garry Kasparov.
Điều đáng nói ở đây không chỉ ở chỗ cờ vây là một môn thể thao phức tạp về mặt toán học hơn cả cờ vua, mà phần mềm này còn được cả con người và các AI đối thủ dạy dỗ. Google đã thắng 4 trong 5 ván đấu bằng cách dùng 1920 CPU và 280 GPU.
Đáng chú ý hơn cả là tin tức hồi năm ngoái về phiên bản mới hơn của AlphaGo, AlphaGo Zero. Thay vì sử dụng bất kỳ dữ liệu nào trước đó, như AlphaGo và Deep Blue đã làm, để học về trò chơi, phần mềm này chỉ đơn giản chơi hàng nghìn ván cờ với chính mình - và sau 3 ngày luyện tập nó đã đánh bại được phiên bản AlphaGo đã hạ gục Lee Sedol 100 ván không gỡ. Cần gì phải dạy một cỗ máy trở nên thông minh, khi tự nó có thể dạy chính mình?