Artificial intelligence

DeepMind đang phát minh lại robot như thế nào

Trí tuệ nhân tạo đã đi sâu vào cuộc sống của chúng ta, mặc dù bạn có thể khó chỉ ra những ví dụ rõ ràng về nó. Trong số vô số công việc hậu trường khác, mạng thần kinh hỗ trợ trợ lý ảo của chúng tôi, đưa ra các đề xuất mua sắm trực tuyến, nhận ra mọi người trong ảnh chụp nhanh của chúng tôi, xem xét kỹ lưỡng các giao dịch ngân hàng của chúng tôi để tìm bằng chứng lừa đảo, sao chép tin nhắn thoại của chúng tôi và loại bỏ các bài đăng trên mạng xã hội đáng ghét . Điểm chung của các ứng dụng này là chúng liên quan đến việc học tập và hoạt động trong một môi trường hạn chế, có thể đoán trước được. Nhưng việc nhúng AI một cách chắc chắn hơn vào các nỗ lực của chúng tôi và các doanh nghiệp đặt ra một thách thức lớn. Để đạt được cấp độ tiếp theo, các nhà nghiên cứu đang cố gắng kết hợp AI và robot để tạo ra một trí thông minh có thể đưa ra quyết định và điều khiển một cơ thể vật chất trong thế giới thực lộn xộn, khó đoán và không khoan nhượng. Đó là một mục tiêu mang tính cách mạng tiềm năng đã thu hút sự chú ý của một số tổ chức nghiên cứu công nghệ mạnh nhất trên hành tinh. Raia Hadsell, người đứng đầu bộ phận robot tại DeepMind, đối tác AI của Google có trụ sở tại London, cho biết: “Tôi muốn nói rằng lĩnh vực robot có lẽ chậm hơn 10 năm so với tầm nhìn máy tính. (Cả hai công ty đều là công ty con của Alphabet.) Ngay cả đối với Google, những thách thức cũng rất khó khăn. Một số khó nhưng đơn giản: Đối với hầu hết các ứng dụng robot, rất khó để thu thập các tập dữ liệu khổng lồ đã thúc đẩy tiến bộ trong các lĩnh vực khác của AI. Nhưng một số vấn đề sâu sắc hơn và liên quan đến các câu hỏi hóc búa lâu đời trong AI. Những vấn đề như, làm thế nào để bạn học một nhiệm vụ mới mà không quên nhiệm vụ cũ? Và làm thế nào để bạn tạo ra một AI có thể áp dụng các kỹ năng mà nó học được cho một nhiệm vụ mới vào các nhiệm vụ mà nó đã thành thạo trước đó? Thành công có nghĩa là mở ra AI cho các danh mục ứng dụng mới. Nhiều việc mà chúng ta nhiệt thành muốn AI làm – lái ô tô và xe tải, làm việc trong viện dưỡng lão, dọn dẹp sau thảm họa, thực hiện các công việc gia đình cơ bản, xây nhà, gieo hạt, nuôi dưỡng và thu hoạch – chỉ có thể được hoàn thành bởi các robot phức tạp và linh hoạt hơn nhiều so với những gì chúng ta có bây giờ. Ngoài việc mở ra các thị trường khổng lồ tiềm năng, công trình này còn đề cập trực tiếp đến các vấn đề có tầm quan trọng sâu sắc không chỉ đối với người máy mà còn đối với tất cả các nghiên cứu về AI và thực sự là sự hiểu biết của chúng ta về trí thông minh của chính chúng ta. Trước tiên, hãy bắt đầu với vấn đề tầm thường. Mạng nơ-ron chỉ tốt bằng chất lượng và số lượng dữ liệu được sử dụng để đào tạo nó. Sự sẵn có của các bộ dữ liệu khổng lồ là chìa khóa cho những thành công gần đây trong AI: Phần mềm nhận dạng hình ảnh được đào tạo trên hàng triệu hình ảnh được gắn nhãn. AlphaGo, người đã đánh bại một đại kiện tướng trong trò chơi cờ vây cổ đại, đã được đào tạo trên tập dữ liệu của hàng trăm nghìn trò chơi của con người và trên hàng triệu trò chơi mà nó chơi với chính nó trong mô phỏng. Tuy nhiên, để đào tạo một robot, những bộ dữ liệu khổng lồ như vậy không có sẵn. “Đây là một vấn đề,” Hadsell lưu ý. Bạn có thể mô phỏng hàng nghìn ván cờ vây trong vài phút, chạy song song trên hàng trăm CPU. Nhưng nếu phải mất 3 giây để rô bốt cầm cốc, thì bạn chỉ có thể làm điều đó 20 lần mỗi phút cho mỗi rô bốt. Hơn nữa, nếu hệ thống nhận dạng hình ảnh của bạn nhận sai một triệu hình ảnh đầu tiên, thì điều đó có thể không quan trọng lắm. Nhưng nếu rô bốt hai chân của bạn bị ngã trong 1.000 lần đầu tiên nó cố gắng đi lại, thì bạn sẽ có một rô bốt bị móp nặng, nếu không muốn nói là tệ hơn. Vấn đề của dữ liệu trong thế giới thực là — ít nhất là bây giờ — không thể vượt qua. Nhưng điều đó không ngăn DeepMind thu thập tất cả những gì có thể, với các robot liên tục quay vòng trong phòng thí nghiệm của nó. Và trên khắp lĩnh vực này, các nhà nghiên cứu robot đang cố gắng giải quyết tình trạng dữ liệu ít ỏi này bằng một kỹ thuật được gọi là sim-to-real. Phòng thí nghiệm OpenAI có trụ sở tại San Francisco gần đây đã khai thác chiến lược này trong việc huấn luyện một tay robot giải khối Rubik. Các nhà nghiên cứu đã xây dựng một môi trường ảo chứa một khối lập phương và một mô hình ảo của bàn tay robot, đồng thời đào tạo AI sẽ điều khiển bàn tay trong mô phỏng. Sau đó, họ cài đặt AI vào tay robot thật và tạo cho nó một khối Rubik thật. Chương trình mô phỏng thành thực của họ cho phép robot vật lý giải câu đố vật lý. Mặc dù thành công như vậy, nhưng kỹ thuật này có những hạn chế lớn, Hadsell nói, lưu ý rằng nhà nghiên cứu AI và người máy Rodney Brooks “thích nói rằng mô phỏng ‘chắc chắn sẽ thành công.’ “Vấn đề là các mô phỏng quá hoàn hảo, quá loại bỏ những phức tạp của thế giới thực. Hadsell nói: “Hãy tưởng tượng hai bàn tay robot trong mô phỏng, cố gắng ghép một chiếc điện thoại di động lại với nhau. Nếu bạn cho phép họ thử hàng triệu lần, cuối cùng họ có thể phát hiện ra điều đó bằng cách ném tất cả các mảnh lên không trung với một lực chính xác, với độ quay chính xác, là họ có thể chế tạo điện thoại trong vài giây : Các mảnh rơi xuống đúng vị trí mà robot muốn, tạo ra một chiếc điện thoại. Điều đó có thể hoạt động trong môi trường hoàn toàn có thể dự đoán được của một mô phỏng, nhưng nó không bao giờ có thể hoạt động trong thực tế phức tạp, lộn xộn. Hiện tại, các nhà nghiên cứu phải giải quyết cho những mô phỏng không hoàn hảo này. Hadsell giải thích: “Bạn có thể thêm nhiễu và ngẫu nhiên một cách giả tạo, nhưng không có mô phỏng đương đại nào đủ tốt để tái tạo thực sự dù chỉ một lát nhỏ của thực tế”. Sự lãng quên một cách thảm hại: Khi một AI học một nhiệm vụ mới, nó có xu hướng không may là quên tất cả những nhiệm vụ cũ. Có nhiều vấn đề sâu sắc hơn. Một trong những điều mà Hadsell quan tâm nhất là sự quên lãng: Khi một AI học một nhiệm vụ mới, nó có xu hướng không may là quên tất cả những nhiệm vụ cũ. Vấn đề không phải là thiếu bộ nhớ dữ liệu. Đó là thứ vốn có trong cách học của hầu hết các AI hiện đại. Học sâu, một loại trí tuệ nhân tạo phổ biến nhất hiện nay, dựa trên các mạng nơ-ron sử dụng các nút tính toán giống nơ-ron, được sắp xếp thành các lớp, được liên kết với nhau bằng các kết nối khớp thần kinh. Trước khi nó có thể thực hiện một tác vụ, chẳng hạn như phân loại hình ảnh của mèo hoặc chó, mạng thần kinh phải được huấn luyện. Lớp đầu tiên của các nút nhận được hình ảnh đầu vào của một con mèo hoặc một con chó. Các nút phát hiện các tính năng khác nhau của hình ảnh và kích hoạt hoặc giữ im lặng, chuyển các đầu vào này đến lớp nút thứ hai. Mỗi nút trong mỗi lớp sẽ kích hoạt nếu đầu vào từ lớp trước đó đủ cao. Có thể có nhiều lớp như vậy và khi kết thúc, lớp cuối cùng sẽ hiển thị kết quả: “mèo” hoặc “chó”. Mỗi kết nối có một “trọng lượng” khác nhau. Ví dụ: nút A và nút B đều có thể cung cấp đầu ra của chúng cho nút C. Tùy thuộc vào tín hiệu của chúng, C có thể kích hoạt hoặc không. Tuy nhiên, kết nối AC có thể có trọng lượng là 3 và kết nối BC có trọng lượng là 5. Trong trường hợp này, B có ảnh hưởng lớn hơn C. Để đưa ra một ví dụ đơn giản hóa quá mức, A có thể bắn nếu sinh vật trong hình ảnh có độ sắc nét. răng, trong khi B có thể bắn nếu sinh vật có mõm dài. Vì độ dài của mõm có ích hơn độ sắc của răng trong việc phân biệt chó với mèo, C chú ý đến B nhiều hơn là A. Mỗi nút có một ngưỡng mà nó sẽ bắn, gửi một tín hiệu cho chính nó. kết nối hạ nguồn. Giả sử C có ngưỡng là 7. Sau đó, chỉ cần A cháy, nó sẽ im lặng; nếu chỉ có B cháy, nó sẽ im lặng; nhưng nếu A và B bắn cùng nhau, tín hiệu của chúng đến C sẽ cộng lại là 8, và C sẽ bắn, ảnh hưởng đến lớp tiếp theo. Tất cả những điều này có liên quan gì đến việc đào tạo? Bất kỳ chương trình học tập nào cũng phải có khả năng phân biệt giữa các câu trả lời đúng và sai và tự cải thiện cho phù hợp. Nếu mạng nơ-ron được hiển thị hình ảnh một con chó và nó xuất ra “dog”, thì các kết nối được kích hoạt sẽ được củng cố; những cái không sẽ bị suy yếu. Nếu nó xuất sai “cat”, thì điều ngược lại sẽ xảy ra: Các kết nối được kích hoạt sẽ bị suy yếu; những cái không sẽ được củng cố. Huấn luyện mạng nơ-ron để phân biệt ảnh chụp mèo hay chó sử dụng một phần các nút và kết nối trong mạng . Sử dụng một kỹ thuật được gọi là hợp nhất trọng lượng đàn hồi, mạng lưới sau đó có thể được đào tạo về một nhiệm vụ khác, phân biệt hình ảnh của ô tô với xe buýt. Các kết nối quan trọng từ tác vụ ban đầu bị “đóng băng” và các kết nối mới được thiết lập [blue, at right]. Một phần nhỏ các kết nối bị đóng băng, nếu không sẽ được sử dụng cho tác vụ thứ hai, không khả dụng [purple, right diagram]. Điều đó làm giảm một chút thực hiện nhiệm vụ thứ hai. Nhưng hãy tưởng tượng bạn sử dụng mạng nơ-ron phân loại chó và mèo của mình và bây giờ bắt đầu huấn luyện nó để phân biệt xe buýt với xe hơi. Tất cả quá trình huấn luyện trước đó của nó sẽ trở nên vô ích. Kết quả đầu ra của nó để đáp ứng với hình ảnh phương tiện sẽ lúc đầu là ngẫu nhiên. Nhưng khi được huấn luyện, nó sẽ cân bằng lại các kết nối của mình và dần trở nên hiệu quả. Cuối cùng, nó sẽ có thể phân loại xe buýt và ô tô với độ chính xác cao. Tuy nhiên, tại thời điểm này, nếu bạn cho nó xem hình ảnh một con chó , tất cả các nút sẽ được cân lại và nó sẽ “quên” mọi thứ đã học trước đây. Đây là sự lãng quên thảm khốc và đó là một phần lớn lý do khiến việc lập trình mạng nơ-ron với trí thông minh linh hoạt giống như con người là rất khó. ” mệnh đề Các ví dụ ssic đang đào tạo một đặc vụ để chơi Pong, “Hadsell nói. Bạn có thể khiến nó chơi để nó thắng mọi trận đấu với máy tính từ 20 đến 0, cô ấy nói; nhưng nếu bạn chỉ chỉnh sửa trọng lượng tạ một chút, chẳng hạn như bằng cách tập nó trên Breakout hoặc Pac-Man, “thì màn trình diễn sẽ — bùng nổ! —chạy ra khỏi vách đá.” Đột nhiên, nó sẽ mất từ ​​20 đến 0 mỗi lần. Điểm yếu này đặt ra một trở ngại lớn không chỉ đối với những cỗ máy được chế tạo để thành công ở một số nhiệm vụ khác nhau mà còn đối với bất kỳ hệ thống AI nào nhằm thích ứng với những hoàn cảnh thay đổi trên thế giới xung quanh chúng, học các chiến lược mới khi cần thiết. Có nhiều cách xung quanh vấn đề. Một điều hiển nhiên là chỉ cần tắt từng kỹ năng. Huấn luyện mạng nơ-ron của bạn trên một nhiệm vụ, lưu các trọng số của mạng vào bộ lưu trữ dữ liệu, sau đó huấn luyện nó về một nhiệm vụ mới, lưu các trọng số đó ở nơi khác. Sau đó, hệ thống chỉ cần nhận ra loại thử thách ngay từ đầu và áp dụng bộ trọng số thích hợp. Nhưng chiến lược đó có giới hạn. Đối với một điều, nó không thể mở rộng. Nếu bạn muốn chế tạo một robot có khả năng hoàn thành nhiều nhiệm vụ trong nhiều môi trường, bạn phải đào tạo nó trên từng môi trường. Và nếu môi trường không có cấu trúc, bạn thậm chí sẽ không biết trước một số nhiệm vụ đó sẽ như thế nào. Một vấn đề khác là chiến lược này không cho phép robot chuyển các kỹ năng mà nó có được khi giải quyết nhiệm vụ A sang nhiệm vụ B. Khả năng truyền kiến ​​thức như vậy là một dấu hiệu quan trọng trong quá trình học tập của con người. Cách tiếp cận ưa thích của Hadsell là một cái gì đó được gọi là “hợp nhất trọng lượng đàn hồi.” Ý chính là, sau khi học một nhiệm vụ, mạng nơ-ron sẽ đánh giá kết nối nào trong số các kết nối khớp thần kinh giữa các nút giống nơ-ron là quan trọng nhất đối với nhiệm vụ đó và nó sẽ đóng băng một phần trọng số của chúng. “Sẽ có một số lượng tương đối nhỏ,” cô nói. “Nói, 5 phần trăm.” Sau đó, bạn bảo vệ các trọng số này, khiến chúng khó thay đổi hơn, trong khi các nút khác có thể học như bình thường. Bây giờ, khi AI chơi Pong của bạn học cách chơi Pac-Man, những tế bào thần kinh liên quan nhất đến Pong sẽ hầu như ở nguyên vị trí và nó sẽ tiếp tục hoạt động tốt trên Pong. Nó có thể không tiếp tục giành chiến thắng với tỷ số từ 20 đến 0, mà có thể là 18 đến 2. Raia Hadsell [top] lãnh đạo một nhóm các nhà chế tạo người máy tại DeepMind ở London. Tại OpenAI, các nhà nghiên cứu đã sử dụng các mô phỏng để huấn luyện một tay robot [above] giải một khối Rubik. Kết luận: Tuy nhiên, OpenAI Có một tác dụng phụ rõ ràng. Mỗi khi mạng nơ-ron của bạn học một nhiệm vụ, nhiều nơ-ron của nó sẽ trở nên kém đàn hồi. Nếu Pong sửa một số nơ-ron và Breakout sửa một số nơ-ron khác, “cuối cùng, khi người đại diện của bạn tiếp tục học các trò chơi Atari, nó sẽ ngày càng được cố định hơn, ngày càng ít nhựa hơn,” Hadsell giải thích. Điều này gần giống với việc học tập của con người. Khi chúng ta còn trẻ, chúng ta rất giỏi trong việc học hỏi những điều mới. Khi chúng ta già đi, chúng ta trở nên giỏi hơn với những điều chúng ta đã học, nhưng lại cảm thấy khó khăn hơn khi học các kỹ năng mới. Hadsell nói: “Trẻ sơ sinh bắt đầu có những kết nối dày đặc hơn và yếu hơn nhiều. “Theo thời gian, những kết nối đó trở nên thưa thớt hơn nhưng mạnh mẽ hơn. Nó cho phép bạn có những kỷ niệm, nhưng nó cũng hạn chế việc học của bạn.” Cô ấy suy đoán rằng điều gì đó như thế này có thể giúp giải thích tại sao trẻ nhỏ không có ký ức: “Bố cục não của chúng ta đơn giản là không hỗ trợ nó.” Ở một đứa trẻ còn rất nhỏ, “mọi thứ đều bị lãng quên một cách thảm khốc, bởi vì mọi thứ đều liên kết với nhau và không có gì được bảo vệ.” Hadsell nghĩ rằng vấn đề mất độ đàn hồi là có thể khắc phục được. Cô ấy đã làm việc với nhóm DeepMind từ năm 2018 về một kỹ thuật được gọi là “tiến trình và nén”. Nó liên quan đến việc kết hợp ba ý tưởng tương đối gần đây trong học máy: mạng nơ-ron tiến bộ, chắt lọc kiến ​​thức và củng cố trọng lượng đàn hồi, được mô tả ở trên. Mạng nơ-ron tiến bộ là một cách đơn giản để tránh sự lãng quên nghiêm trọng. Thay vào đó o Nếu có một mạng nơ-ron duy nhất huấn luyện nhiệm vụ này rồi đến nhiệm vụ khác, bạn có một mạng nơ-ron đào tạo nhiệm vụ — chẳng hạn như Breakout. Sau đó, khi kết thúc quá trình huấn luyện, nó sẽ đóng băng các kết nối tại chỗ, chuyển mạng nơ-ron đó vào bộ nhớ và tạo ra một mạng nơ-ron mới để đào tạo cho một nhiệm vụ mới – chẳng hạn như Pac-Man. Kiến thức của nó về từng nhiệm vụ trước đó được đóng băng tại chỗ, vì vậy không thể bị quên. Và khi mỗi mạng nơ-ron mới được tạo ra, nó mang lại các kết nối từ các trò chơi trước mà nó đã đào tạo, vì vậy nó có thể chuyển các kỹ năng từ nhiệm vụ cũ sang nhiệm vụ mới. Nhưng, Hadsell nói, nó có một vấn đề: Nó không thể chuyển kiến ​​thức theo cách khác, từ kỹ năng mới sang kỹ năng cũ. “Nếu tôi quay lại và chơi Breakout một lần nữa, tôi thực sự đã không học được gì từ trò chơi [new] này,” cô nói. “Không có chuyển ngược lại.” Đó là nơi chưng cất kiến ​​thức, được phát triển bởi nhà khoa học máy tính người Anh gốc Canada Geoffrey Hinton, bao gồm việc lấy nhiều mạng nơ-ron khác nhau được đào tạo về một nhiệm vụ và nén chúng thành một mạng duy nhất, lấy trung bình các dự đoán của chúng. Vì vậy, thay vì có nhiều mạng nơ-ron, mỗi mạng được đào tạo trên một trò chơi riêng lẻ, bạn chỉ có hai: một mạng học mỗi trò chơi mới, được gọi là “cột hoạt động” và một mạng chứa tất cả các bài học từ các trò chơi trước đó, được tính trung bình, được gọi là “cơ sở tri thức”. Đầu tiên, cột hoạt động được huấn luyện về một nhiệm vụ mới — giai đoạn “tiến trình” — và sau đó các kết nối của nó được thêm vào cơ sở kiến ​​thức và được chắt lọc — giai đoạn “nén”. Nó giúp hình dung hai mạng, theo nghĩa đen, là hai cột. Hadsell làm, và vẽ chúng lên bảng cho tôi khi cô ấy nói. Nếu bạn muốn chế tạo một robot có khả năng hoàn thành nhiều nhiệm vụ trong nhiều môi trường, bạn phải đào tạo nó trên từng môi trường. Vấn đề là, bằng cách sử dụng sự chắt lọc kiến ​​thức để gộp nhiều mạng nơ-ron riêng lẻ của hệ thống mạng nơ-ron tiến bộ lại với nhau, bạn đã đưa vấn đề lãng quên thảm khốc trở lại. Bạn sẽ thay đổi tất cả trọng lượng của các kết nối và hiển thị đào tạo trước đó vô ích. Để giải quyết vấn đề này, Hadsell bổ sung thêm vào việc củng cố trọng lượng đàn hồi: Mỗi khi cột hoạt động chuyển việc học về một nhiệm vụ cụ thể sang cơ sở kiến ​​thức, nó sẽ đóng băng một phần các nút quan trọng nhất đối với nhiệm vụ cụ thể đó. Bằng cách có hai mạng nơ-ron, hệ thống của Hadsell tránh được vấn đề chính đối với sự hợp nhất trọng lượng đàn hồi, đó là tất cả các kết nối của nó cuối cùng sẽ bị đóng băng. Cơ sở kiến ​​thức có thể lớn tùy thích, vì vậy một vài nút bị đóng băng sẽ không thành vấn đề. Nhưng bản thân cột hoạt động có thể nhỏ hơn nhiều và các mạng nơ-ron nhỏ hơn có thể học nhanh hơn và hiệu quả hơn các mạng lớn hơn. Vì vậy, mô hình tiến trình và nén, Hadsell nói, sẽ cho phép hệ thống AI chuyển các kỹ năng từ nhiệm vụ cũ sang nhiệm vụ mới và từ nhiệm vụ mới trở lại nhiệm vụ cũ, trong khi không bao giờ quên hoặc không thể học bất kỳ điều gì mới. Các nhà nghiên cứu khác đang sử dụng các chiến lược khác nhau để tấn công vấn đề lãng quên thảm khốc; có khoảng hơn nửa tá con đường nghiên cứu. Ted Senator, một quản lý chương trình tại Cơ quan Dự án Nghiên cứu Tiên tiến Quốc phòng (DARPA), dẫn đầu một nhóm đang sử dụng một trong những kỹ thuật hứa hẹn nhất, được gọi là phát lại nội bộ. Senator giải thích: “Nó được mô phỏng theo các lý thuyết về cách thức hoạt động của bộ não, đặc biệt là vai trò của giấc ngủ trong việc duy trì trí nhớ”. Lý thuyết cho rằng bộ não của con người phát lại những ký ức trong ngày, cả khi thức và khi ngủ: Nó kích hoạt lại các tế bào thần kinh của mình theo các mô hình tương tự như các tế bào thần kinh nảy sinh trong khi có trải nghiệm tương ứng. Việc kích hoạt lại này giúp ổn định các mẫu, có nghĩa là chúng không bị ghi đè dễ dàng như vậy. Phát lại nội bộ làm điều gì đó tương tự. Giữa các nhiệm vụ học tập, mạng lưới thần kinh tái tạo các mẫu kết nối và trọng lượng, bắt chước một cách lỏng lẻo chu kỳ thức-ngủ của hoạt động thần kinh của con người. Kỹ thuật này đã được chứng minh là khá hiệu quả trong việc tránh quên một cách thảm khốc. Có rất nhiều rào cản khác cần vượt qua trong nhiệm vụ đưa AI hiện thân vào cuộc sống hàng ngày của chúng ta một cách an toàn. Thrishantha Nanayakkara, người làm việc về người máy tại Đại học Hoàng gia London, cho biết: “Chúng tôi đã đạt được tiến bộ to lớn trong AI theo hướng dữ liệu, biểu tượng. “Nhưng khi tiếp xúc, chúng tôi thất bại thảm hại. Chúng tôi không có một robot mà chúng tôi có thể tin tưởng để giữ một con chuột lang một cách an toàn. Chúng tôi không thể tin tưởng một robot ở xung quanh người già hoặc trẻ em.” Nanayakkara chỉ ra rằng phần lớn quá trình “xử lý” cho phép động vật đối phó với thế giới không xảy ra trong não, mà là ở những nơi khác trong cơ thể. Ví dụ, hình dạng của ống tai người có tác dụng tách sóng âm thanh, về cơ bản thực hiện “chuỗi Fourier trong thời gian thực”. Nếu không, quá trình xử lý đó sẽ phải xảy ra trong não bộ, với chi phí bằng micro giây quý giá. Ông nói: “Nếu khi bạn nghe thấy mọi thứ, chúng không còn ở đó nữa, thì bạn không được nhúng vào môi trường. Nhưng hầu hết các robot hiện đang dựa vào CPU để xử lý tất cả các đầu vào, một hạn chế mà ông tin rằng sẽ phải được khắc phục trước khi có thể đạt được những tiến bộ đáng kể. Bạn biết đấy, con mèo sẽ không bao giờ học ngôn ngữ, và tôi không sao với điều đó. Đồng nghiệp của ông, Petar Kormushev, nói rằng một vấn đề khác là khả năng nhận thức, cảm giác của robot về thể chất của chính nó. Mô hình robot có kích thước và hình dạng của riêng nó được lập trình trực tiếp bởi con người. Vấn đề là khi nó nhặt một vật nặng lên, nó không có cách nào tự cập nhật hình ảnh của mình. Khi chúng ta cầm một chiếc búa lên, chúng ta điều chỉnh mô hình tinh thần của mình về hình dạng và trọng lượng của cơ thể, điều này cho phép chúng ta sử dụng chiếc búa như một phần mở rộng của cơ thể. Ông nói: “Nghe có vẻ vô lý nhưng họ [robots] không thể cập nhật các mô hình động học của mình. Ông lưu ý, trẻ sơ sinh thực hiện các chuyển động ngẫu nhiên để chúng phản hồi không chỉ về thế giới mà còn về cơ thể của chính chúng. Ông tin rằng một số kỹ thuật tương tự sẽ hoạt động đối với robot. Tại Đại học Oxford, Ingmar Posner đang nghiên cứu một phiên bản robot của “siêu nhận thức”. Suy nghĩ của con người thường được mô phỏng là có hai “hệ thống” chính — hệ thống 1, phản ứng nhanh chóng và trực quan, chẳng hạn như khi chúng ta bắt được một quả bóng hoặc trả lời các câu hỏi như “khối nào trong hai khối này có màu xanh?” Và hệ thống 2, phản hồi chậm hơn và nỗ lực hơn. Nó phát huy tác dụng khi chúng ta học một nhiệm vụ mới hoặc trả lời một câu hỏi toán học khó hơn. Posner đã xây dựng các hệ thống tương đương về chức năng trong AI. Theo quan điểm của ông, rô-bốt luôn tự tin quá mức hoặc thiếu tự tin và cần những cách để biết khi chúng không biết điều gì đó. Ông nói: “Có những thứ trong não kiểm tra phản ứng của chúng ta về thế giới. Đối với hầu hết các nhà nghiên cứu này, bao gồm cả Hadsell và các đồng nghiệp của cô tại DeepMind, mục tiêu dài hạn là trí thông minh “chung”. Tuy nhiên, ý tưởng của Hadsell về trí thông minh nhân tạo không phải là ý tưởng thông thường — về một AI có thể thực hiện tất cả các nhiệm vụ trí tuệ mà con người có thể làm được, v.v. Cô ấy nói: “Việc tạo động lực cho công việc của chính cô ấy chưa bao giờ là ý tưởng xây dựng một trí tuệ siêu phàm”. “Nó còn hơn thế nữa: Làm thế nào để chúng ta nghĩ ra các phương pháp chung để phát triển trí thông minh để giải quyết các vấn đề cụ thể?” Ví dụ, trí thông minh của mèo nói chung là nó sẽ không bao giờ gặp phải một số vấn đề mới khiến nó bị đóng băng hoặc hỏng hóc. “Tôi thấy rằng mức độ thông minh của động vật, liên quan đến sự nhanh nhẹn đáng kinh ngạc trên thế giới, kết hợp các phương thức cảm giác khác nhau, thực sự hấp dẫn. Bạn biết đấy, con mèo sẽ không bao giờ học ngôn ngữ, và tôi không sao với điều đó.” Hadsell muốn xây dựng các thuật toán và robot có thể học và đối phó với nhiều vấn đề trong một lĩnh vực cụ thể. Ví dụ, một rô-bốt dự định dọn dẹp sau một sự cố hạt nhân có thể có một số mục tiêu cấp cao— “làm cho khu vực này an toàn” —và có thể chia mục tiêu đó thành các mục tiêu phụ nhỏ hơn, chẳng hạn như tìm vật liệu phóng xạ và loại bỏ chúng một cách an toàn . Tôi không thể cưỡng lại việc hỏi về ý thức. Một số nhà nghiên cứu AI, bao gồm Murray Shanahan, đồng nghiệp DeepMind của Hadsell, nghi ngờ rằng sẽ không thể xây dựng một AI hiện thân của trí thông minh tổng quát thực sự nếu không có một số loại ý thức. Bản thân Hadsell, mặc dù có nền tảng về triết học tôn giáo, nhưng lại có một cách tiếp cận thực tế mạnh mẽ. “Tôi có một cái nhìn khá đơn giản về ý thức,” cô nói. Đối với cô, ý thức có nghĩa là khả năng suy nghĩ bên ngoài khoảnh khắc hạn hẹp của “bây giờ” —để sử dụng trí nhớ để truy cập quá khứ và sử dụng trí tưởng tượng để hình dung tương lai. Con người chúng ta làm tốt điều này. Các sinh vật khác thì ít hơn: Mèo dường như có khoảng thời gian nhỏ hơn chúng ta, ít lập kế hoạch cho tương lai hơn. Lỗi, ít vẫn còn. Cô ấy không muốn bị lôi cuốn vào vấn đề hóc búa của ý thức và những tư tưởng triết học khác. Trên thực tế, hầu hết các nhà chế tạo robot dường như muốn tránh nó. Kormushev ví nó như câu hỏi “Tàu ngầm có bơi được không? … Không cần bàn cãi. Miễn là chúng làm những gì tôi muốn, chúng ta không phải tự hành hạ mình bằng câu hỏi.” Đẩy một cái chốt hình ngôi sao vào một lỗ hình ngôi sao có vẻ đơn giản, nhưng đó là một thành công nhỏ đối với một trong những robot của DeepMind. Những nỗ lực của robot để nhặt các khối cho thấy chúng ta không cần phải lo lắng về các vấn đề triết học liên quan đến ý thức nhân tạo. Tuy nhiên, khi đi quanh phòng thí nghiệm, tôi thấy mình đang cổ vũ một trong số họ. Một cánh tay rô bốt màu đỏ đang cố gắng nhặt một viên gạch hình ngôi sao và sau đó lắp nó vào một lỗ hình ngôi sao, như một đứa trẻ mới biết đi. Trong lần thử thứ hai, nó sẽ căn thẳng viên gạch và sắp đặt nó vào vị trí. Tôi thấy mình đang hét lên “Nào, anh bạn!” Khiến Hadsell nhướng mày. Sau đó, nó thành công đặt viên gạch vào đúng vị trí. Ít nhất một nhiệm vụ đã hoàn thành. Bây giờ, nó chỉ cần bám vào chiến lược đó trong khi học chơi Pong. Bài báo này xuất hiện trên ấn bản tháng 10 năm 2021 với tựa đề “Cách huấn luyện một robot đa năng.”

Back to top button