Artificial intelligence

Quá khứ đầy biến động và tương lai không chắc chắn của trí tuệ nhân tạo

Perceptron năm 1958 được quảng cáo là “thiết bị đầu tiên có thể suy nghĩ như bộ não con người.” Nó không hoàn toàn phù hợp với sự cường điệu. Vào mùa hè năm 1956, một nhóm các nhà toán học và khoa học máy tính đã tiếp quản tầng cao nhất của tòa nhà đặt khoa toán của Đại học Dartmouth. Trong khoảng tám tuần, họ đã tưởng tượng ra những khả năng của một lĩnh vực nghiên cứu mới. John McCarthy, khi đó là một giáo sư trẻ tại Dartmouth, đã đặt ra thuật ngữ “trí tuệ nhân tạo” khi viết đề xuất cho hội thảo, theo ông sẽ khám phá giả thuyết rằng “mọi khía cạnh của học tập hoặc bất kỳ tính năng nào khác của trí thông minh về nguyên tắc đều có thể được mô tả chính xác đến mức có thể tạo ra một chiếc máy để mô phỏng nó. ” Các nhà nghiên cứu tại cuộc họp huyền thoại đó đã phác thảo AI như chúng ta biết ngày nay. Nó đã làm nảy sinh nhóm điều tra viên đầu tiên: “những người theo chủ nghĩa tượng trưng”, những người có hệ thống chuyên gia đã đạt đến đỉnh cao vào những năm 1980. Những năm sau cuộc họp cũng chứng kiến ​​sự xuất hiện của các “nhà kết nối”, những người đã vất vả hàng thập kỷ trên mạng nơ-ron nhân tạo chỉ mới thành lập gần đây. Hai cách tiếp cận này từ lâu đã được coi là loại trừ lẫn nhau và sự cạnh tranh tài trợ giữa các nhà nghiên cứu đã tạo ra sự thù địch. Mỗi bên đều cho rằng nó đang trên con đường dẫn đến trí tuệ nhân tạo nói chung. Nhìn lại những thập kỷ kể từ cuộc họp đó cho thấy tần suất hy vọng của các nhà nghiên cứu AI đã bị dập tắt – và những thất bại đó đã ngăn cản họ đến mức nào. Ngày nay, ngay cả khi AI đang cách mạng hóa các ngành công nghiệp và đe dọa phá hủy thị trường lao động toàn cầu, nhiều chuyên gia vẫn tự hỏi liệu AI ngày nay có đang đạt đến giới hạn của nó hay không. Như Charles Choi đã mô tả trong “Bảy cách tiết lộ sự thất bại của AI”, những điểm yếu của các hệ thống học sâu ngày nay ngày càng trở nên rõ ràng hơn. Tuy nhiên, có rất ít cảm giác về sự diệt vong giữa các nhà nghiên cứu. Vâng, có thể chúng ta đang ở trong một mùa đông AI nữa trong tương lai không xa. Nhưng đây có thể chỉ là thời điểm khi các kỹ sư được truyền cảm hứng cuối cùng đưa chúng ta vào một mùa hè vĩnh cửu của tâm trí máy móc. Các nhà nghiên cứu đang phát triển AI mang tính biểu tượng đặt ra mục tiêu dạy máy tính về thế giới một cách rõ ràng. Nguyên lý sáng lập của họ cho rằng kiến ​​thức có thể được biểu diễn bằng một tập hợp các quy tắc và các chương trình máy tính có thể sử dụng logic để vận dụng kiến ​​thức đó. Các nhà biểu tượng hàng đầu Allen Newell và Herbert Simon lập luận rằng nếu một hệ thống biểu tượng có đủ các dữ kiện và tiền đề có cấu trúc, sự tổng hợp cuối cùng sẽ tạo ra trí thông minh rộng lớn. Mặt khác, các nhà kết nối, lấy cảm hứng từ sinh học, đã làm việc trên “mạng nơ-ron nhân tạo” có thể tự thu nhận thông tin và hiểu nó. Ví dụ tiên phong là perceptron, một cỗ máy thí nghiệm do nhà tâm lý học Frank Rosenblatt của Cornell chế tạo với sự tài trợ của Hải quân Hoa Kỳ. Nó có 400 cảm biến ánh sáng cùng hoạt động như một võng mạc, cung cấp thông tin cho khoảng 1.000 “tế bào thần kinh” thực hiện quá trình xử lý và tạo ra một đầu ra duy nhất. Năm 1958, một bài báo trên tờ New York Times dẫn lời Rosenblatt nói rằng “cỗ máy sẽ là thiết bị đầu tiên suy nghĩ như bộ não con người.” Frank Rosenblatt đã phát minh ra perceptron, mạng nơ-ron nhân tạo đầu tiên. Bộ phận sưu tập bản thảo và hiếm của Đại họcornell Sự lạc quan không kiềm chế đã khuyến khích các cơ quan chính phủ ở Hoa Kỳ và Vương quốc Anh đổ tiền vào nghiên cứu đầu cơ. Năm 1967, giáo sư Marvin Minsky của MIT đã viết: “Trong vòng một thế hệ nữa … vấn đề tạo ra ‘trí tuệ nhân tạo’ về cơ bản sẽ được giải quyết.” Tuy nhiên, ngay sau đó, nguồn tài trợ của chính phủ bắt đầu cạn kiệt, được thúc đẩy bởi cảm giác rằng nghiên cứu AI không phù hợp với sự cường điệu của chính nó. Những năm 1970 chứng kiến ​​mùa đông AI đầu tiên. Tuy nhiên, những người tin tưởng thật sự đã tin vào điều đó. Và đến đầu những năm 1980, sự nhiệt tình đổi mới đã mang lại thời kỳ hoàng kim cho các nhà nghiên cứu về AI mang tính biểu tượng, những người đã nhận được sự hoan nghênh và tài trợ cho “hệ thống chuyên gia” mã hóa kiến ​​thức của một lĩnh vực cụ thể, chẳng hạn như luật hoặc y học. Các nhà đầu tư hy vọng các hệ thống này sẽ nhanh chóng tìm thấy các ứng dụng thương mại. Dự án AI mang tính biểu tượng nổi tiếng nhất bắt đầu vào năm 1984, khi nhà nghiên cứu Douglas Lenat bắt đầu thực hiện một dự án mà ông đặt tên là Cyc nhằm mã hóa cảm giác thông thường trong một cỗ máy. Cho đến ngày nay, Lenat và nhóm của ông tiếp tục bổ sung các thuật ngữ (sự kiện và khái niệm) vào bản thể học của Cyc và giải thích mối quan hệ giữa chúng thông qua các quy tắc. Đến năm 2017, nhóm đã có 1,5 triệu điều khoản và 24,5 triệu quy tắc. Tuy nhiên, Cyc vẫn chưa đạt được trí thông minh chung. Vào cuối những năm 1980, những cơn gió lạnh của thương mại đã mang đến mùa đông AI thứ hai. Thị trường cho các hệ thống chuyên gia sụp đổ vì chúng yêu cầu phần cứng chuyên dụng và không thể cạnh tranh với các máy tính để bàn rẻ hơn đang trở nên phổ biến. Đến những năm 1990, việc nghiên cứu AI hoặc mạng nơ-ron mang tính biểu tượng không còn hợp thời về mặt học thuật nữa, bởi vì cả hai chiến lược dường như đã thất bại. Nhưng những chiếc máy tính rẻ tiền thay thế các hệ thống chuyên gia hóa ra lại là một lợi ích cho những người kết nối, những người đột nhiên có quyền truy cập vào đủ sức mạnh máy tính để chạy các mạng nơ-ron với nhiều lớp nơ-ron nhân tạo. Các hệ thống như vậy được gọi là mạng nơ-ron sâu và cách tiếp cận mà chúng kích hoạt được gọi là học sâu. Geoffrey Hinton, tại Đại học Toronto, đã áp dụng một nguyên tắc được gọi là lan truyền ngược để làm cho các lưới thần kinh học hỏi từ những sai lầm của chúng (xem “Cách hoạt động của Deep Learning”). Một trong những postdocs của Hinton, Yann LeCun, đã đến Phòng thí nghiệm AT&T Bell vào năm 1988, nơi ông và một postdoc tên là Yoshua Bengio đã sử dụng mạng thần kinh để nhận dạng ký tự quang học; Các ngân hàng Hoa Kỳ đã sớm áp dụng kỹ thuật xử lý séc. Hinton, LeCun và Bengio cuối cùng đã giành được Giải thưởng Turing 2019 và đôi khi được gọi là bố già của học sâu. Nhưng những người ủng hộ mạng lưới thần kinh vẫn còn một vấn đề lớn: Họ có một khung lý thuyết và sức mạnh máy tính đang phát triển, nhưng không có đủ dữ liệu kỹ thuật số trên thế giới để đào tạo hệ thống của họ, ít nhất là không cho hầu hết các ứng dụng. Mùa xuân chưa đến. Trong hai thập kỷ qua, mọi thứ đã thay đổi. Đặc biệt, World Wide Web nở rộ, và đột nhiên, có dữ liệu ở khắp mọi nơi. Máy ảnh kỹ thuật số và sau đó là điện thoại thông minh lấp đầy Internet với hình ảnh, các trang web như Wikipedia và Reddit chứa đầy văn bản kỹ thuật số có thể truy cập miễn phí và YouTube có rất nhiều video. Cuối cùng, đã có đủ dữ liệu để đào tạo mạng nơ-ron cho một loạt các ứng dụng. Sự phát triển lớn khác đến từ ngành công nghiệp game. Các công ty như Nvidia đã phát triển chip được gọi là đơn vị xử lý đồ họa (GPU) để xử lý nặng cần thiết để hiển thị hình ảnh trong trò chơi điện tử. Các nhà phát triển trò chơi đã sử dụng GPU để thực hiện các loại đổ bóng và biến đổi hình học phức tạp. Các nhà khoa học máy tính cần sức mạnh tính toán nghiêm túc đã nhận ra rằng về cơ bản họ có thể đánh lừa GPU thực hiện các nhiệm vụ khác – chẳng hạn như đào tạo mạng nơ-ron. Nvidia nhận thấy xu hướng này và tạo ra CUDA, một nền tảng cho phép các nhà nghiên cứu sử dụng GPU để xử lý mục đích chung. Trong số các nhà nghiên cứu này có một Tiến sĩ. sinh viên trong phòng thí nghiệm của Hinton tên là Alex Krizhevsky, người đã sử dụng CUDA để viết mã cho một mạng thần kinh đã thổi bay mọi người vào năm 2012. Giáo sư Marvin Minsky của MIT đã dự đoán vào năm 1967 rằng trí tuệ nhân tạo thực sự sẽ được tạo ra trong vòng một thế hệ. cho cuộc thi ImageNet, cuộc thi đã thách thức các nhà nghiên cứu AI xây dựng hệ thống thị giác máy tính có thể sắp xếp hơn 1 triệu hình ảnh thành 1.000 loại đối tượng. Mặc dù AlexNet của Krizhevsky không phải là mạng thần kinh đầu tiên được sử dụng để nhận dạng hình ảnh, nhưng màn trình diễn của nó trong cuộc thi năm 2012 đã thu hút sự chú ý của thế giới. Tỷ lệ lỗi của AlexNet là 15 phần trăm, so với tỷ lệ lỗi 26 phần trăm của mục nhập tốt thứ hai. Mạng nơ-ron nhờ vào chiến thắng chạy trốn của nó nhờ sức mạnh GPU và cấu trúc “sâu” gồm nhiều lớp chứa tổng cộng 650.000 nơ-ron. Trong cuộc thi ImageNet năm sau, hầu như tất cả mọi người đều sử dụng mạng nơ-ron. Đến năm 2017, tỷ lệ lỗi của nhiều ứng cử viên đã giảm xuống còn 5%, và ban tổ chức đã kết thúc cuộc thi. Học sâu đã thành công. Với sức mạnh tính toán của GPU và nhiều dữ liệu kỹ thuật số để đào tạo hệ thống học sâu, ô tô tự lái có thể điều hướng đường đi, trợ lý giọng nói có thể nhận dạng giọng nói của người dùng và trình duyệt web có thể dịch giữa hàng chục ngôn ngữ. AI cũng đã đánh bại các nhà vô địch của con người ở một số trò chơi mà trước đây máy móc được cho là không thể chơi được, bao gồm trò chơi bàn cờ cổ đại Go và trò chơi điện tử StarCraft II. Sự bùng nổ hiện tại của AI đã chạm đến mọi ngành công nghiệp, đưa ra những cách thức mới để nhận ra các mẫu và đưa ra các quyết định phức tạp. Nhìn lại hàng thập kỷ qua cho thấy tần suất hy vọng của các nhà nghiên cứu AI đã bị bóp chết – và những thất bại đó đã ngăn cản họ đến mức nào. Nhưng ngày càng nhiều thành tích trong học tập sâu dựa vào việc tăng số lượng lớp trong mạng thần kinh và tăng thời gian GPU dành riêng cho việc đào tạo chúng. Một phân tích từ công ty nghiên cứu AI OpenAI cho thấy lượng sức mạnh tính toán cần thiết để đào tạo các hệ thống AI lớn nhất đã tăng gấp đôi sau mỗi hai năm cho đến năm 2012 — và sau đó, nó tăng gấp đôi sau mỗi 3,4 tháng. Như Neil C. Thompson và các đồng nghiệp của ông viết trong “Deep Learning’s Diminishing Returns”, nhiều nhà nghiên cứu lo lắng rằng nhu cầu tính toán của AI đang đi trên một quỹ đạo không bền vững. Để tránh làm hao hụt ngân sách năng lượng của hành tinh, các nhà nghiên cứu cần tìm ra những cách thức xây dựng các hệ thống này đã được thiết lập sẵn. Mặc dù có vẻ như trại lưới thần kinh đã hoàn toàn cản trở những người biểu tượng, nhưng trên thực tế, kết quả của trận chiến không đơn giản như vậy. Lấy ví dụ, bàn tay robot từ OpenAI đã trở thành tiêu đề cho việc điều khiển và giải một khối Rubik. Robot đã sử dụng lưới thần kinh và AI tượng trưng. Đó là một trong nhiều hệ thống biểu tượng thần kinh mới sử dụng lưới thần kinh để nhận thức và AI biểu tượng để lập luận, một phương pháp kết hợp có thể mang lại lợi ích cả về hiệu quả và khả năng giải thích. Mặc dù các hệ thống học sâu có xu hướng là hộp đen đưa ra suy luận theo những cách không rõ ràng và bí ẩn, nhưng các hệ thống biểu tượng thần kinh cho phép người dùng nhìn sâu hơn và hiểu cách AI đưa ra kết luận. Quân đội Hoa Kỳ đặc biệt cảnh giác với việc dựa vào các hệ thống hộp đen, như Evan Ackerman mô tả trong “Cách quân đội Hoa Kỳ biến robot thành người chơi trong đội”, vì vậy các nhà nghiên cứu quân đội đang nghiên cứu nhiều phương pháp kết hợp để điều khiển robot và xe tự hành của họ. Hãy tưởng tượng nếu bạn có thể lấy một trong những robot dọn đường của Quân đội Hoa Kỳ và yêu cầu nó pha cho bạn một tách cà phê. Đó là một mệnh đề buồn cười ngày nay, bởi vì các hệ thống học sâu được xây dựng cho các mục đích hẹp và không thể khái quát khả năng của chúng từ nhiệm vụ này sang nhiệm vụ khác. Hơn nữa, việc học một nhiệm vụ mới thường yêu cầu AI phải xóa mọi thứ mà nó biết về cách giải quyết nhiệm vụ trước đó của nó, một câu hỏi hóc búa được gọi là sự lãng quên thảm khốc. Tại DeepMind, phòng thí nghiệm AI của Google có trụ sở tại London, nhà chế tạo robot nổi tiếng Raia Hadsell đang giải quyết vấn đề này bằng nhiều kỹ thuật phức tạp. Trong “How DeepMind Is Reinventing the Robot”, Tom Chivers giải thích lý do tại sao vấn đề này lại quan trọng đối với các robot hoạt động trong thế giới thực không thể đoán trước. Các nhà nghiên cứu khác đang nghiên cứu các loại meta-learning mới với hy vọng tạo ra các hệ thống AI học cách học và sau đó áp dụng kỹ năng đó vào bất kỳ lĩnh vực hoặc nhiệm vụ nào. Tất cả những chiến lược này có thể hỗ trợ nỗ lực của các nhà nghiên cứu để đạt được mục tiêu cao nhất của họ: xây dựng AI với loại trí thông minh linh hoạt mà chúng ta theo dõi con mình phát triển. Trẻ mới biết đi không cần một lượng lớn dữ liệu để đưa ra kết luận. Họ chỉ đơn giản là quan sát thế giới, tạo ra một mô hình tinh thần về cách nó hoạt động, thực hiện hành động và sử dụng kết quả của hành động của họ để điều chỉnh mô hình tinh thần đó. Họ lặp đi lặp lại cho đến khi họ hiểu. Quá trình này cực kỳ hiệu quả và hiệu quả, và nó vượt xa khả năng của ngay cả những AI tiên tiến nhất hiện nay. Mặc dù mức độ nhiệt tình hiện tại đã mang lại cho AI chu kỳ cường điệu của chính Gartner và mặc dù nguồn tài trợ dành cho AI đã đạt mức cao nhất mọi thời đại, nhưng vẫn có rất ít bằng chứng cho thấy tương lai của chúng ta sẽ có một khó khăn. Các công ty trên khắp thế giới đang áp dụng các hệ thống AI vì họ nhận thấy những cải tiến tức thì cho lợi nhuận của mình và họ sẽ không bao giờ quay trở lại. Vẫn còn phải xem liệu các nhà nghiên cứu sẽ tìm cách điều chỉnh học sâu để làm cho nó linh hoạt và mạnh mẽ hơn, hay đưa ra các phương pháp tiếp cận mới chưa từng được mơ ước trong nhiệm vụ 65 năm qua để làm cho máy móc giống chúng ta hơn. Bài báo này xuất hiện trên ấn bản tháng 10 năm 2021 với tên gọi “Quá khứ hỗn loạn và tương lai không chắc chắn của AI.”

Back to top button