Bài tập

Sự khác biệt giữa Trí tuệ Nhân tạo, Học máy và Học sâu

Huy Erick

Trí tuệ nhân tạo là tương lai. Trí tuệ nhân tạo là khoa học viễn tưởng. Trí tuệ nhân tạo đã trở thành một phần của cuộc sống hàng ngày của chúng ta. Tất cả...

Trí tuệ nhân tạo là tương lai. Trí tuệ nhân tạo là khoa học viễn tưởng. Trí tuệ nhân tạo đã trở thành một phần của cuộc sống hàng ngày của chúng ta. Tất cả những tuyên bố đó đều đúng, chỉ phụ thuộc vào loại Trí tuệ nhân tạo mà bạn đang nói đến.

Ví dụ, khi chương trình AlphaGo của Google DeepMind đánh bại Kiến trúc sư Hàn Quốc Lee Se-dol trong trò chơi cờ Go vào đầu năm nay, các thuật ngữ Trí tuệ nhân tạo, Học máy và Học sâu được sử dụng trong phương tiện truyền thông để mô tả cách AlphaGo đã chiến thắng. Cả ba khái niệm này đều là lý do tại sao AlphaGo đã đánh bại Lee Se-Dol. Nhưng chúng không phải là những thứ giống nhau.

Cách dễ nhất để nghĩ về mối quan hệ giữa chúng là hình dung chúng như các hình tròn tâm đồng tâm với Trí tuệ nhân tạo - ý tưởng đến trước - lớn nhất, sau đó Học máy - mạnh mẽ hơn về sau, và cuối cùng Học sâu - đang thúc đẩy cuộc cách mạng Trí tuệ nhân tạo ngày nay - khớp với cả hai.

Từ thất bại đến thịnh vượng

Trí tuệ nhân tạo đã là một phần của trí tưởng tượng của chúng ta và nảy sinh trong các phòng thí nghiệm nghiên cứu từ khi một số lượng nhỏ các nhà khoa học máy tính tập hợp quanh thuật ngữ này tại Hội nghị Dartmouth vào năm 1956, và đã sinh ra lĩnh vực Trí tuệ nhân tạo. Trong những thập kỷ kể từ đó, Trí tuệ nhân tạo đã được khen ngợi là chìa khóa cho tương lai sáng sủa của nền văn minh và bị quăng vào cái thùng rác công nghệ như một ý tưởng điên rồ của những kẻ thổi phồng. Thực ra, cho đến năm 2012, nó đã có chút của cả hai.

Trong những năm gần đây, trí tuệ nhân tạo đã bùng nổ, đặc biệt là từ năm 2015. Điều đó liên quan đến tính sẵn có rộng rãi của GPU làm cho xử lý song song trở nên ngày càng nhanh hơn, rẻ hơn và mạnh mẽ hơn. Điều này cũng liên quan đến cú đấm hai trong một của lưu trữ không giới hạn và dòng dữ liệu đa dạng (cả chuyển động Dữ liệu lớn đó) - hình ảnh, văn bản, giao dịch, dữ liệu bản đồ, bạn đặt tên cho nó.

Hãy đi qua cách mà các nhà khoa học máy tính đã di chuyển từ một thất bại tương đối - cho đến năm 2012 - đến một thịnh vượng đã giải phóng các ứng dụng được sử dụng bởi hàng trăm triệu người hàng ngày.

Trí tuệ nhân tạo - Trí tuệ nhân cách được trình diễn bởi các Máy móc

Trong hội nghị mùa hè đó vào năm 1956, giấc mơ của các tiên phong Trí tuệ nhân tạo đó là xây dựng các máy phức tạp - được kích hoạt bởi máy tính mới nổi - có các đặc điểm giống với Trí tuệ nhân cách của con người. Đây là khái niệm chúng ta nghĩ đến như "Trí tuệ nhân tạo tổng quát" - các máy tuyệt vời có tất cả các giác quan của chúng ta (có thể là nhiều hơn), tất cả lý do của chúng ta và suy nghĩ hoàn toàn giống như chúng ta. Bạn đã thấy những máy này mãi mãi trong các bộ phim như người bạn - C-3PO - và kẻ thù - Kẻ diệt diệt vong. Các máy Trí tuệ nhân tạo tổng quát vẫn tồn tại trong các bộ phim và tiểu thuyết khoa học viễn tưởng vì lý do chúng ta không thể thực hiện được, ít nhất là chưa.

Những gì chúng ta có thể làm rơi vào khái niệm "Trí tuệ nhân tạo hẹp." Các công nghệ có khả năng thực hiện các nhiệm vụ cụ thể cũng như, hoặc tốt hơn, chúng ta con người có thể. Ví dụ về Trí tuệ nhân tạo hẹp là các công nghệ như phân loại hình ảnh trên dịch vụ như Pinterest và nhận dạng khuôn mặt trên Facebook.

Đó là những ví dụ về Trí tuệ nhân tạo hẹp trong thực tế. Các công nghệ này biểu hiện một số khía cạnh của trí tuệ nhân cách. Nhưng làm thế nào? Trí tuệ đó đến từ đâu? Điều đó đưa chúng ta đến vòng tròn tiếp theo, Học máy.

Học máy - Một phương pháp để đạt được Trí tuệ nhân tạo

Học máy ở dạng cơ bản nhất là việc sử dụng thuật toán để phân tích dữ liệu, học từ đó và sau đó đưa ra một quyết định hoặc dự đoán về một điều gì đó trong thế giới. Vì vậy, thay vì lập trình các rutin phần mềm bằng một tập hợp cụ thể các chỉ thị để hoàn thành một nhiệm vụ cụ thể, máy được "đào tạo" bằng cách sử dụng lượng lớn dữ liệu và thuật toán cho phép nó học cách thực hiện nhiệm vụ.

Học máy trực tiếp từ các tinh thần của nhóm AI sớm. Các phương pháp thuật toán trong những năm qua đã bao gồm việc học cây quyết định, lập trình logic bắt đầu biến đổi, gom nhóm, học theo phần thưởng và các mạng Bayesian khác nhau. Như chúng ta biết, không có phương pháp nào đạt được mục tiêu cuối cùng của Trí tuệ nhân tạo tổng quát, và ngay cả Trí tuệ nhân tạo hẹp cũng hầu như là không thể đạt được với các phương pháp học máy sớm.

Để tìm hiểu thêm về học sâu, hãy nghe tập phim ảnh AI thứ 113 với Will Ramey của NVIDIA.

Như đã chứng tỏ, một trong những lĩnh vực ứng dụng tốt nhất của học máy trong nhiều năm là thị giác máy tính, mặc dù vẫn cần rất nhiều mã tay để hoàn thành công việc. Mọi người sẽ soạn các bộ phân lớp mã tay như bộ lọc phát hiện cạnh để chương trình có thể xác định nơi đối tượng bắt đầu và kết thúc; phát hiện hình dạng để xác định xem có bao nhiêu mặt; bộ phân loại để nhận dạng các chữ cái "S-T-O-P". Từ tất cả những bộ phân lớp mã tay đó, họ sẽ phát triển thuật toán để hiểu được hình ảnh và "học" để xác định xem đó có phải là biển stop hay không.

Tốt, nhưng không đến mức tồn tại một cách tưởng tượng. Đặc biệt vào một ngày sương mù khi biển không hoàn hảo hoặc cây che khuất một phần nó. Có một lý do là tầm nhìn máy tính và phát hiện hình ảnh không đến gần như bằng người cho đến gần đây, nó quá mảnh dẻ và quá dễ mắc lỗi.

Thời gian và các thuật toán học phù hợp đã tạo ra sự khác biệt.

Học sâu - Một kỹ thuật để triển khai học máy

Một phương pháp thuật toán khác từ nhóm học máy sớm, mạng neural nhân tạo, đã xuất hiện và chủ yếu đã qua đi qua các thập kỷ. Mạng neural được truyền cảm hứng từ hiểu biết của chúng ta về sinh học của não của chúng ta - tất cả các kết nối giữa các tế bào thần kinh. Nhưng, khác với não sinh học, trong đó bất kỳ tế bào thần kinh nào cũng có thể kết nối với bất kỳ tế bào thần kinh nào khác trong một khoảng cách vật lý nhất định, các mạng neural nhân tạo này có các lớp, kết nối và hướng của sự lan truyền dữ liệu rời rạc.

Bạn có thể, ví dụ, lấy một hình ảnh, chia nhỏ thành một loạt các ô được đưa vào lớp neural đầu tiên của mạng neural. Trong lớp đầu tiên, từng tế bào thần kinh riêng lẻ, sau đó truyền dữ liệu đến lớp thứ hai. Lớp thứ hai của tế bào thần kinh thực hiện công việc của nó và tiếp tục như vậy cho đến lớp cuối cùng và đầu ra cuối cùng được tạo ra.

Mỗi tế bào thần kinh gán trọng số cho đầu vào của nó - khả năng đúng hoặc sai của nó so với nhiệm vụ được thực hiện. Đầu ra cuối cùng sau đó được xác định bằng tổng của những trọng số đó. Vì vậy, hãy nghĩ về ví dụ biển stop của chúng ta. Các thuộc tính của hình ảnh biển stop được chia nhỏ và "kiểm tra" bởi các tế bào thần kinh - hình dạng bát giác, màu đỏ màu xe cứu hỏa, chữ cái đặc biệt của nó, kích thước dấu hiệu giao thông và chuyển động hoặc không chuyển động. Nhiệm vụ của mạng neural là kết luận xem đây có phải là biển stop hay không. Nó đưa ra một "vector xác suất", thực sự là một dự đoán đã được đào tạo, dựa trên trọng số. Trong ví dụ của chúng ta, hệ thống có thể tự tin 86% rằng hình ảnh đó là biển stop, tự tin 7% rằng đó là biển giới hạn tốc độ và 5% rằng đó là con diều bị mắc kẹt trên cây, và vân vân - và kiến trúc mạng sau đó cho biết với mạng neural xem nó có đúng hay không.

Ngay cả ví dụ này cũng đang đi xa trước, vì cho đến gần đây, các mạng neural đều bị xa lánh bởi cộng đồng nghiên cứu AI. Chúng đã xuất hiện từ những ngày đầu của AI, và ít tạo ra ít điều gì đó về "trí tuệ". Vấn đề là ngay cả các mạng neural cơ bản nhất cũng rất tốn nhiều tính toán, nó không phải là một phương pháp thực tế. Tuy nhiên, một nhóm nghiên cứu đảo ngược nhỏ do Geoffrey Hinton dẫn đầu tại Đại học Toronto vẫn tiếp tục, cuối cùng đặt song song các thuật toán để chạy và chứng minh khái niệm, nhưng không cho đến khi GPU được triển khai trong nỗ lực đó mà hứa hẹn được thực hiện.

Nếu chúng ta trở lại ví dụ biển stop của chúng ta, khả năng rất cao là trong quá trình điều chỉnh hoặc "đào tạo" mạng, nó sẽ đưa ra những câu trả lời sai - rất nhiều. Những gì nó cần là sự đào tạo. Nó cần xem hàng trăm nghìn, thậm chí hàng triệu hình ảnh, cho đến khi trọng số của các đầu vào của tế bào thần kinh được chỉnh chính xác để nó đưa ra câu trả lời đúng gần như mọi lần - dù có sương mù hay không, nắng hay mưa. Đó là thời điểm mà mạng neural đã tự dạy cho mình những gì một biển stop trông như thế nào; hoặc khuôn mặt của mẹ bạn trong trường hợp của Facebook; hoặc con mèo, đó là điều mà Andrew Ng đã làm vào năm 2012 tại Google.

Sự đột phá của Ng là lấy những mạng neural này và thực sự làm cho chúng lớn hơn, tăng số lớp và số tế bào thần kinh, và sau đó chạy một lượng lớn dữ liệu qua hệ thống để huấn luyện nó. Trong trường hợp của Ng, đó là hình ảnh từ 10 triệu video trên YouTube. Ng đặt "sâu" vào học sâu, mô tả tất cả các lớp trong các mạng neural này.

Ngày nay, việc nhận dạng hình ảnh bằng các máy được đào tạo thông qua học sâu trong một số kịch bản tốt hơn cả con người, và điều đó bao gồm từng con mèo đến việc nhận dạng chỉ số ung thư trong máu và khối u trong quét MRI. AlphaGo của Google đã học cách chơi trò chơi và huấn luyện cho trận đấu Go của nó - nó điều chỉnh mạng neural của mình - bằng cách chơi chống lại chính nó lặp đi lặp lại.

Nhờ vào Học sâu, Trí tuệ nhân tạo có một tương lai sáng

Học sâu đã cho phép nhiều ứng dụng thực tế của học máy và mở rộng toàn bộ lĩnh vực Trí tuệ nhân tạo. Học sâu phân tách các nhiệm vụ theo cách làm cho tất cả các loại trợ giúp máy trở nên khả thi, thậm chí có thể. Xe tự lái, chăm sóc sức khỏe phòng ngừa tốt hơn, thậm chí các gợi ý phim tốt hơn, tất cả đều có sẵn ngay bây giờ hoặc trên tầm nhìn. Trí tuệ nhân tạo là hiện tại và tương lai. Nhờ vào sự giúp đỡ của Học sâu, Trí tuệ nhân tạo có thể đạt được trạng thái viễn tưởng khoa học mà chúng ta đã tưởng tượng từ lâu. Bạn có một C-3PO, tôi sẽ nhận nó. Bạn hãy giữ Kẻ diệt diệt vong của bạn.

1