Deep Learning (Học sâu) đã phát triển và góp phần tạo nên một bước tiến lớn trong các ngành và lĩnh vực kinh doanh hiện nay. Học sâu là một nhánh của học máy triển khai các thuật toán để xử lý dữ liệu và bắt chước quá trình tư duy và thậm chí phát triển các tính năng trừu tượng.
Bạn đang xem: Thuật toán học sâu (Deep Learning Algorithms)

Deep Learning sử dụng các lớp thuật toán để xử lý dữ liệu, hiểu giọng nói của con người và nhận dạng các đối tượng một cách trực quan. Trong học sâu, thông tin được chuyển qua từng lớp và đầu ra của lớp trước đóng vai trò là đầu vào cho lớp tiếp theo. Lớp đầu tiên trong mạng được gọi là lớp đầu vào (input layer), trong khi lớp cuối cùng là lớp đầu ra (output layer), các lớp ở giữa được gọi là các lớp ẩn (hidden layer).
Một điểm đặc biệt khác của học sâu là khả năng trích xuất đặc trưng, sử dụng một thuật toán để tự động xây dựng các đặc trưng có ý nghĩa cho việc học tập, đào tạo và hiểu biết trong dữ liệu.
Lịch sử phát triển của Deep Learning trong nhiều năm
Thế giới hiện đang chứng kiến một cuộc cách mạng AI toàn cầu trên tất cả các lĩnh vực. Và một trong những yếu tố thúc đẩy cuộc cách mạng AI này là Học sâu. Nhờ những gã khổng lồ như Google và Facebook, Deep Learning giờ đây đã trở thành một thuật ngữ phổ biến và mọi người có thể nghĩ rằng đó là một khám phá gần đây. Nhưng bạn có thể ngạc nhiên khi biết rằng lịch sử của học sâu có từ những năm 1940.
Thật vậy, học sâu không xuất hiện trong một sớm một chiều, đúng hơn nó đã phát triển từ từ và dần dần trong hơn bảy thập kỷ. Bài viết này nhằm giúp bạn tìm hiểu lịch sử của Deep Learning để điểm lại những khám phá quan trọng mà các nhà nghiên cứu đã thực hiện và tất cả những bước đi nhỏ bé này đã đóng góp như thế nào vào kỷ nguyên hiện đại của sự bùng nổ Học sâu.

Lịch sử của học sâu bắt đầu từ năm 1943 khi Warren Mc
Culloch và Walter Pitts tạo ra một mô hình máy tính dựa trên các mạng thần kinh mô phỏng hoạt động của não bộ con người. Warren Mc
Culloch và Walter Pitts đã sử dụng sự kết hợp giữa toán học và thuật toán để bắt chước quá trình suy nghĩ. Mạng nơ-ron này có khả năng rất hạn chế và không có cơ chế học hỏi. Tuy nhiên, nó sẽ đặt nền tảng cho mạng nơ-ron nhân tạo và Deep Learning.
Năm 1957, trong bài báo của mình “Perceptron: A Perceiving and Recognition Automaton” (Perceptron: Thuật toán để học có giám sát các phân loại nhị phân), Rosenblatt cho thấy diện mạo mới của mạng nơ-ron Mc
Culloch-Pitts – Perceptron có khả năng học tập thực sự để tự phân loại dựa trên phép tính nhị phân. Điều này truyền cảm hứng cho cuộc cách mạng trong nghiên cứu mạng nơ-ron nông trong nhiều năm sau, cho đến mùa đông AI đầu tiên.
Henry J. Kelley trong bài báo của mình, “Lý thuyết Gradient về các đường bay tối ưu” cho thấy phiên bản đầu tiên của Back Propagation Model. Mô hình của ông phù hợp với Lý thuyết điều khiển, nhưng nó đặt nền tảng cho việc hoàn thiện thêm mô hình và sẽ được sử dụng trong ANN trong những năm sau đó.
Năm 1962, ra đời Backpropagation With Chain Rule – Thuật toán Lan truyền ngược với quy tắc chuỗi (Quy tắc chuỗi là một công thức biểu thị đạo hàm), Stuart Dreyfus trong bài báo của mình, “Giải pháp số cho các phép tính biến phân”, (Phép tính biến phân: là một ngành giải tích toán học sử dụng variations, là những thay đổi nhỏ của hàm và phiếm hàm, để tìm cực đại và cực tiểu) cho thấy một thuật toán Lan truyền ngược sử dụng quy tắc chuỗi đạo hàm đơn giản, thay vì lập trình động mà trước đó đang sử dụng. Đây là một bước nhỏ khác giúp củng cố tương lai của Deep Learning.
Năm 1965, khai sinh mạng Học sâu, Alexey Grigoryevich Ivakhnenko cùng với Valentin Grigorʹevich Lapa, cho ra đời Hierarchical Representation of Neural Network (biểu diễn phân cấp của mạng nơ-ron) sử dụng chức năng kích hoạt đa thức và được đào tạo bằng Phương pháp xử lý dữ liệu nhóm (GMDH). Hiện nó được coi là Perceptron nhiều lớp đầu tiên và Ivakhnenko thường được coi là cha đẻ của Deep Learning.
Năm 1969, Sự sụp đổ của Perceptron, Marvin Minsky và Seymour Papert xuất bản cuốn sách “Perceptrons” trong đó họ chỉ ra rằng Rosenblatt’s Perceptron không thể giải quyết các chức năng phức tạp như XOR. Đối với các hàm Perceptron như vậy nên được đặt trong nhiều lớp ẩn làm ảnh hưởng đến thuật toán học Perceptron. Sự thất bại này khởi đầu một mùa đông của nghiên cứu mạng nơ-ron.
Năm 1970, Seppo Linnainmaa công bố phương pháp chung để phân biệt tự động cho Backpropagation và ứng dụng nó vào trong mã máy tính. Nghiên cứu về Backpropagation hiện đã đi rất xa, nhưng nó sẽ không được thực hiện trong mạng nơ-ron cho mãi tới thập kỷ sau.
Năm 1971, Alexey Grigoryevich Ivakhnenko tiếp tục nghiên cứu của mình về Neural Network. Ông tạo ra mạng thần kinh sâu 8 lớp bằng cách sử dụng Group Method of Data Handling (Phương pháp xử lý dữ liệu theo nhóm), viết tắt là GMDH.
Năm 1980, mạng CNN ra đời, Kunihiko Fukushima đưa ra Neocognitron, kiến trúc mạng nơ-ron phức hợp đầu tiên có thể nhận ra các mẫu hình ảnh chẳng hạn như các ký tự viết tay.
Năm 1982, ra đời Hopfield Network – tiền thân của RNN, John Hopfield tạo ra Mạng Hopfield, không có gì khác ngoài một mạng nơ-ron tuần hoàn. Nó hoạt động như một hệ thống bộ nhớ có thể định địa chỉ nội dung và sẽ là công cụ cho các mô hình RNN tiếp theo.
Cùng năm này, đề xuất ứng dụng Back Propagation vào mạng ANN, Paul Werbos, trên luận án bằng tiến sĩ của mình năm 1974, ông đề xuất việc sử dụng Backpropagation để lan truyền lỗi trong quá trình đào tạo Mạng thần kinh. Kết quả từ luận án tiến sĩ của ông cuối cùng được cộng đồng nghiên cứu mạng nơ-ron được áp dụng thực tế sau này.
Năm 1985, ra đời Boltzmann Machine, David H. Ackley, Geoffrey Hinton và Terrence Sejnowski đã tạo ra Boltzmann Machine là một Recurrent Neural Network (Mạng nơ-ron lặp lại ngẫu nhiên). Mạng nơ-ron này chỉ có lớp đầu vào và ẩn lớp nhưng không có lớp đầu ra.
Năm 1986, ra đời Net
Talk – ANN học giọng nói, Terry Sejnowski tạo ra Ne
Talk, một mạng nơ-ron học cách phát âm văn bản tiếng Anh bằng cách hiển thị văn bản dưới dạng đầu vào và khớp phiên âm để so sánh.
Cũng trong năm này, ứng dụng Back Propagation, Geoffrey Hinton, Rumelhart và Williams trong bài báo của họ “Learning Representations by back-propagating errors – Học biểu diễn bằng lỗi thuật toán Lan truyền ngược” cho thấy việc triển khai thành công quá trình lan truyền ngược trong mạng nơ-ron. Nó đã mở ra những cánh cổng cho việc đào tạo mạng nơ-ron sâu phức tạp một cách dễ dàng hơn, vốn là trở ngại chính trong những nghiên cứu trước đây.
Vào thời điểm này, Máy Boltzmann bị hạn chế, Paul Smolensky đưa ra một bản nâng cấp của Boltzmann Machine không có kết nối nội bộ lớp trong đầu vào và lớp ẩn. Nó được gọi là Máy Boltzmann hạn chế (RBM). Nó đã trở nên phổ biến trong nhiều năm tới, đặc biệt là để xây dựng các Recommender System (Hệ thống đề xuất).
Năm 1989, mạng CNN (Convolutional Neural Network – Mạng tích chập) sử dụng Backpropagation, Yann Le
Cun sử dụng phương pháp lan truyền ngược để huấn luyện mạng nơ-ron phức hợp để nhận dạng các chữ số viết tay. Đây là một thời điểm đột phá vì nó đặt nền tảng của tầm nhìn máy tính hiện đại sử dụng Deep Learning.
Cùng năm, Universal Approximators Theorem – Định lý xấp xỉ phổ quát (Kết quả thiết lập mật độ của một lớp hàm được tạo theo thuật toán trong một không gian hàm quan tâm nhất định), George Cybenko cho ra đời phiên bản đầu tiên của mình trong bài viết có tên “Approximation by Superpositions of a Sigmoidal function”. Ông chứng minh rằng bổ sung mạng nơ-ron với một lớp ẩn chứa số lượng nơ-ron hữu hạn có thể gần đúng với bất kỳ hàm liên tục nào. Nó giúp cho mạng Học sâu trở nên đáng tin cậy hơn.
Năm 1991, vấn đề về Vanishing Gradient xuất hiện, Sepp Hochreiter xác định vấn đề về Vanishing Gradient có thể làm cho việc học của mạng nơron sâu trở nên cực kỳ chậm và gần như không thực tế. Vấn đề này sẽ tiếp tục gây khó khăn cho cộng đồng học sâu trong nhiều năm tới.
Năm 1997, Cột mốc quan trọng của LSTM, Sepp Hochreiter và Jürgen Schmidhuber xuất bản một bài báo quan trọng về “Long Short-Term Memory” (LSTM). Nó là một loại kiến trúc mạng nơ-ron tuần hoàn đã tiếp tục cách mạng hóa học sâu trong nhiều thập kỷ tới.

Năm 2006, xuất hiện Deep Belief Network, Geoffrey Hinton, Ruslan Salakhutdinov, Osindero và Teh xuất bản bài báo “A fast learning algorithm for deep belief nets”, trong đó họ xếp chồng nhiều RBM lại với nhau thành từng lớp và gọi chúng là Deep Belief Networks. Quá trình đào tạo hiệu quả hơn nhiều đối với lượng dữ liệu lớn.
Năm 2008, bắt đầu GPU Revolution – Cuộc cách mạng GPU, nhóm của Andrew NG ở Stanford bắt đầu ủng hộ việc sử dụng GPU để đào tạo Mạng thần kinh sâu nhằm tăng tốc thời gian đào tạo lên nhiều lần. Điều này có thể mang lại tính thực tiễn trong lĩnh vực Deep Learning để đào tạo về khối lượng dữ liệu khổng lồ một cách hiệu quả.
Năm 2009, khởi động Image
Net, tìm đủ dữ liệu được gắn nhãn luôn là một thách thức đối với cộng đồng Học sâu. Năm 2009, Fei-Fei Li, một giáo sư tại Stanford, khởi chạy Image
Net, một cơ sở dữ liệu gồm 14 triệu hình ảnh được dán nhãn. Nó sẽ là tiêu chuẩn đánh giá cho các nhà nghiên cứu Deep Learning, những người sẽ tham gia các cuộc thi Image
Net (ILSVRC) hàng năm.
Năm 2011, Combat For Vanishing Gradient, Yoshua Bengio, Antoine Bordes, Xavier Glorot trong bài báo của họ “Deep Sparse Rectifier Neural Networks” cho thấy rằng chức năng kích hoạt Re
LU có thể tránh được vấn đề về Vanishing Gradient. Điều này có nghĩa là bây giờ, ngoài GPU, cộng đồng học sâu có một công cụ khác để giải quyết các vấn đề về thời gian đào tạo dài và không thực tế của mạng nơ-ron sâu.
Năm 2012, bùng nổ học sâu với Alex
Net, một kiến trúc mạng nơ-ron phức hợp CNN sử dụng GPU do Alex Krizhevsky thiết kế, giành chiến thắng trong cuộc thi phân loại hình ảnh của Imagenet với độ chính xác 84%. Đó là một bước nhảy vọt vượt bậc so với độ chính xác 75% mà các mô hình trước đó đã đạt được. Chiến thắng này tạo ra một sự bùng nổ học tập sâu mới trên toàn cầu.
Năm 2014, ra đời Neural Adversarial Generative (GAN), GAN được phát triển bởi Ian Goodfellow. Nó mở ra một cơ hội ứng dụng hoàn toàn mới của học sâu trong thời trang, nghệ thuật, khoa học do khả năng tổng hợp dữ liệu giống như thật của nó.
Năm 2016, Mô hình Alpha
Go, mô hình Học sâu tăng cường của Deepmind đánh bại nhà vô địch của con người trong trò chơi cờ vây phức tạp. Trò chơi phức tạp hơn nhiều so với cờ vua, vì vậy kỳ tích này thu hút sự quan tâm của mọi người và nâng tầm Học sâu lên một cấp độ hoàn toàn mới.
Năm 2019, Giải thưởng Trio Win Turing, Yoshua Bengio, Geoffrey Hinton và Yann Le
Cun giành được Giải thưởng Turing 2018 vì những đóng góp to lớn của họ trong những tiến bộ trong lĩnh vực học sâu và trí tuệ nhân tạo. Đây là một thời điểm quan trọng đối với những người đã từng làm việc về mạng nơ-ron mà toàn bộ cộng đồng nghiên cứu Máy học đã bỏ cuộc vào những năm 1970.
Vì vậy, đằng sau sự tiến hóa này của Deep Learning, có rất nhiều nhà nghiên cứu học máy đã làm việc với quyết tâm cao độ ngay cả khi không ai tin rằng mạng nơ-ron có bất kỳ tương lai nào.
Học sâu (Deep Learning) là một lĩnh vực con của học máy (Machine Learning) liên quan đến các thuật toán lấy cảm hứng từ cấu trúc và chức năng của não được gọi là mạng thần kinh nhân tạo (artificial neural networks).
Các nhà lãnh đạo và chuyên gia trong lĩnh vực này có nhiều góc nhìn về Deep Learning và thực tế những góc nhìn cụ thể và mang nhiều sắc thái này đã và đang làm sáng tỏ nhiều bí ẩn về Deep Learning.
Trong bài đăng này, bạn sẽ khám phá chính xác Deep Learning là gì bằng cách lắng nghe ý kiến của hàng loạt chuyên gia và nhà lãnh đạo trong lĩnh vực này.
Andrew Ng, làm tại Coursera và là Nhà khoa học trưởng (Chief Scientist) tại Baidu Research đã chính thức thành lập Google Brain, công ty sản xuất công nghệ Deep Learning trên một số lượng lớn các dịch vụ của Google đã có nhiều bài nói và viết về Deep Learning và cho biết rằng đây là một lĩnh vực đáng để bắt đầu học.
Trong bài nói chuyện năm 2013 với tiêu đề “ Học sâu, Tự học và Học tính năng không giám sát” (Deep Learning, Self-Taught Learning and Unsupervised Feature Learning), ông đã bày tỏ quan điểm về Deep Learning rằng: “Việc sử dụng mô phỏng não được kỳ vọng sẽ giúp học các thuật toán tốt hơn và dễ sử dụng hơn nhiều, tạo ra những tiến bộ mang tính cách mạng trong Học máy và Trí tuệ nhân tạo. Tôi tin rằng đây là bước tiến tuyệt nhất của chúng tôi trong quá trình hướng tới trí tuệ nhân tạo thực sự.”
Tiếp đó ông cũng đưa ra thêm nhiều bình luận sắc bén hơn hơn. Rằng cốt lõi của Deep Learning theo Andrew là giờ đây chúng ta có máy tính đủ nhanh và đủ dữ liệu để thực sự đào tạo số lượng lớn neural network. Khi thảo luận về lý do tại sao bây giờ là thời điểm mà Deep Learning nên được chú trọng tại Extract
Conf 2015 với bài diễn thuyết “Các nhà khoa học dữ liệu nên biết gì về học sâu” (What data scientists should know about deep learning), ông đề cập đến vấn đề các neural network rất lớn mà chúng ta có thể có và lượng dữ liệu khổng lồ mà chúng ta có thể truy cập vào. Mấu chốt ở đây là quy mô. Khi nhóm của ông xây dựng các neural network lớn hơn và đào tạo chúng với ngày càng nhiều dữ liệu hơn, hiệu suất của chúng sẽ tiếp tục tăng lên. Điều này thường khác với các kỹ thuật Machine Learning khác khi đạt được hiệu suất cao.

Ngoài khả năng mở rộng, một lợi ích khác thường được trích dẫn của các mô hình Deep Learning là khả năng thực hiện trích xuất tính năng tự động (automatic feature extraction) từ dữ liệu thô, còn được gọi là học tính năng (feature learning).
Yoshua Bengio là một nhà lãnh đạo khác trong lĩnh vực Deep Learning với sự quan tâm mạnh mẽ đến automatic feature learning mà các neural network lớn có khả năng đạt được. Ông mô tả Deep Learning theo khía cạnh thuật toán để khám phá và học các cách biểu diễn tốt bằng cách sử dụng feature learning. Trong bài báo năm 2012 của ông với tiêu đề “Học sâu về sự đại diện cho việc học không được giám sát và chuyển giao” (Deep Learning of Representations for Unsupervised and Transfer Learning), ông viết: “Các thuật toán học sâu tìm cách khai thác cấu trúc chưa biết trong phân phối đầu vào để khám phá các biểu diễn tốt, thường ở nhiều cấp độ, với các tính năng đã học ở cấp cao hơn được xác định theo các tính năng cấp thấp hơn”.
Báo cáo kỹ thuật năm 2009 của ông có tiêu đề “Học kiến trúc sâu cho AI” (Learning deep architectures for AI) nhấn mạnh tầm quan trọng của hệ thống phân cấp trong học tính năng (hierarchy in feature learning).
Trong cuốn sách sắp được xuất bản có tựa đề “Deep Learning” đồng tác giả với Ian Goodfellow và Aaron Courville, họ định nghĩa Deep Learning theo góc độ độ sâu của kiến trúc của các mô hình. Hệ thống phân cấp các khái niệm cho phép máy tính học các khái niệm phức tạp bằng cách xây dựng chúng từ những khái niệm đơn giản hơn. Nếu chúng ta vẽ một biểu đồ cho thấy các khái niệm này được xây dựng chồng lên nhau như thế nào, thì biểu đồ đó rất sâu, có nhiều layer. Vì lý do này, các tác giả gọi cách tiếp cận này là AI Deep Learning.
Đây là một cuốn sách quan trọng và có thể sẽ trở thành nguồn tài liệu chính yếu cho lĩnh vực này trong một thời gian. Cuốn sách tiếp tục mô tả các perceptron nhiều layer như một thuật toán được sử dụng trong lĩnh vực Deep Learning rằng Deep Learning đã phụ thuộc vào các neural network nhân tạo.
Peter Norvig là Giám đốc Nghiên cứu của Google và nổi tiếng với cuốn sách giáo khoa về AI có tiêu đề “Artificial Intelligence: A Modern Approach“. Trong một bài nói chuyện năm 2016 với chủ đề “Học sâu và khả năng hiểu so với Kỹ thuật phần mềm và Xác minh” (Deep Learning and Understandability versus Software Engineering and Verification), ông đã định nghĩa Deep Learning theo cách rất giống với Yoshua, tức là tập trung vào sức mạnh của tính trừu tượng được cho phép bằng cách sử dụng cấu trúc mạng sâu hơn. Ông cho rằng đây là một kiểu học trong đó biểu diễn bạn tạo có một số cấp độ trừu tượng, chứ không phải là đầu vào trực tiếp cho đầu ra.
Geoffrey Hinton là nhà tiên phong trong lĩnh vực Artificial Neural Network và đã đồng xuất bản bài báo đầu tiên về thuật toán truyền ngược (backpropagation algorithm) để đào tạo mạng perceptron nhiều layer.
Ông ấy đã bắt đầu giới thiệu cụm từ “deep” để mô tả sự phát triển của artificial neural network lớn.
Ông là đồng tác giả của một bài báo vào năm 2006 với tiêu đề “Một thuật toán học nhanh cho niềm tin sâu” (“A Fast Learning Algorithm for Deep Belief Nets”) – mô tả một cách tiếp cận để đào tạo “sâu” (như trong một mạng lưới nhiều layer) của các máy Boltzmann bị hạn chế.
“Sử dụng complementary priors, chúng tôi tạo ra một thuật toán nhanh có thể học mạng sâu, có định hướng từng lớp một, miễn là hai lớp trên cùng tạo thành một bộ nhớ liên kết vô hướng (an undirected associative memory).”
Bài báo này và bài báo liên quan do Geoff đồng tác giả có tựa đề “Deep Boltzmann Machines” về một mạng lưới sâu không định hướng (undirected deep network) đã được cộng đồng đón nhận nồng nhiệt (hiện đã được trích dẫn hàng trăm lần) vì chúng là những ví dụ thành công về việc đào tạo mạng lưới theo lớp khôn ngoan (layer-wise) cho phép nhiều layer khác hơn trong mạng truyền thẳng (feedforward network).
Trong một bài báo đồng tác giả trên tạp chí Science có tiêu đề “Giảm chiều dữ liệu với mạng thần kinh” (Reducing the Dimensionality of Data with Neural Networks) họ cũng sử dụng chung một mô tả “sâu” (deep) để mô tả cách tiếp cận của họ để phát triển mạng với nhiều layer hơn so với các loại thông thường trước đây. Họ đã mô tả một cách hiệu quả để khởi tạo các trọng số cho phép các mạng mã tự động sâu (deep autoencoder networks) để tìm hiểu các mã chiều thấp (low-dimensional codes) mà hoạt động tốt hơn nhiều so với việc phân tích các thành phần chính như một công cụ để giảm thứ nguyên của dữ liệu (dimensionality of data).
Trong bài báo, họ cũng đưa ra một nhận xét thú vị trùng khớp với nhận xét của Andrew Ng về sự gia tăng gần đây về sức mạnh tính toán và quyền truy cập vào các tập dữ liệu lớn đã giải phóng khả năng chưa được khai thác của mạng thần kinh khi được sử dụng ở quy mô lớn hơn.
Rõ ràng là kể từ những năm 1980 rằng backpropagation thông qua các bộ mã tự động sâu (deep autoencoders) sẽ rất hiệu quả để giảm chiều dữ liệu phi tuyến tính (nonlinear dimensionality reduction), với điều kiện là máy tính đủ nhanh, tập dữ liệu đủ lớn và trọng số ban đầu đủ gần với một giải pháp tốt. Và cả ba điều kiện trên đều đã được thỏa mãn.

Ở phần tiếp theo, chúng ta sẽ cùng nhau tìm hiểu tiếp về Deep Learning. Các bạn hãy cùng đón chờ nhé!
Deep Learning ngày càng đóng vai trò quan trọng trong việc ứng dụng công nghệ ngày nay. Để tăng hiệu suất làm việc với Deep Learning thì không thể thiếu một chiếc máy tính có cấu hình thật mạnh đúng không nào!
i
Render là công ty công nghệ điện toán đám mây (Cloud computing) của Việt Nam cung cấp các dịch vụ phục vụ cho Deep Learning/AI trên nền tảng điện toán đám mây (Cloud Rendering) với nền tảng hệ thống được đầu tư bài bản và mạnh mẽ nhất với 20.000 Cores hỗ trợ song song sức mạnh điện toán của CPUs và GPUs.
i
Render có đội ngũ nhân viên nhiệt tình luôn sẵn sàng hỗ trợ bạn 24/7. Bất cứ khi nào bạn gặp sự cố khi sử dụng máy chủ của chúng tôi hoặc thậm chí với phần mềm của bạn, chúng tôi – i
Render Support Team luôn sẵn sàng trợ giúp bạn giải quyết vấn đề của mình. Chúng tôi cung cấp hỗ trợ chưa từng có phù hợp với nhu cầu và mục tiêu cụ thể của bạn.
Xem thêm: Bản Mềm: 35 Đề Thi Học Sinh Giỏi Lớp 4 Môn Toán Có Đáp Án, 10 Đề Thi Học Sinh Giỏi Lớp 4
Với tất cả những ưu điểm vượt trội kể trên, chắc hẳn bạn đã tìm được cho mình sự lựa chọn hoàn hảo cho i
Render . Chúng tôi tin rằng chất lượng hỗ trợ mà chúng tôi cung cấp cũng quan trọng như công nghệ mà chúng tôi cung cấp. Chúng tôi cung cấp hỗ trợ chưa từng có phù hợp với nhu cầu và mục tiêu cụ thể của bạn. ƯU ĐÃI ĐẶC BIỆT cho tháng 10 này: Tặng 50% GIÁ TRỊ NẠP cho tất cả người dùng mới đăng ký. Hãy cùng kiểm tra nào!
i
Render – Happy i
Render!
Nguồn và ảnh: machinelearningmastery.com
#cloudrendering, cloud computing, cloud gpu, Cloud Rendering, cloud rendering service, Cloudrenderfarm, Cloudservice, computer performance, Design



i
RENDER FARM
Remote Render FarmGPU Cloud cho 3D Rendering
GPU Cloud cho AI/Deep Learning
Bảng Giá
Hướng dẫn sử dụng
Blog
Đội Ngũ i
Render
The Render Farm
Điều khoản & Bảo Mật
Góc Báo Chí
Tin tức về i
Renderi
Render Tuyển Dụngi
Render International
INTEGRATIONS
Autodesk MayaAutodesk 3DS Max
Blender
Cinema 4DHoudini
Maxwell
Nvidia Iray
Lumion
Key
Shot
UE4Twinmotion
Redshift
Octane
And many more…