Danh mục

HỆ MỜ & NƠRON TRONG KỸ THUẬT ĐIỀU KHIỂN part 7

Số trang: 17      Loại file: pdf      Dung lượng: 345.50 KB      Lượt xem: 24      Lượt tải: 0    
tailieu_vip

Hỗ trợ phí lưu trữ khi tải xuống: 16,000 VND Tải xuống file đầy đủ (17 trang) 0
Xem trước 2 trang đầu tiên của tài liệu này:

Thông tin tài liệu:

Huấn luyện mạng tĩnh học tương đối dễ hiểu. Nếu ta sử dụng thun để huấn luyện mạng theo gói và dữ liệu vào được chuyển đổi thành véc tơ đồng thời (các cột của ma trận) cho dù khuôn dạng trước đây của chúng là chuỗi. Nếu ta sử dụng Adapt thì khuôn dạng dữ liệu vào quyết định phương pháp huấn luyện. Nếu khuôn dạng dữ liệu vào là chuỗi thì mạng được huấn luyện kiểu gia tăng, nếu khuôn dạng dữ liệu vào là véc tơ đồng thời thì mạng được huấn luyện kiểu gói....
Nội dung trích xuất từ tài liệu:
HỆ MỜ & NƠRON TRONG KỸ THUẬT ĐIỀU KHIỂN part 7b/ Huấn luyện theo gói đối với mạng động Huấn luyện mạng tĩnh học tương đối dễ hiểu. Nếu ta sử dụng thun đểhuấn luyện mạng theo gói và dữ liệu vào được chuyển đổi thành véc tơ đồngthời (các cột của ma trận) cho dù khuôn dạng trước đây của chúng là chuỗi.Nếu ta sử dụng Adapt thì khuôn dạng dữ liệu vào quyết định phương pháphuấn luyện. Nếu khuôn dạng dữ liệu vào là chuỗi thì mạng được huấn luyệnkiểu gia tăng, nếu khuôn dạng dữ liệu vào là véc tơ đồng thời thì mạng đượchuấn luyện kiểu gói. Đối với mạng động, kiểu huấn luyện theo gói chỉ được thực hiện với hàmtrain. Để minh hoạ điều này ta lại xét mạng tuyến tính có trễ. Ta sử dụng tốcđộ học là 0,02 để huấn luyện. Khi sử dụng giải thuật giảm độ dốc ta chọn tốcđộ học cho kiểu huấn luyện gói nhỏ hơn kiểu huấn luyện gia tăng. Ví dụ: net = newlin([-1 1],1,[0 1],0.02); net.IW{1,1}=[0 0]; net.biasConnect 0; net.trainparam.epochs = 1; Pi = {1}; P = {2 3 4}; T = {3 5 6}; Ta muốn huấn luyện mạng với chuỗi tương tự như đã sử dụng cho sựhuấn luyện gia tăng trước đây thế nhưng thời điểm cần thiết để cập nhật cáchàm trọng chỉ xảy ra sau khi tất cả dữ liệu vào được áp dụng (kiểu gói). Mạngđược coi như tuần tự vì đầu vào là tuần tự, song các hàm trọng được cập nhậttheo kiểu gói. net=train(net,P,T,Pi); »net.IW{1,1} ans = 0.9000 0.6200. Kết quả này khác với kết quả ta đã thu được bằng huấn luyện gia tăng, ởđó các hàm trọng được cập nhật 3 lần trong thời gian một tập huấn luyện. Đốivới huấn luyện theo gói các hàm trọng chỉ được cập nhật một lần trong mộtkhóa huấn luyện. 97 Chương 4 MẠNG PERCEPTRONS4.1. MỞ ĐẨU Chương này với mục tiêu đầu tiên là: Giới thiệu về các luật học, cácphương pháp để diễn giải những sự thay đổi tiếp theo mà nó có thể được làmtrong một mạng, vì sự huấn luyện là một thủ tục mà nhờ đó mạng được điềuchỉnh để làm một công việc đặc biệt. Tiếp theo đó ta tìm hiểu về các hàmcông cụ để thiết lập mạng Perceptron đơn giản đồng thời chúng ta cũng khảosát các hàm để khởi tạo và mô phỏng các mạng tương tự. Ta sử dụng mạngPerceptron như là một phương tiện biểu lộ của các khái niệm cơ bản. Rosenblatt đã thiết lập nhiều biến thể của mạng perceptron. Một trong cácdạng đơn giản nhất là mạng lớp đơn mà hàm trọng và độ dốc của nó có thểđược huấn luyện để đưa ra một véc tơ đích chính xác khi có véc tơ vào tươngứng được gửi tới. Kỹ thuật huấn luyện được gọi là luật học perceptron.Perceptron làm phát sinh nhiều cơ hội quan trọng cho khả năng khái quát hoátừ các véc tơ huấn luyện chúng và sự học từ điều kiện đầu phân bổ các mốiquan hệ một cách ngẫu nhiên. Perceptron đặc biệt phù hợp cho những vấn đềđơn giản trong phân loại sản phẩm. Chung là những mạng nhanh và tin cậycho những vấn đề chúng có thể giải quyết. Hơn nữa, sự thông hiểu hoạt độngcủa Perceptron sẽ tạo cơ sở cho sự hiểu biết các mạng phức tạp hơn. Trongchương này, ta sẽ định nghĩa luật học, giải thích mạng Perceptron và luật họccủa nó, làm thế nào để khởi tạo và mô phỏng mạng Perceptron. Các vấn đềnêu ra ở đây chỉ là những vấn đề tóm lược cơ bản, để hiểu sâu hơn ta cần đọctrong [10].4.1.1. Mô hình nơron perceptron Một nơron Perceptron sử dụng hàm chuyển hardlim được chỉ ra trên hình4.1. Mỗi đầu pi có hàm trọng với trọng liên kết wlj và tổng các đầu vào kể cảđộ dốc b là n = ∑ wl j + b được gửi đển hàm chuyển bước nhảy (hard-limit)(Hình 4.1b). Đầu ra của nơron perceptron có giá trị 1 nếu n lớn hơn hoặc bằng0 và có giá trị bằng 0 nếu n nhỏ hơn không: 98 Hình 4.1a,b. Nơron với R đầu vào a) Mô hình nơron, b) Hàm chuyển bước nhảy Với hàm chuyển hard-limit cho phép Perceptron có khả năng phân loạivéc tơ vào bằng cách phân chia không gian vào thành 2 vùng, phân cách vớinhau bằng đường biên giới L ứng với phương trình: W.p + b = 0. Ví dụ: Xét của nơron Perceptron có 2 đầu vào với các hàm trọng w1,1= -1,w1,2 = 1 và độ gốc b = 1. Ta có: n = W.p + b = w1.1p1 + w1,2.p2 + b = -pl + p2 + 1. Đường biên giới L được chỉ ra trên hình 4. 1. Đường này vuông góc vớima trận trọng W và di chuyển dọc theo độ dốc b. Các véc tơ vào ở phía trên và bên trái đường L có giá trị đầu vào mạnglớn hơn 0, vì vậy, nơron hard-limit đưa ra 1. Đường biên giới có thể chuyểnhướng và di chuyển đển bất cứ chỗ nào để phân loại không gian vào mongmuốn bằng cách lựa chọn hàm trọng và giá trị độ dốc. Nơron hard-limitkhông có độ dốc sẽ luôn có đường biên giới đi qua gốc toạ độ. Cộng thểm độdốc sẽ cho phép nơron giải quyết bài toán ở đó 2 tập véc tơ vào không nằmtrên 2 cạnh khác nhau của gốc toạ độ. Độ dốc cho phép đường biên giới thayđổi rời xa khỏi gốc như trên hình 4.2. Ta có th ...

Tài liệu được xem nhiều: