Tổng hợp mạng neuron và neuro-Fuzzy

Cơ sở lý thuyết cũng như một số thuật toán liên quan tới nhận dạng và dự báo khuyết tật của dầm đã được trình bày chi tiết trong các chương 2 và 3, cụ thể như sau. Chương 2 trình bày một số thuật toán mới về huấn luyện mạng ANN và tổng hợp mạng neuro-fuzzy: thuật toán TT*, CBMM, CSHL, HLM1, HLM2, HLM[1-2][9]. Đây là các công cụ toán học được sử dụng để xây dựng các thuật toán xác định và dự báo khuyết tật trên dầm.

pdf45 trang | Chia sẻ: vietpd | Lượt xem: 1589 | Lượt tải: 1download
Bạn đang xem trước 20 trang tài liệu Tổng hợp mạng neuron và neuro-Fuzzy, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
100 Luận án Tiến sĩ Kỹ thuật Nguyễn Sỹ Dũng Chương 4 THÍ NGHIỆM KIỂM CHỨNG Cơ sở lý thuyết cũng như một số thuật toán liên quan tới nhận dạng và dự báo khuyết tật của dầm đã được trình bày chi tiết trong các chương 2 và 3, cụ thể như sau. Chương 2 trình bày một số thuật toán mới về huấn luyện mạng ANN và tổng hợp mạng neuro-fuzzy: thuật toán TT*, CBMM, CSHL, HLM1, HLM2, HLM [1-2][9]. Đây là các công cụ toán học được sử dụng để xây dựng các thuật toán xác định và dự báo khuyết tật trên dầm. Trong chương 3 luận án đề cập tới cơ sở lý thuyết và trình bày các thuật toán mới về nhận dạng và dự báo khuyết tật: VTKT-NL [3], VTKT-NF [4], KTKT-WL [6]), và TSPA [5]. Trên cơ sở đó, các thí nghiệm trong chương này nhằm kiểm chứng, đánh giá hiệu quả cũng như phạm vi ứng dụng của từng thuật toán nêu trên. Độ chính xác và hiệu quả của các thuật toán nhận dạng và dự báo khuyết tật phụ thuộc một phần vào các công cụ toán học được sử dụng để xây dựng chúng, trong nghiên cứu này, đó là các thuật toán huấn luyện và tổng hợp hệ ANN và neuro-fuzzy. Do đó, các thí nghiệm kiểm chứng đầu tiên trong chương dùng để đánh giá độ chính xác và tốc độ hội tụ của các thuật toán huấn luyện mạng ANN và tổng hợp mạng neuro-fuzzy. Các thí nghiệm tiếp theo nhằm phân tích, đánh giá độ chính xác và phạm vi ứng dụng của các thuật toán nhận dạng và dự báo khuyết tật cơ hệ. Các nguồn số liệu được sử dụng trong các thí nghiệm này nhận được từ: - sử dụng chương trình tính toán cơ học ANSYS trên mô hình của một dầm cầu dao động; - thí nghiệm đo đạc trên một khung kim loại dạng dầm dao động cưỡng bức, được chúng tôi thực hiện tại Phòng thí nghiệm Cơ học ứng dụng (PTN CHUD), trường Đại học Bách khoa thành phố Hồ Chí Minh (ĐHBK ĐHQG TpHCM); - số liệu đo chuyển vị trên cầu Sài Gòn khi cầu dao động theo tải giao thông: thông qua hệ thống Wireless Network Connection, tín hiệu dao động của cầu Sài Gòn được truyền dẫn liên tục về Trung tâm xử lý tín hiệu tại PTN CHUD. 101 Luận án Tiến sĩ Kỹ thuật Nguyễn Sỹ Dũng 4.1 TỔNG HỢP MẠNG NEURON VÀ NEURO-FUZZY Trong phần này các thuật toán mới được ứng dụng để tổng hợp mạng ANN và neuro-fuzzy từ các tập dữ liệu số nhằm mục đích kiểm chứng hiệu quả của chúng trong huấn luyện và tổng hợp mạng. 4.1.1 Kiểm chứng thuật toán TT* 4.1.1.1 Nhận dạng vector đặc trưng của ảnh Hình 4.1 trình bày sơ đồ khối của quá trình huấn luyện mạng ANN nhận dạng vector đặc trưng của ảnh. Mỗi ảnh được đặc trưng bởi một vector đặc trưng tương ứng. Trong khảo sát này chúng tôi đưa ra một số vector đặc trưng của ảnh giả định để trình bày phương pháp và thông qua đó đánh giá hiệu quả huấn luyện mạng của từng thuật toán. 1 2[ , ,..., ]mv v v v   1 1 1 2 2 3 1 1 [ , ,..., ] 2 [ , ,..., ] 1 [ , ,..., , ] m m m m m m vcl v v v vcl v v v vcl m v v v v         Hình 4.1 Dùng hàm sai số tự tương quan để huấn luyện mạng neuron nhận dạng vector đặc trưng của ảnh Với mỗi vector đặc trưng 1 2[ , ,..., ] [ (1,1), (1, 2),..., (1, )]mv v v v v v v m  , thực hiện phép right shift sẽ nhận được m-1 vector:   1 1 1 2 2 3 1 1 [ , ,..., ] [ 1(1,1),..., 1(1, )] 2 [ , ,..., ] [ 2(1,1),..., 2(1, )] 1 [ , ,..., , ] [ ( 1)(1,1),...] m m m m m m vcl v v v vcl vcl m vcl v v v vcl vcl m vcl m v v v v vcl m             Như vậy, để nhận dạng một ảnh có vector đặc trưng v ( m1 ), mạng ANN được huấn luyện bởi bộ m-1 tập mẩu huấn luyện vào-ra  , , 1 ( 1)vclj tclj j m  , trong đó: SHIFT NEURAL NETWORKS (Update W) tclj tclj(W) ei + - ai bi 2 1 ( ) m i i i tclj a b    102 Luận án Tiến sĩ Kỹ thuật Nguyễn Sỹ Dũng 2 2 1 1 ( ) [ (1, ) (1, )] m m i i i i tclj a b v i vclj i        Sử dụng ba thuật toán, thuật toán được trình bày trong [111] (gọi tắt là thuật toán [111]), TT* và TT**[1], để cùng huấn luyện các mạng ba lớp 5-5-1 và bốn lớp 5-5-5-1 nhằm so sánh tốc độ hội tụ của các thuật toán. Thời gian hội tụ tới sai số E=0.01 của mạng 5-5-1 ứng với các vector đặc trưng được thể hiện trong bảng 4.1 và hình 4.2; và của mạng 5-5-5-1 được thể hiện trên hình 4.3. Kết quả cho thấy tốc độ hội tụ của TT* cao hơn [111]. Đối với TT**, hiệu quả thuật toán phụ thuộc nhiều vào hệ số học thích nghi. Hình 4.2 a/ ANN 5-5-1, v=[13 24 21 56 44]: so sánh tốc độ hôi tụ của TT*, TT**[1], CG ([111]) b/ ANN 5-5-1, v=[3 7 25 5 9]: so sánh tốc độ hôi tụ của TT*,TT**[1], CG ([111]) . Sự phụ thuộc tốc độ hội tụ của TT**[1] vào hệ số học thích nghi: 1 =0.05, 2 =-0,05 (3); 1 =-0.07, 2 =0,05 (4); 1 =-0.1, 2 =0,05 (5) (a) (b) ALGORITHM [111] ALGORITHM [111]: 1 ALGORITHM T* : 2 ALGORITHM T** : 3,4,5 Hình 4.3 ANN 5-5-5-1, v=[91 18 26 4 50], Emin=0.01 - So sánh tốc độ hội tụ của ba thuật toán: thời gian hội tụ của TT* là 360s (5); của TT**[1] là 65,78s ( 1 = -0,2; 2 =0,1) (3); [111] vẫn chưa hội tụ sau 5000s, tại đó Er=2,473.10 7. - Thời gian hội tụ của TT**[1] phụ thuộc vào hệ số học thích nghi, cụ thể: 1 =-0.2; 2 =0,1, t=65,8 (3); 1 =-0,15; 2 =0,1, t=87,6s (2); 1 =-0.25; 2 =0,1, t=148 (1); 1 =0,1; 2 =-0,1 t=342,2s (4). ALGORITHM [111] 103 Luận án Tiến sĩ Kỹ thuật Nguyễn Sỹ Dũng Bảng 4.1 Thời gian huấn luyện ứng với ANN 5-5-1, Emin=0.01 Thời gian huấn luyện (sec) Vector v=[v1…v5] CG ([111]) TT* TT**[1] [3 5 7 9 11] 7,66 2,62 1,552 ( 1 =0,1; 2 =0,07) [13 24 21 56 44] 10,4 1,35 1.23 ( 1 =0,145; 2 =0) [24 11 66 45 87] 7,85 3,32 2,33 ( 1 =0,11; 2 =-0,15) [1 3 5 7 9 ] 8,63 3,51 1,48 ( 1 =-0,15; 2 =0,18) [20 40 34 32 55] 16,22 2,67 1,56 ( 1 =-0,1; 2 =0,16) [2 1 4 5 8] 7,78 1,03 1,03 ( 1 = 2 =0) [9 10 5 12 1] 10,8 0,99 0,99 ( 1 = 2 =0) [3 9 2 11 15] 6,34 1,62 1,62 ( 1 = 2 =0) [91 18 26 4 50] 6,77 1,25 1,25 ( 1 = 2 =0) [103 49 56 11 87] 6,76 1,32 1,32 ( 1 = 2 =0) [6 9 15 21 7] 6,8 1,35 1,35 ( 1 = 2 =0) [55 37 9 6 15] 14,4 1,73 1,73 ( 1 = 2 =0) [4 31 87 3 8] 6,61 3,0 3,0 ( 1 = 2 =0) [12 4 7 9 3] 6,04 2,59 2,59 ( 1 = 2 =0) [21 4 7 9 11] 13,7 21,3 5,28 ( 1 =-0.05; 2 =0.05) [3 7 25 5 9] 6,4 3,6 2,25 ( 1 =0.05; 2 =-0,05) 2,79 ( 1 =0,04; 2 =-0,05) 2,39 ( 1 =-0.1; 2 =0,05) 4.1.1.2 Nhận dạng hàm số Hình 4.4 Tốc độ hội tụ của các thuật toán Kết quả xấp xỉ hàm y=1+sin(x) tại hai thời điểm 150 giây và 225 giây được thể hiện qua các giá trị hàm sai số tương ứng với từng thuật toán E([111]) (trên hình, ký kiệu [1] ứng với thuật toán [111]), E(TT*), E(TT**) và các đồ thị xấp xỉ của hàm y bởi tín hiệu ra của mạng tại từng thời điểm (hình 4.5) 104 Luận án Tiến sĩ Kỹ thuật Nguyễn Sỹ Dũng Sử dụng ba thuật toán, thuật toán [111], TT* và TT**[1] huấn luyện mạng truyền thẳng 1-5-1 có số trọng số W=16 để xấp xỉ hàm số y=1+sin(x) trong khoảng [0,2 ]x  bởi tập mẫu có P=21 mẫu dữ liệu. Các kết quả được trình bày trên các hình 4.4 và 4.5 cho thấy tốc độ hội tụ của TT* cao hơn [111]. Đối với TT**, cũng như khảo sát ở trên, hiệu quả thuật toán phụ thuộc nhiều vào hệ số học thích nghi. 4.1.2 Kiểm chứng các thuật toán HLM1, HLM2 và HLM Độ chính xác và tốc độ hội tụ của HLM1, HLM2 và HLM ảnh hưởng trực tiếp tới độ chính xác của các thuật toán nhận dạng và dự báo khuyết tật được xây dựng trên cở sở ứng dụng chúng (chương 3). Do đó trong mục này chúng tôi thực hiện các thí nghiệm kiểm chứng độ chính xác và tốc độ hội tụ của các thuật toán tổng hợp mạng neuro-fuzzy thích nghi HLM1, HLM2 của [9] và HLM của [2] từ các tập dữ liệu số. 4.1.2.1 Khảo sát hiệu quả của HLM1 và HLM2 dựa vào tập mẫu ngẫu nhiên Sử dụng tập mẫu tr_set1 15 mẫu, 3 biến vào một biến ra là những giá trị ngẫu nhiên xác định theo Matlab. Sử dụng thuật toán được trình bày trong [93] (gọi tắt là thuật toán [93]) và hai thuật toán mới, HLM1 (có các hệ số định hướng là 1 0.05;  2 0.95;  0.35  ) và HLM2, để huấn luyện mạng neuro-fuzzy xấp xỉ hàm 1 1 1 2 3( , , )y f x x x phản ánh quan hệ vào-ra của tr_set1. Kết quả được thể hiện trên bảng 4.2 cho thấy tốc độ hội tụ của HLM1 và HLM2 cao hơn thuật toán được trình bày trong [93]. Hình 4.5 Đồ thị hàm y được xấp xỉ bởi tín hiệu ra của mạng tại thời điểm a/ 150s và b/ 225s ứng với từng thuật toán (trên hình, ký kiệu [1] ứng với thuật toán [111]) 105 Luận án Tiến sĩ Kỹ thuật Nguyễn Sỹ Dũng Bảng 4.2 Sai số bình phương trung bình của từng thuật toán Sai số E của các thuật toán Số luật mờ [93] HLM1 HLM2 M=5 0,02760 0,0213 0,0246 M=6 0,02561 0,0107 7,1148.10-4 M=7 2,8576. 10-6 1,0199.10-7 7,3906.10-8 M=8 7,0300. 10-6 1,7844.10-7 8,6461.10-9 M=9 5,6341. 10-6 4,2997.10-7 1,1859. 10-7 4.1.2.2 Đánh giá HLM1 và HLM2 qua nhận dạng hàm số Hàm 2 2 22 2 1 2(5 ) /[3(5 ) (5 ) ]y x x x     của [93] được sử dụng để xây dựng tập mẫu tr_set2 gồm 100 mẫu trong đó các giá trị 1 2[ , ]x x x được lấy ngẫu nhiên trong khoảng ]10,0[ nhờ hàm random của Matlab và dữ liệu ra được tính theo 2y . Sử dụng các thuật toán [93], HLM1 và HLM2 để tổng hợp các mạng các neuro-fuzzy trên cùng một tập mẫu tr_set2. Các kết quả khảo sát được thể hiện trên hình 4.6, hình 4.7 và bảng 4.3. Hình 4.6 So sánh sai số đáp ứng ˆ ,i i iError y y  1...100i  và giá trị sai số bình phương trung bình E của thuật tóan [93], HLM1 và HLM2 ứng với tập mẫu tr_set2 với số luật mờ M=30 E=2,099.10-5 E=1,704.10-5 E=1,6686.10-5 Bảng 4.3 Sai số bình phương trung bình của từng thuật toán Sai số E của các thuật toán Số luật mờ [93] HLM1 HLM2 M=10 2,000. 10-3 1,700. 10-3 2,769.10-4 M=20 25,000.10-4 1,477.10-4 1,233.10-4 M=30 2,099.10-5 1,704.10-5 1,669.10-5 Algorithm [93] 106 Luận án Tiến sĩ Kỹ thuật Nguyễn Sỹ Dũng Ở hình 4.6 thể hiện sai số đáp ứng ˆ ,i i iError y y  1...100i  và các giá trị sai số bình phương trung bình E của từng thuật toán [93], HLM1 (có các hệ số định hướng 1 0.05;  2 0.95;  0.35  ) và HLM2 ứng với số luật mờ M=30. Ở Hình 4.7, biểu diễn chung trên một hệ trục dữ liệu ra của tập mẫu huấn luyện tr_set2, iy 1...100i  (nét liền) và tín hiệu ra của mạng ˆiy (nét đứt) ứng với hai thuật toán [93] và HLM2 với số luật mờ M=20. Trên hình 4.7a cho thấy sự khác biệt giữa hai đường iy và ˆiy ; ngược lại ở hình 4.7b, hai đường này gần như trùng nhau, chứng tỏ ở hình 4.7b các giá trị ra của mạng tiệm cận gần hơn tới tập các giá trị ra tương ứng của tập dữ liệu huấn luyện mạng. Bảng 4.3, hình 4.6 và hình 4.7 cho thấy độ chính xác của các thuật toán mới cao hơn độ chính xác của thuật toán [93]. 4.1.2.3 Kiểm chứng HLM1, HLM2 và HLM qua xấp xỉ hàm từ tập dữ liệu số Sử dụng các thuật toán [93], HLM1 ( 1 20.05; 0.95; 0.5      ), HLM2 và HLM để xây dựng các mạng neuro-fuzzy, mỗi mạng đóng vai trò là một hàm xấp xỉ của cùng một tập dữ liệu số gồm 100 mẫu, 10 biến vào một biến ra 1 1 10([ , ,..., ], )x x x y được cho trong phụ lục IV “Daily Data of Stock A” của [95]. Kết quả thể hiện trên hình 4.8, 4.9 và bảng 4.4 cho thấy độ chính xác của HLM1, HLM2 và HLM cao hơn độ chính xác của [93]; trong bốn thuật toán nêu trên, thuật toán HLM2 có độ chính xác cao nhất nhưng có tốc độ hội tụ kém nhất. Hình 4.7 Tín hiệu ra của tập mẫu tập tr_set2 yi ( ) và của mạng ˆ , 1...100iy i  (----) ứng với hai thuật toán [93] (a) và HLM2 (b) (a) (b) 107 Luận án Tiến sĩ Kỹ thuật Nguyễn Sỹ Dũng Bảng 4.4 Sai số E của [93], HLM1, HLM2 và HLM khi số luật mờ M=10, 12, 14, 18, 20 Sai số E ứng với từng thuật toán Số luật mờ [93] HLM1 HLM2 HLM M=10 13,4148 0,5618 0,0675 0,5222 M=12 1,74460 0,2070 0,0352 0,1526 M=14 3,5028. 10-5 2,1013. 10-6 1,2101.10-6 1,2971.10-6 M=18 8,7387.10-23 4,7213.10-23 1,1121.10-24 1,1737.10-24 M=20 0,0028 3,6972.10-12 4,0908.10-14 1,1006.10-13 Hình 4.9 Giá trị sai lệch ˆi i iError y y  và giá trị sai số bình phương trung bình E của các thuật toán [93] và HLM khi số luật mờ M=18, sử dụng tập mẫu “Daily Data of Stock A” của [95] Hình 4.8 Giá trị sai lệch ˆi i iError y y  và giá trị sai số bình phương trung bình E (=Error) của các thuật toán [93] HLM1, HLM2 và HLM khi số luật mờ M=12, tập mẫu “Daily Data of Stock A” của [95] M = 1 2 S e t 1 0 0 x1 0 x1 Al g o ri t h m [ 9 3 ] E r r o r= 1 . 7 4 4 6 S e t 1 0 0 x 1 0 x 1 M = 1 8 A lg o r i t h m [ 9 3 ] E r r o r = 8 . 7 3 8 7 e - 2 3 108 Luận án Tiến sĩ Kỹ thuật Nguyễn Sỹ Dũng 4.1.2.4 Đánh giá HLM1, HLM2 và HLM qua nhận dạng hàm số Từ hàm 2 1,5 21 1(1 )y x x    , 1 2, [1,5]x x  xây dựng tập mẫu gồm 50 mẫu tương tự tập mẫu đã được sử dụng trong [112]. Thực hiện huấn luyện mạng nhận dạng hàm y bằng cách ứng dụng các thuật toán HLM1, HLM2, HLM, [93] và các thuật toán được trình bày trong [112][133][143] (gọi tắt là các thuật toán [112][133][143]). Các kết quả nhận được cho trong bảng 4.5 cho thấy độ chính xác trung bình của HLM1, HLM2 và HLM cao hơn rất nhiều so với độ chính xác trung bình của [93][112][133] [143]. Trong ba thuật toán mới, HLM2 có độ chính xác cao nhất. 4.1.2.5 Khảo sát hiệu quả của HLM qua nhận dạng hàm số Hàm 2 2 22 2 1 2(5 ) /[3(5 ) (5 ) ]y x x x     của [93] được sử dụng để xây dựng tập mẫu tr_set gồm 100 mẫu. Các giá trị 1 2[ , ]x x x được lấy ngẫu nhiên trong khoảng [0;10] nhờ hàm random của Matlab. Dữ liệu ra được tính theo 2 2 22 2 1 2(5 ) /[3(5 ) (5 ) ].y x x x     Trên hình 4.10 thể hiện sai số đáp ứng ˆ ,i i iError y y  1...100i  và giá trị sai số bình phương trung bình E của thuật toán [93] và thuật toán HLM [2] (có 1 0.05;  2 0.95;  0.35  ) ứng với số luật mờ M=30. Hình 4.10 và số liệu cụ thể ứng với các giá trị của số luật mờ M được thể hiện trên bảng 4.6 cho thấy hiệu quả của thuật toán mới, thuật toán HLM. Bảng 4.6 Sai số E của [93] và HLM khi M=10, 15, 20, 25, 30 Sai số E ứng với từng thuật toán Số luật mờ [93] HLM M=10 2,000. 10-3 1,650. 10-3 M=15 2,200.10-3 2,100.10-3 M=20 25,000.10-4 1,338.10-4 M=25 3,545.10-5 2,326.10-5 M=30 2,099.10-5 1,4543.10-5 Bảng 4.5 Sai số E của [112][133][143][93] HLM, HLM1 và HLM2 khi M=6, 8, 10 Các thuật toán Số luật mờ ĐL [112] [133] [143] [93] HLM HLM1 HLM2 M=6 E 0,0589 0,0572 0,0599 0,0221 0,0167 0,0182 0,0196.10-2 M=8 E 0,0500 0,0499 0,0499 0,0220 0,0198 0,0218 0,0185.10-2 M=10 E 0,0148 0,0149 0,0149 0,0188 0,0244.10-1 0,0260.10-1 0,0198.10-2 109 Luận án Tiến sĩ Kỹ thuật Nguyễn Sỹ Dũng 4.1.2.6 Đánh giá hiệu quả của HLM qua nhận dạng dầm trong quan hệ độ võng-vị trí đặt tải Khảo sát dầm mô hình như trên hình 4.11. Chia dầm thành 29 phần tử bởi 30 nút theo cách chia của phương pháp phần tử hữu hạn. Lực tập trung F=200.000N được đặt tại nhiều vị trí khác nhau trên dầm. Với mỗi vị trí của F, sử dụng chương trình tính toán cơ học ANSYS [166] xác định độ võng của dầm tại 30 nút để xây dựng hai tập mẫu: TrainingSet có số mẫu P=900 và TestSet có số mẫu P=100 sao cho một mẫu bất kỳ thuộc tập này sẽ không thuộc tập kia. Hình 4.11 Mô hình thí nghiệm đo độ võng của dầm cầu trên hai gối khi tải thay đổi Hình 4.10 So sánh sai số đáp ứng ˆ ,i i iError y y  1...100i  và giá trị sai số bình phương trung bình E của thuật toán [93] và HLM ứng với tập mẫu tr_set với số luật mờ M=30 function f2 algorithm [93] E=2.099e-5 E=1.4543e-5 24,703 m E = 35.982 MPa F = 200.000N Dầm có tiết diện ngang là hình chữ nhật 1,1 0, 45m m Hình 4.12 Sai lệch ˆi i iError y y  và sai số bình phương trung bình E ứng với từng thuật toán M =4 0 Al go r i t h m [ 9 3 ] E= 2 . 9 7 7 4 e - 6 M=40 Set 900x2x1 Algorithm HLM E=2.5794e-6 110 Luận án Tiến sĩ Kỹ thuật Nguyễn Sỹ Dũng Sử dụng thuật toán [93] và HLM để tổng hợp mạng neuro-fuzzy nhận dạng dầm trong quan hệ độ võng-vị trí đặt tải thông qua tập dữ liệu TrainingSet. Sai số ˆi i iError y y  và sai số bình phương trung bình E ứng với từng thuật toán được thể hiện trên hình 4.12. Kết quả cho thấy độ chính xác của thuật toán HLM cao hơn độ chính xác của [93]. Để kiểm tra khả năng nhận dạng và dự báo của mạng neuro-fuzzy được tổng hợp bởi thuật toán HLM chúng tôi sử dụng tập TestSet làm dữ liệu vào-ra cho mạng đã được tổng hợp bởi thuật toán HLM với tập dữ liệu TrainingSet (gọi tắt là mạng N-F/TrainingSet). Cụ thể, sử dụng tập TestSet và N-F/TrainingSet chúng tôi đã tính và kiểm tra hai nội dung sau. Thứ nhất, tính sai lệch giữa dữ liệu ra cho trong tập mẫu TestSet và dữ liệu ra tương ứng của N-F/TrainingSet khi sử dụng tín hiệu vào cho mạng là tín hiệu vào của tập TestSet, ˆi i iError y y  . Thứ hai, tính sai số bình phương trung bình E giữa tín hiệu ra của N-F/TrainingSet (khi sử dụng tín hiệu vào cho mạng là tín hiệu vào của tập TestSet) và tín hiệu ra của tập TestSet. Kết quả thể hiện trên hình 4.13 cho thấy khả năng nhận dạng đối tượng và dự báo của mạng neuro-fuzzy được tổng hợp bởi thuật toán HLM khá tốt. Nhận xét Kết quả thí nghiệm cho thấy hiệu quả tác động của hàm định hướng j [9]. Hàm j thông qua bộ tham số định hướng 1 2[ ; ; ]   đóng vai trò định hướng quá trình phân chia không gian dữ liệu để xác lập các tập mờ, gia tăng tốc độ hội tụ, giảm số lượng tập mờ (giảm số lượng bó được tạo thành) và do đó giảm mức độ phức tạp của mạng. Hàm j còn làm gia tăng mức độ phù hợp trong mối liên hệ giữa không gian nền của các tập mờ (là không gian của các đại lượng vật lý cho trong tập mẫu) với chính các tập mờ được xây dựng trên nó, và do đó làm gia tăng độ chính xác của thuật toán HLM1, HLM2 và HLM. Việc gia tăng độ chính xác trong giai đoạn chia bó dữ liệu min- max của thuật toán CBMM và trong giai đoạn xây dựng các bó siêu hộp thuần chủng của thuật toán CSHL có tác dụng gia tăng mức độ ràng buộc giữa các tập mờ ở không gian vào và các lớp dữ liệu Hình 4.13 Khả năng đáp ứng của mạng neuro-fuzzy được huấn luyện bởi thuật toán HLM M=30 E=7.3927e-6 111 Luận án Tiến sĩ Kỹ thuật Nguyễn Sỹ Dũng dạng siêu phẳng ở không gian ra, nghĩa là làm gia tăng mức độ phù hợp trong mối liên hệ giữa không gian nền của các tập mờ (là không gian của các đại lượng vật lý cho trong tập mẫu) với chính các tập mờ được xây dựng trên nó, và do đó làm gia tăng độ chính xác của các thuật toán này. Ngoài ra, việc định hướng hợp lý trong quá trình chia cắt các siêu hộp có tác dụng làm gia tăng tốc độ hội tụ, giảm số lượng tập mờ (giảm số lượng bó được tạo thành) và do đó giảm mức độ phức tạp của mạng. Đặc điểm của các thuật toán này là với một tập dữ liệu đã cho, các thuật toán có thể tự động xác lập cấu hình mạng neuro-fuzzy, bao gồm tự động xác định số lượng các tập mờ, tự động xác lập các hàm liên thuộc, tự động xác định số lượng neuron trên lớp ẩn phù hợp với độ chính xác yêu cầu. So với HLM1 và HLM2, ưu điểm của thuật toán HLM là có khả năng nhận ra và cho biết mức độ chính xác mà ANFIS không thể đạt tới ứng với tập dữ liệu huấn luyện đã cho. Trong ba thuật toán, sai số của HLM2 nhỏ hơn HLM1 và HLM, tuy nhiên hạn chế cơ bản của HLM2 là thời gian huấn luyện mạng và yêu cầu dung lượng nhớ của máy tính cao hơn nhiều so hai thuật toán kia. 112 Luận án Tiến sĩ Kỹ thuật Nguyễn Sỹ Dũng 4.2 CÁC THÍ NGHIỆM TRÊN MÔ HÌNH TOÁN Trong các khảo sát của nhóm này chúng tôi sử dụng mô hình toán của một dầm cầu với trạng thái chịu lực là uốn ngang phẳng. Các thông số hình học cũng như cơ học của dầm được thể hiện trên hình 4.14. Dầm được chia thành N=20 phần tử. Tạo ra các khuyết tật riêng lẻ và các khuyết tật đồng thời trên cơ hệ. Xác định sáu tần số riêng đầu tiên khi chưa bị hư hỏng ( Hz ): f1=1,7; f2=6,9; f3=15,6; f4=19,6; f5=27,6; f6=42. Chia đều miền tần số từ 0 đến 50Hz thành 501 điểm chia với bước chia là 0.1 Hz. Cho cơ hệ dao động và sử dụng chương trình ANSYS [166] để tính toán chuyển vị của hệ tại các nút phần tử. 4.2.1 Xác định vị trí hỏng dựa vào phương pháp năng lượng và VTKT-NL Phương pháp năng lượng của [67] và thuật toán cải biên VTKT-NL của [3] (đã được trình bày chi tiết trong chương 3) được sử dụng để xác định vị trí khuyết tật trên mô hình thí nghiệm được
Tài liệu liên quan