Cơ sở lý thuyết cũng như một số thuật toán liên quan tới nhận dạng và dự báo khuyết tật của dầm đã được trình bày chi tiết trong các chương 2 và 3, cụ thể như sau. Chương 2 trình bày một số thuật toán mới về huấn luyện mạng ANN và tổng hợp mạng neuro-fuzzy: thuật toán TT*, CBMM, CSHL, HLM1, HLM2, HLM[1-2][9]. Đây là các công cụ toán học được sử dụng để xây dựng các thuật toán xác định và dự báo khuyết tật trên dầm.
45 trang |
Chia sẻ: vietpd | Lượt xem: 1589 | Lượt tải: 1
Bạn đang xem trước 20 trang tài liệu Tổng hợp mạng neuron và neuro-Fuzzy, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
100 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
Chương 4
THÍ NGHIỆM KIỂM CHỨNG
Cơ sở lý thuyết cũng như một số thuật toán liên quan tới nhận dạng và dự báo khuyết tật của dầm đã
được trình bày chi tiết trong các chương 2 và 3, cụ thể như sau. Chương 2 trình bày một số thuật
toán mới về huấn luyện mạng ANN và tổng hợp mạng neuro-fuzzy: thuật toán TT*, CBMM, CSHL,
HLM1, HLM2, HLM [1-2][9]. Đây là các công cụ toán học được sử dụng để xây dựng các thuật
toán xác định và dự báo khuyết tật trên dầm. Trong chương 3 luận án đề cập tới cơ sở lý thuyết và
trình bày các thuật toán mới về nhận dạng và dự báo khuyết tật: VTKT-NL [3], VTKT-NF [4],
KTKT-WL [6]), và TSPA [5]. Trên cơ sở đó, các thí nghiệm trong chương này nhằm kiểm chứng,
đánh giá hiệu quả cũng như phạm vi ứng dụng của từng thuật toán nêu trên.
Độ chính xác và hiệu quả của các thuật toán nhận dạng và dự báo khuyết tật phụ thuộc một
phần vào các công cụ toán học được sử dụng để xây dựng chúng, trong nghiên cứu này, đó là các
thuật toán huấn luyện và tổng hợp hệ ANN và neuro-fuzzy. Do đó, các thí nghiệm kiểm chứng đầu
tiên trong chương dùng để đánh giá độ chính xác và tốc độ hội tụ của các thuật toán huấn luyện
mạng ANN và tổng hợp mạng neuro-fuzzy. Các thí nghiệm tiếp theo nhằm phân tích, đánh giá độ
chính xác và phạm vi ứng dụng của các thuật toán nhận dạng và dự báo khuyết tật cơ hệ.
Các nguồn số liệu được sử dụng trong các thí nghiệm này nhận được từ:
- sử dụng chương trình tính toán cơ học ANSYS trên mô hình của một dầm cầu dao động;
- thí nghiệm đo đạc trên một khung kim loại dạng dầm dao động cưỡng bức, được chúng tôi
thực hiện tại Phòng thí nghiệm Cơ học ứng dụng (PTN CHUD), trường Đại học Bách khoa thành
phố Hồ Chí Minh (ĐHBK ĐHQG TpHCM);
- số liệu đo chuyển vị trên cầu Sài Gòn khi cầu dao động theo tải giao thông: thông qua hệ
thống Wireless Network Connection, tín hiệu dao động của cầu Sài Gòn được truyền dẫn liên tục về
Trung tâm xử lý tín hiệu tại PTN CHUD.
101 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
4.1 TỔNG HỢP MẠNG NEURON VÀ NEURO-FUZZY
Trong phần này các thuật toán mới được ứng dụng để tổng hợp mạng ANN và neuro-fuzzy từ các
tập dữ liệu số nhằm mục đích kiểm chứng hiệu quả của chúng trong huấn luyện và tổng hợp mạng.
4.1.1 Kiểm chứng thuật toán TT*
4.1.1.1 Nhận dạng vector đặc trưng của ảnh
Hình 4.1 trình bày sơ đồ khối của quá trình huấn luyện mạng ANN nhận dạng vector đặc trưng của
ảnh. Mỗi ảnh được đặc trưng bởi một vector đặc trưng tương ứng. Trong khảo sát này chúng tôi đưa
ra một số vector đặc trưng của ảnh giả định để trình bày phương pháp và thông qua đó đánh giá hiệu
quả huấn luyện mạng của từng thuật toán.
1 2[ , ,..., ]mv v v v
1 1
1 2
2 3 1
1 [ , ,..., ]
2 [ , ,..., ]
1 [ , ,..., , ]
m m
m m m
m
vcl v v v
vcl v v v
vcl m v v v v
Hình 4.1 Dùng hàm sai số tự tương quan để huấn luyện mạng neuron nhận dạng vector đặc trưng của ảnh
Với mỗi vector đặc trưng 1 2[ , ,..., ] [ (1,1), (1, 2),..., (1, )]mv v v v v v v m , thực hiện phép right shift sẽ
nhận được m-1 vector:
1 1
1 2
2 3 1
1 [ , ,..., ] [ 1(1,1),..., 1(1, )]
2 [ , ,..., ] [ 2(1,1),..., 2(1, )]
1 [ , ,..., , ] [ ( 1)(1,1),...]
m m
m m m
m
vcl v v v vcl vcl m
vcl v v v vcl vcl m
vcl m v v v v vcl m
Như vậy, để nhận dạng một ảnh có vector đặc trưng v ( m1 ), mạng ANN được huấn luyện bởi bộ
m-1 tập mẩu huấn luyện vào-ra , , 1 ( 1)vclj tclj j m , trong đó:
SHIFT
NEURAL NETWORKS
(Update W)
tclj
tclj(W)
ei
+
-
ai
bi 2
1
( )
m
i i
i
tclj a b
102 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
2 2
1 1
( ) [ (1, ) (1, )]
m m
i i
i i
tclj a b v i vclj i
Sử dụng ba thuật toán, thuật toán được trình bày trong [111] (gọi tắt là thuật toán [111]),
TT* và TT**[1], để cùng huấn luyện các mạng ba lớp 5-5-1 và bốn lớp 5-5-5-1 nhằm so sánh tốc độ
hội tụ của các thuật toán. Thời gian hội tụ tới sai số E=0.01 của mạng 5-5-1 ứng với các vector đặc
trưng được thể hiện trong bảng 4.1 và hình 4.2; và của mạng 5-5-5-1 được thể hiện trên hình 4.3.
Kết quả cho thấy tốc độ hội tụ của TT* cao hơn [111]. Đối với TT**, hiệu quả thuật toán phụ thuộc
nhiều vào hệ số học thích nghi.
Hình 4.2 a/ ANN 5-5-1, v=[13 24 21 56 44]: so sánh tốc độ hôi tụ của TT*, TT**[1], CG ([111])
b/ ANN 5-5-1, v=[3 7 25 5 9]: so sánh tốc độ hôi tụ của TT*,TT**[1], CG ([111]) . Sự phụ thuộc tốc độ hội tụ
của TT**[1] vào hệ số học thích nghi: 1 =0.05, 2 =-0,05 (3); 1 =-0.07, 2 =0,05 (4); 1 =-0.1, 2 =0,05 (5)
(a)
(b)
ALGORITHM [111]
ALGORITHM [111]: 1
ALGORITHM T* : 2
ALGORITHM T** : 3,4,5
Hình 4.3 ANN 5-5-5-1, v=[91 18 26 4 50], Emin=0.01
- So sánh tốc độ hội tụ của ba thuật toán: thời gian hội tụ của TT* là 360s (5); của TT**[1] là
65,78s ( 1 = -0,2; 2 =0,1) (3); [111] vẫn chưa hội tụ sau 5000s, tại đó Er=2,473.10
7.
- Thời gian hội tụ của TT**[1] phụ thuộc vào hệ số học thích nghi, cụ thể: 1 =-0.2; 2 =0,1, t=65,8
(3); 1 =-0,15; 2 =0,1, t=87,6s (2); 1 =-0.25; 2 =0,1, t=148 (1); 1 =0,1; 2 =-0,1 t=342,2s (4).
ALGORITHM [111]
103 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
Bảng 4.1 Thời gian huấn luyện ứng với ANN 5-5-1, Emin=0.01
Thời gian huấn luyện (sec) Vector
v=[v1…v5] CG ([111]) TT* TT**[1]
[3 5 7 9 11] 7,66 2,62 1,552 ( 1 =0,1; 2 =0,07)
[13 24 21 56 44] 10,4 1,35 1.23 ( 1 =0,145; 2 =0)
[24 11 66 45 87] 7,85 3,32 2,33 ( 1 =0,11; 2 =-0,15)
[1 3 5 7 9 ] 8,63 3,51 1,48 ( 1 =-0,15; 2 =0,18)
[20 40 34 32 55] 16,22 2,67 1,56 ( 1 =-0,1; 2 =0,16)
[2 1 4 5 8] 7,78 1,03 1,03 ( 1 = 2 =0)
[9 10 5 12 1] 10,8 0,99 0,99 ( 1 = 2 =0)
[3 9 2 11 15] 6,34 1,62 1,62 ( 1 = 2 =0)
[91 18 26 4 50] 6,77 1,25 1,25 ( 1 = 2 =0)
[103 49 56 11 87] 6,76 1,32 1,32 ( 1 = 2 =0)
[6 9 15 21 7] 6,8 1,35 1,35 ( 1 = 2 =0)
[55 37 9 6 15] 14,4 1,73 1,73 ( 1 = 2 =0)
[4 31 87 3 8] 6,61 3,0 3,0 ( 1 = 2 =0)
[12 4 7 9 3] 6,04 2,59 2,59 ( 1 = 2 =0)
[21 4 7 9 11] 13,7 21,3 5,28 ( 1 =-0.05; 2 =0.05)
[3 7 25 5 9]
6,4
3,6
2,25 ( 1 =0.05; 2 =-0,05)
2,79 ( 1 =0,04; 2 =-0,05)
2,39 ( 1 =-0.1; 2 =0,05)
4.1.1.2 Nhận dạng hàm số
Hình 4.4 Tốc độ hội tụ của các thuật toán
Kết quả xấp xỉ hàm y=1+sin(x) tại hai thời điểm 150 giây và 225 giây được thể hiện qua các giá
trị hàm sai số tương ứng với từng thuật toán E([111]) (trên hình, ký kiệu [1] ứng với thuật toán
[111]), E(TT*), E(TT**) và các đồ thị xấp xỉ của hàm y bởi tín hiệu ra của mạng tại từng thời điểm
(hình 4.5)
104 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
Sử dụng ba thuật toán, thuật toán [111], TT* và TT**[1] huấn luyện mạng truyền thẳng 1-5-1 có số
trọng số W=16 để xấp xỉ hàm số y=1+sin(x) trong khoảng [0,2 ]x bởi tập mẫu có P=21 mẫu dữ
liệu. Các kết quả được trình bày trên các hình 4.4 và 4.5 cho thấy tốc độ hội tụ của TT* cao hơn
[111]. Đối với TT**, cũng như khảo sát ở trên, hiệu quả thuật toán phụ thuộc nhiều vào hệ số học
thích nghi.
4.1.2 Kiểm chứng các thuật toán HLM1, HLM2 và HLM
Độ chính xác và tốc độ hội tụ của HLM1, HLM2 và HLM ảnh hưởng trực tiếp tới độ chính xác của
các thuật toán nhận dạng và dự báo khuyết tật được xây dựng trên cở sở ứng dụng chúng (chương 3).
Do đó trong mục này chúng tôi thực hiện các thí nghiệm kiểm chứng độ chính xác và tốc độ hội tụ
của các thuật toán tổng hợp mạng neuro-fuzzy thích nghi HLM1, HLM2 của [9] và HLM của [2] từ
các tập dữ liệu số.
4.1.2.1 Khảo sát hiệu quả của HLM1 và HLM2 dựa vào tập mẫu ngẫu nhiên
Sử dụng tập mẫu tr_set1 15 mẫu, 3 biến vào một biến ra là những giá trị ngẫu nhiên xác định theo
Matlab. Sử dụng thuật toán được trình bày trong [93] (gọi tắt là thuật toán [93]) và hai thuật toán
mới, HLM1 (có các hệ số định hướng là 1 0.05; 2 0.95; 0.35 ) và HLM2, để huấn luyện
mạng neuro-fuzzy xấp xỉ hàm 1 1 1 2 3( , , )y f x x x phản ánh quan hệ vào-ra của tr_set1.
Kết quả được thể hiện trên bảng 4.2 cho thấy tốc độ hội tụ của HLM1 và HLM2 cao hơn
thuật toán được trình bày trong [93].
Hình 4.5 Đồ thị hàm y được xấp xỉ bởi tín hiệu ra của mạng tại thời điểm a/ 150s và b/ 225s ứng với
từng thuật toán (trên hình, ký kiệu [1] ứng với thuật toán [111])
105 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
Bảng 4.2 Sai số bình phương trung bình của từng thuật toán
Sai số E của các thuật toán Số luật
mờ [93] HLM1 HLM2
M=5 0,02760 0,0213 0,0246
M=6 0,02561 0,0107 7,1148.10-4
M=7 2,8576. 10-6 1,0199.10-7 7,3906.10-8
M=8 7,0300. 10-6 1,7844.10-7 8,6461.10-9
M=9 5,6341. 10-6 4,2997.10-7 1,1859. 10-7
4.1.2.2 Đánh giá HLM1 và HLM2 qua nhận dạng hàm số
Hàm 2 2 22 2 1 2(5 ) /[3(5 ) (5 ) ]y x x x của [93] được sử dụng để xây dựng tập mẫu tr_set2 gồm
100 mẫu trong đó các giá trị 1 2[ , ]x x x được lấy ngẫu nhiên trong khoảng ]10,0[ nhờ hàm random
của Matlab và dữ liệu ra được tính theo 2y . Sử dụng các thuật toán [93], HLM1 và HLM2 để tổng
hợp các mạng các neuro-fuzzy trên cùng một tập mẫu tr_set2. Các kết quả khảo sát được thể hiện
trên hình 4.6, hình 4.7 và bảng 4.3.
Hình 4.6 So sánh sai số đáp ứng ˆ ,i i iError y y 1...100i và giá trị sai số bình phương trung
bình E của thuật tóan [93], HLM1 và HLM2 ứng với tập mẫu tr_set2 với số luật mờ M=30
E=2,099.10-5 E=1,704.10-5 E=1,6686.10-5
Bảng 4.3 Sai số bình phương trung bình của từng thuật toán
Sai số E của các thuật toán Số luật
mờ [93] HLM1 HLM2
M=10 2,000. 10-3 1,700. 10-3 2,769.10-4
M=20 25,000.10-4 1,477.10-4 1,233.10-4
M=30 2,099.10-5 1,704.10-5 1,669.10-5
Algorithm [93]
106 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
Ở hình 4.6 thể hiện sai số đáp ứng ˆ ,i i iError y y 1...100i và các giá trị sai số bình phương
trung bình E của từng thuật toán [93], HLM1 (có các hệ số định hướng 1 0.05; 2 0.95; 0.35 )
và HLM2 ứng với số luật mờ M=30. Ở Hình 4.7, biểu diễn chung trên một hệ trục dữ liệu ra của tập
mẫu huấn luyện tr_set2, iy 1...100i (nét liền) và tín hiệu ra của mạng ˆiy (nét đứt) ứng với hai
thuật toán [93] và HLM2 với số luật mờ M=20. Trên hình 4.7a cho thấy sự khác biệt giữa hai đường
iy và ˆiy ; ngược lại ở hình 4.7b, hai đường này gần như trùng nhau, chứng tỏ ở hình 4.7b các giá trị
ra của mạng tiệm cận gần hơn tới tập các giá trị ra tương ứng của tập dữ liệu huấn luyện mạng. Bảng
4.3, hình 4.6 và hình 4.7 cho thấy độ chính xác của các thuật toán mới cao hơn độ chính xác của
thuật toán [93].
4.1.2.3 Kiểm chứng HLM1, HLM2 và HLM qua xấp xỉ hàm từ tập dữ liệu số
Sử dụng các thuật toán [93], HLM1 ( 1 20.05; 0.95; 0.5 ), HLM2 và HLM để xây dựng các
mạng neuro-fuzzy, mỗi mạng đóng vai trò là một hàm xấp xỉ của cùng một tập dữ liệu số gồm 100
mẫu, 10 biến vào một biến ra 1 1 10([ , ,..., ], )x x x y được cho trong phụ lục IV “Daily Data of Stock A”
của [95]. Kết quả thể hiện trên hình 4.8, 4.9 và bảng 4.4 cho thấy độ chính xác của HLM1, HLM2 và
HLM cao hơn độ chính xác của [93]; trong bốn thuật toán nêu trên, thuật toán HLM2 có độ chính xác
cao nhất nhưng có tốc độ hội tụ kém nhất.
Hình 4.7 Tín hiệu ra của tập mẫu tập tr_set2 yi ( ) và của mạng ˆ , 1...100iy i (----) ứng
với hai thuật toán [93] (a) và HLM2 (b)
(a) (b)
107 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
Bảng 4.4 Sai số E của [93], HLM1, HLM2 và HLM khi số luật mờ M=10, 12, 14, 18, 20
Sai số E ứng với từng thuật toán Số luật mờ
[93] HLM1 HLM2 HLM
M=10 13,4148 0,5618 0,0675 0,5222
M=12 1,74460 0,2070 0,0352 0,1526
M=14 3,5028. 10-5 2,1013. 10-6 1,2101.10-6 1,2971.10-6
M=18 8,7387.10-23 4,7213.10-23 1,1121.10-24 1,1737.10-24
M=20 0,0028 3,6972.10-12 4,0908.10-14 1,1006.10-13
Hình 4.9 Giá trị sai lệch ˆi i iError y y và giá trị sai số bình phương trung bình E của các thuật toán
[93] và HLM khi số luật mờ M=18, sử dụng tập mẫu “Daily Data of Stock A” của [95]
Hình 4.8 Giá trị sai lệch ˆi i iError y y và giá trị sai số bình phương trung bình E (=Error) của các thuật
toán [93] HLM1, HLM2 và HLM khi số luật mờ M=12, tập mẫu “Daily Data of Stock A” của [95]
M = 1 2
S e t 1 0 0 x1 0 x1
Al g o ri t h m [ 9 3 ]
E r r o r= 1 . 7 4 4 6
S e t 1 0 0 x 1 0 x 1
M = 1 8
A lg o r i t h m [ 9 3 ]
E r r o r = 8 . 7 3 8 7 e - 2 3
108 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
4.1.2.4 Đánh giá HLM1, HLM2 và HLM qua nhận dạng hàm số
Từ hàm 2 1,5 21 1(1 )y x x , 1 2, [1,5]x x xây dựng tập mẫu gồm 50 mẫu tương tự tập mẫu đã được sử
dụng trong [112]. Thực hiện huấn luyện mạng nhận dạng hàm y bằng cách ứng dụng các thuật toán
HLM1, HLM2, HLM, [93] và các thuật toán được trình bày trong [112][133][143] (gọi tắt là các thuật
toán [112][133][143]). Các kết quả nhận được cho trong bảng 4.5 cho thấy độ chính xác trung bình
của HLM1, HLM2 và HLM cao hơn rất nhiều so với độ chính xác trung bình của [93][112][133]
[143]. Trong ba thuật toán mới, HLM2 có độ chính xác cao nhất.
4.1.2.5 Khảo sát hiệu quả của HLM qua nhận dạng hàm số
Hàm 2 2 22 2 1 2(5 ) /[3(5 ) (5 ) ]y x x x của [93] được sử dụng để xây dựng tập mẫu tr_set gồm
100 mẫu. Các giá trị 1 2[ , ]x x x được lấy ngẫu nhiên trong khoảng [0;10] nhờ hàm random của
Matlab. Dữ liệu ra được tính theo 2 2 22 2 1 2(5 ) /[3(5 ) (5 ) ].y x x x
Trên hình 4.10 thể hiện sai số đáp ứng ˆ ,i i iError y y 1...100i và giá trị sai số bình phương
trung bình E của thuật toán [93] và thuật toán HLM [2] (có 1 0.05; 2 0.95; 0.35 ) ứng với số
luật mờ M=30. Hình 4.10 và số liệu cụ thể ứng với các giá trị của số luật mờ M được thể hiện trên
bảng 4.6 cho thấy hiệu quả của thuật toán mới, thuật toán HLM.
Bảng 4.6 Sai số E của [93] và HLM khi M=10, 15, 20, 25, 30
Sai số E ứng với từng thuật toán Số luật mờ
[93] HLM
M=10 2,000. 10-3 1,650. 10-3
M=15 2,200.10-3 2,100.10-3
M=20 25,000.10-4 1,338.10-4
M=25 3,545.10-5 2,326.10-5
M=30 2,099.10-5 1,4543.10-5
Bảng 4.5 Sai số E của [112][133][143][93] HLM, HLM1 và HLM2 khi M=6, 8, 10
Các thuật toán Số
luật mờ
ĐL [112] [133] [143] [93] HLM HLM1 HLM2
M=6 E 0,0589 0,0572 0,0599 0,0221 0,0167 0,0182 0,0196.10-2
M=8 E 0,0500 0,0499 0,0499 0,0220 0,0198 0,0218 0,0185.10-2
M=10 E 0,0148 0,0149 0,0149 0,0188 0,0244.10-1 0,0260.10-1 0,0198.10-2
109 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
4.1.2.6 Đánh giá hiệu quả của HLM qua nhận dạng dầm trong quan hệ độ võng-vị trí đặt tải
Khảo sát dầm mô hình như trên hình 4.11. Chia dầm thành 29 phần tử bởi 30 nút theo cách chia của
phương pháp phần tử hữu hạn. Lực tập trung F=200.000N được đặt tại nhiều vị trí khác nhau trên
dầm. Với mỗi vị trí của F, sử dụng chương trình tính toán cơ học ANSYS [166] xác định độ võng của
dầm tại 30 nút để xây dựng hai tập mẫu: TrainingSet có số mẫu P=900 và TestSet có số mẫu P=100
sao cho một mẫu bất kỳ thuộc tập này sẽ không thuộc tập kia.
Hình 4.11 Mô hình thí nghiệm đo độ võng của dầm cầu trên hai gối khi tải thay đổi
Hình 4.10 So sánh sai số đáp ứng ˆ ,i i iError y y 1...100i và giá trị sai số bình phương trung
bình E của thuật toán [93] và HLM ứng với tập mẫu tr_set với số luật mờ M=30
function f2
algorithm [93]
E=2.099e-5
E=1.4543e-5
24,703 m
E = 35.982 MPa
F = 200.000N
Dầm có tiết diện ngang là
hình chữ nhật 1,1 0, 45m m
Hình 4.12 Sai lệch ˆi i iError y y và sai số bình phương trung bình E ứng với từng thuật toán
M =4 0
Al go r i t h m [ 9 3 ]
E= 2 . 9 7 7 4 e - 6
M=40
Set 900x2x1
Algorithm HLM
E=2.5794e-6
110 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
Sử dụng thuật toán [93] và HLM để tổng hợp mạng neuro-fuzzy nhận dạng dầm trong quan hệ độ
võng-vị trí đặt tải thông qua tập dữ liệu TrainingSet. Sai số ˆi i iError y y và sai số bình phương
trung bình E ứng với từng thuật toán được thể hiện trên hình 4.12. Kết quả cho thấy độ chính xác
của thuật toán HLM cao hơn độ chính xác của [93].
Để kiểm tra khả năng nhận dạng và dự báo của mạng neuro-fuzzy được tổng hợp bởi thuật
toán HLM chúng tôi sử dụng tập TestSet làm dữ liệu vào-ra cho mạng đã được tổng hợp bởi thuật
toán HLM với tập dữ liệu TrainingSet (gọi tắt là mạng N-F/TrainingSet). Cụ thể, sử dụng tập TestSet
và N-F/TrainingSet chúng tôi đã tính và kiểm tra hai nội dung sau. Thứ nhất, tính sai lệch giữa dữ
liệu ra cho trong tập mẫu TestSet và dữ liệu ra tương ứng của N-F/TrainingSet khi sử dụng tín hiệu
vào cho mạng là tín hiệu vào của tập TestSet, ˆi i iError y y . Thứ hai, tính sai số bình phương trung
bình E giữa tín hiệu ra của N-F/TrainingSet (khi sử dụng tín hiệu vào cho mạng là tín hiệu vào của
tập TestSet) và tín hiệu ra của tập TestSet. Kết quả thể hiện trên hình 4.13 cho thấy khả năng nhận
dạng đối tượng và dự báo của mạng neuro-fuzzy được tổng hợp bởi thuật toán HLM khá tốt.
Nhận xét Kết quả thí nghiệm cho thấy hiệu quả tác động của hàm định hướng j [9]. Hàm j
thông qua bộ tham số định hướng 1 2[ ; ; ] đóng vai trò định hướng quá trình phân chia không gian
dữ liệu để xác lập các tập mờ, gia tăng tốc độ hội tụ, giảm số lượng tập mờ (giảm số lượng bó được
tạo thành) và do đó giảm mức độ phức tạp của mạng. Hàm j còn làm gia tăng mức độ phù hợp
trong mối liên hệ giữa không gian nền của các tập mờ (là không gian của các đại lượng vật lý cho
trong tập mẫu) với chính các tập mờ được xây dựng trên nó, và do đó làm gia tăng độ chính xác của
thuật toán HLM1, HLM2 và HLM. Việc gia tăng độ chính xác trong giai đoạn chia bó dữ liệu min-
max của thuật toán CBMM và trong giai đoạn xây dựng các bó siêu hộp thuần chủng của thuật toán
CSHL có tác dụng gia tăng mức độ ràng buộc giữa các tập mờ ở không gian vào và các lớp dữ liệu
Hình 4.13 Khả năng đáp ứng của mạng neuro-fuzzy được huấn luyện bởi thuật toán HLM
M=30
E=7.3927e-6
111 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
dạng siêu phẳng ở không gian ra, nghĩa là làm gia tăng mức độ phù hợp trong mối liên hệ giữa
không gian nền của các tập mờ (là không gian của các đại lượng vật lý cho trong tập mẫu) với chính
các tập mờ được xây dựng trên nó, và do đó làm gia tăng độ chính xác của các thuật toán này. Ngoài
ra, việc định hướng hợp lý trong quá trình chia cắt các siêu hộp có tác dụng làm gia tăng tốc độ hội
tụ, giảm số lượng tập mờ (giảm số lượng bó được tạo thành) và do đó giảm mức độ phức tạp của
mạng.
Đặc điểm của các thuật toán này là với một tập dữ liệu đã cho, các thuật toán có thể tự động
xác lập cấu hình mạng neuro-fuzzy, bao gồm tự động xác định số lượng các tập mờ, tự động xác lập
các hàm liên thuộc, tự động xác định số lượng neuron trên lớp ẩn phù hợp với độ chính xác yêu cầu.
So với HLM1 và HLM2, ưu điểm của thuật toán HLM là có khả năng nhận ra và cho biết
mức độ chính xác mà ANFIS không thể đạt tới ứng với tập dữ liệu huấn luyện đã cho. Trong ba
thuật toán, sai số của HLM2 nhỏ hơn HLM1 và HLM, tuy nhiên hạn chế cơ bản của HLM2 là thời
gian huấn luyện mạng và yêu cầu dung lượng nhớ của máy tính cao hơn nhiều so hai thuật toán kia.
112 Luận án Tiến sĩ Kỹ thuật
Nguyễn Sỹ Dũng
4.2 CÁC THÍ NGHIỆM TRÊN MÔ HÌNH TOÁN
Trong các khảo sát của nhóm này chúng tôi sử dụng mô hình toán của một dầm cầu với trạng thái
chịu lực là uốn ngang phẳng. Các thông số hình học cũng như cơ học của dầm được thể hiện trên
hình 4.14. Dầm được chia thành N=20 phần tử. Tạo ra các khuyết tật riêng lẻ và các khuyết tật đồng
thời trên cơ hệ. Xác định sáu tần số riêng đầu tiên khi chưa bị hư hỏng ( Hz ): f1=1,7; f2=6,9; f3=15,6;
f4=19,6; f5=27,6; f6=42. Chia đều miền tần số từ 0 đến 50Hz thành 501 điểm chia với bước chia là
0.1 Hz. Cho cơ hệ dao động và sử dụng chương trình ANSYS [166] để tính toán chuyển vị của hệ tại
các nút phần tử.
4.2.1 Xác định vị trí hỏng dựa vào phương pháp năng lượng và VTKT-NL
Phương pháp năng lượng của [67] và thuật toán cải biên VTKT-NL của [3] (đã được trình bày chi
tiết trong chương 3) được sử dụng để xác định vị trí khuyết tật trên mô hình thí nghiệm được