Bài giảng Lý thuyết thông tin - Chương 1: Tin tức

Nguồn tin: + Là tập hợp các tin HT3 dùng để lập các bản tin khác nhau trong sự truyền. + Nguồn tin được mô hình hoá toán học bằng bốn quá trình sau: - Quá trình ngẫu nhiên liên tục. Quá trình ngẫu nhiên rời rạc. - Dãy ngẫu nhiên liên tục. - Dãy ngẫu nhiên rời rạc. ? Kênh tin: là nơi diễn ra sự truyền lan của tín hiệu mang tin và chịu tác động của nhiễu. S0(t) = Nm (t). Si(t) + Na(t) + Si(t): Tín hiệu vào & S0(t): tín hiệu ra của kênh tin + Nm (t), Na(t) : đặc trưng cho nhiễu nhân, nhiễu cộng.

pdf56 trang | Chia sẻ: thuongdt324 | Lượt xem: 497 | Lượt tải: 0download
Bạn đang xem trước 20 trang tài liệu Bài giảng Lý thuyết thông tin - Chương 1: Tin tức, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
Lý thuyết thông tin trang: 1 TÓM TẮT BÀI GIẢNG LÝ THUYẾT THÔNG TIN CHƯƠNG 1: TIN TỨC 1-1 HỆ THỐNG TRUYỀN TIN (HT3)  Nguồn tin: + Là tập hợp các tin HT 3 dùng để lập các bản tin khác nhau trong sự truyền. + Nguồn tin được mô hình hoá toán học bằng bốn quá trình sau: - Quá trình ngẫu nhiên liên tục. Quá trình ngẫu nhiên rời rạc. - Dãy ngẫu nhiên liên tục. - Dãy ngẫu nhiên rời rạc.  Kênh tin: là nơi diễn ra sự truyền lan của tín hiệu mang tin và chịu tác động của nhiễu. S0(t) = Nm (t). Si(t) + Na(t) + Si(t): Tín hiệu vào & S0(t): tín hiệu ra của kênh tin + Nm (t), Na(t) : đặc trưng cho nhiễu nhân, nhiễu cộng. Si(t) S0(t) Nhiễu Nguồn tin Kênh tin Nhận tin Lý thuyết thông tin trang: 2  Nhận tin: là đầu cuối của HT3 làm nhiệm vụ khôi phục tin tức ban đầu. Hệ thống truyền tin số (rời rạc)  Hai vấn đề cơ bản của hệ thống truyền tin: + Vấn đề hiệu suất, nói cách khác là tốc độ truyền tin của hệ thống. + Vấn đề độ chính xác, nói cách khác là khả năng chống nhiễu của hệ thống. 1-2 SỐ ĐO THÔNG TIN a. Lượng đo tin tức: Nguồn A có m tín hiệu đẳng xác xuất, một tin do nguồn A hình thành là một dãy n ký hiệu ai bất kỳ (ai  A). Nguồn tin (1) Mã hóa nguồn (2) Mã hóa kênh (3) Bộ điều chế (4) Phát cao tần (5) Nhận tin (1’) Kênh tin Thu cao tần (5’) Giải điều chế (4’) Giải mã kênh (3’) Giải mã nguồn (2’) Lý thuyết thông tin trang: 3 – Lượng tin chứa trong một ai bất kỳ: I(ai)=logm (1) - Lượng tin chứa trong một dãy x gồm n ký hiệu: I(x) = n.log m (2) Đơn vị lượng đo thông tin thường được chọn là cơ số 2. - Khi m ký hiệu của nguồn tin có xác xuất khác nhau và không độc lập thống kê với nhau thì I(xi) = log (1/p(ai)) (3)  Lượng tin riêng: I(xi) = -log p(xi) (4) Là lượng tin ban đầu được xác định bằng xác xuất tiên nghiệm.  Lượng tin còn lại của xi sau khi đã nhận được yj được xác định bằng xác xuất hậu nghiệm. )(log)/( j i ii y x pyxI  (5)  Lượng tin tương hỗ: )( )( log)/()();( i j i iiiii xp y x p yxIxIyxI  (6)  Đặc tính của lượng tin: + I(xi)  I(xi ; yi) (7) + I(xi)  0 (8) Lý thuyết thông tin trang: 4 + I(xi.yi) = I(xi) + I(yi) - I(xi; yi) (9) Khi cặp xi, yj độc lập thống kê với nhau thì I(xi; yi) = 0 Ta có: I(xi. yi) = I(xi) + I(yi) (10)  Lượng tin trung bình: là lượng tin tức trung bình chứa trong m ký hiệu bất kỳ của nguồn đã cho.  X xpxpxI )(log)()( (11)  Lượng tin tương hỗ trung bình:  XY xp yxp yxpYXI )( )/( log),(),( (12)  Lượng tin riêng trung bình có điều kiện:  XY xyyxpXYI )/log(),()/( (13) b. Entrôpi nguồn rời rạc: là một thông số thống kê cơ bản của nguồn. Về ý nghĩa vật lý độ bất ngờ và lượng thông tin trái ngược nhau, nhưng về số đo chúng bằng nhau:  )(log)()()( xpxpXIXH (1) Entropi: độ bất ngờ  Đặc tính của Entrôpi H(X): + H(X)  0 + H(X) = 0 khi nguồn tin chỉ có một ký hiệu + H(X)max khi xác suất xuất hiện các ký hiệu của nguồn bằng nhau. Lý thuyết thông tin trang: 5 (2 tập tin: xo, yo với po, p1. P1 =1-po H(x) = -po.logpo –p1.logp1=-po.logpo – (1-po)log(1- po)  Entrôpi đồng thời: là độ bất định trung bình của một cặp (x,y) bất kỳ trong tích XY.    XY yxpyxpXYH ),(log),()( (2)  Entrôpi có điều kiện:    XY yxpyxpYXH )/(log),()/( (3) 1-3 THÔNG LƯỢNG CỦA KÊNH THÔNG TIN:  Tốc độ thiết lập tin của nguồn: R= n0.H(X) (bps) (1) + H(X); entrôpi của nguồn. + n0 : số ký hiệu được lập trong một đơn vị thời gian  Thông lượng của kênh C là lượng thông tin tối đa kênh cho đi qua trong một đơn vị thời gian mà không gây sai nhầm. C(bps)  Thông thường R < C, để R tiến tới gần C ta dùng phép mã hoá thống kê tối ưu để tăng Entrôpi. a. Thông lượng kênh rời rạc không nhiễu: C = Rmax = n0. H(X)max (bps) (2) Độ dư của nguồn: Lý thuyết thông tin trang: 6 max)( )( 1 XH XH r  (3) Dùng phương pháp mã hóa tối ưu để giảm độ dư của nguồn đến không hoặc sử dụng độ dư của nguồn để xây dựng mã hiệu chống nhiễu. b. Thông lượng kênh rời rạc có nhiễu: R = noI(X;Y) = n0[H(X)-H(X/Y)] (bps) (4) no = 1/T = delta(f)  Tốc độ lập tin cực đại trong kênh có nhiễu: C = Rmax = n0[H(X)-H(X/Y)]max (bps) (5) Lý thuyết thông tin trang: 7 CHƯƠNG 2: MÃ HÓA NGUỒN TIN 2-1. MÃ HIỆU 2-1-1 Mã hiệu và các thông số cơ bản của mã hiệu:  Cơ số của mã (m) là số các ký hiệu khác nhau trong bảng chữ của mã. Đối với mã nhị phân m= 2.  Độ dài của mã n là số ký hiệu trong một từ mã. Nếu độ dài các từ mã như nhau ta gọi là mã đều, ngược lại là mã không đều. VD: a b c d 1) 00 01 10 11 -> n=2 2) 0 1 10 111 -> 0 đều, n =7/4 < 2 (p ¼ ¼ ¼ ¼ )  Độ dài trung bình của bộ mã:    1 )( i ii nxpn (1) + p(xi): xác suất xuất hiện tin xi của nguồn X được mã hóa. + ni : độ dài từ mã tương ứng với tin xi. + N: Tổng số từ mã tương ứng với tổng số các tin của xi  Tính chất mã: Tổng hợp các tổ hợp mã có thể có được: N0=2 n ., nếu: + N<N0 ta gọi là mã vơi. + N=N0 ta gọi là mã đầy Lý thuyết thông tin trang: 8 2-1-2 Điều kiện thiết lập mã hiệu:  Điều kiện chung cho các loại mã là quy luật đảm bảo sự phân tích các tổ hợp mã. VD: 1) Phát n=2 (mã đều): phát chuỗi VD1: Thu: 1000111001100111 c a d c b c b d (giải mã theo từng 2 bit) 2) Thu: 1000111001100111 (a, b): baaabbbaabbaabbb (a,b,c): c aabbc ab c abbb (a,b,c,d): c aa d aabc a d (ưu tiên ký tự ít xuất hiện trước)  Điều kiện riêng cho các loại mã: + Đối với mã thống kê tối ưu: độ dài trung bình tối thiểu của mã. + Đối với mã sửa sai: khả năng phát hiện và sửa sai cao. 2-1-3. PHƯƠNG PHÁP BIỂU DIỄN MÃ. a- Các bảng mã: Tin a1 a2 a3 a4 a5 Từ mã 00 01 100 1010 1011 Mã không đều, vơi Mặt toạ độ mã: Lý thuyết thông tin trang: 9    n K K Kib 1 12 (1) K =0 hay 1 (mã nhị phân); K: số thứ tự của ký hiệu trong từ mã a1->b1=0.2 0 +0.2 1 =0 -> (n1,b1)=(0,0) c. Đồ hình mã: Cây mã Nút 0 (mức 0): nút gốc 0 1 1 0 1 2 0 3 0 1 0 1 a1(00) a2(01) a3(100) a4(1010) a5(1011) 1 2 3 4 0 0V1 0 1 0v 1 Đồ hình kết cấu 0 Chỉ nút gốc với từ mã được bôi đen Đồ hình kết cấu: chập các mã với nút gốc (mũi tên theo chiều kim đồng hồ) a- Hàm cấu trúc của mã: 2 Khi ni = 2 G(ni) = 1 Khi ni= 3 2 Khi ni = 4 0 Khi ni = 1 0 Khi ni = 5 2-1-4 Điều kiện để mã phân tách được : Lý thuyết thông tin trang: 10  Mã có tính Prêphic (prefix) VD: 1011 -> prefix = 101 or 10 or 1 - Bất kỳ dãy các từ mã nào của bộ mã cũng không được trùng với một dãy từ mã khác của cùng bộ mã. - Mã có tính prêphic nếu bất kỳ tổ hợp mã nào cũng không phải là prêphic của một tổ hợp nào khác cùng bộ mã. Điều kiện để mã có tính prêphic:     n j j jG 1 1)(2  Mã hệ thống có tính phêphic được xây dựng từ một mã prêphic nào đó bằng cách lấy một số tổ hợp của mã prêphic gốc làm tổ hợp sơ đẳng và các tổ hợp còn lại làm tổ hợp cuối. Ghép các tổ hợp sơ đẳng với nhau và nối một trong các tổ hợp cuối vào thành tổ hợp mã mới gọi là mã hệ thống có tính prêphic.  Ví dụ: Lấy bộ mã prêphic 1,00,010,011 - Các tổ hợp sơ đẳng: 1,00,010 - Một tổ hợp cuối: 011  Gọi : - n1, n2,, ni là độ dài các tổ hợp sơ đẳng - 1, 2,, k là độ dài các tổ hợp cuối - Số có thể có được các dãy ghép bằng các tổ hợp sơ đẳng có độ dài nj bằng : g(nj) = g(nj-n1) + g(nj-n2) + + g(nj-ni) (1) Lý thuyết thông tin trang: 11 Trong đó: nj  1; g(0) = g(nj=0) = 1 ; g(nj < 0) = 0  Nếu chỉ dùng một tổ hợp cuối , hàm cấu trúc mã sẽ là: G(nj) = g(nj- ) (2) + Từ (1) và (2) ta có công thức truy chứng tính G(nj) G(nj) = G(nj-n1) + G(nj-n2) + + G(nj-ni) (3) Trong đó: nj  +1; G(nj = ) = 1; G(nj < ) = 0 + Từ (1) ta có: n1=1, n2=2, n3=3 và  =3  g(nj) = g(nj-1) + g(nj-2) + g(nj-3) g(nj=1) = g(0) + g(-1) + g(-2) = 1  có 1 dãy 1 g(nj=2) = g(1) + g(0) + g(-1) = 2  có 2 dãy: 00 và 11 g(nj=3) = g(2) + g(1) + g(0) = 4  có 4 dãy: 111, 100, 001, 010 3 tổ hợp sơ đẳng -> 3 giá trị g + Từ (3) ta có: G(nj) = G(nj-1) + G(nj-2) +G(nj-3) Trong đó: nj=  +1=4 ; G(nj=3) = 1 ; G(nj<3) = 0 G(4) = G(3) + G(2) + G(1) = 1  có 1dãy 1011 G(5) = G(4) + G(3) + G(2) = 2  có 2 dãy: 11011 và 00011 G(6) = G(5) + G(4) + G(3) = 4  có 4 dãy: 111011, 100011, 001011, 010011 G(7) = G(6) + G(5) + G(4) = 7 + Ta có thể tìm G(nj) từ công thức (2) : G(nj) = g(nj-3) Lý thuyết thông tin trang: 12 G(4) = g(4-3) = g(1) = 1 G(5) = g(5-3) = g(2) = 2 G(6) = g(6-3) = g(3) = 4  Nếu dùng nhiều tổ hợp cuối để ghép 1, 2, I, cách ghép các dãy tổ hợp sơ đẳng với một trong các tổ hợp cuối có nhiều cách. G(nj) = g(nj - 1) + g(nj - 2) + .+ g(nj - k) (4) - Ví dụ: Với bộ mã ở trên ta lấy + Hai tổ hợp sơ đẳng : 1, 00  n1= 1, n2= 2 + Hai tổ hợp cuối: 010, 011  1 = 2 = 3 + Từ (1) ta tính được số có thể có được các dãy ghép bằng các tổ hợp sơ đẳng có độ dài nj bằng: g(nj) = g(nj –1) + g(nj-2) Trong đó nj 1, g(0) = 1, g (<0) = 0 g(1) = g(0) + g(-1) = 1  1dãy :1 g(2) = g(1) + g(0) = 2  2 dãy :11 và 00 g(3) = g(2) + g(1) = 3  3 dãy :111, 100, 001 g(4) = g(3) + g(2) = 5  5dãy :1111, 0000, 1100, 0011, 1001 + Từ (2) ta có: G(nj) = 2g(nj-3) trong đó nj 4; G(3) =1; G(<3) =0 G(4) = 2g(1) = 2x1 = 2  1010 và 1011 G(5) = 2g(2) = 2x2 = 4  11010, 00010, 11011, và 00011 Lý thuyết thông tin trang: 13 G(6) = 2g(3) = 2x3 = 6  111010, 100010, 001010, 111011, 100011, và 001011 G(7) = 2g(4) = 2x5 = 10 2-2. CÁC LOẠI MÃ THỐNG KÊ TỐI ƯU (TKTƯ) 2-2-1. Một số định lý cơ bản của mã TKTƯ  Định lý giới hạn về độ dài trung bình của từ mã: n H(U)  n  H(U) +1 (1)  mã thống kê có hai đặc điểm sau: - Các ký hiệu khác nhau của bộ chữ phải đồng xác suất. - Xác suất xuất hiện các ký hiệu trong từ mã không phụ thuộc sự có mặt của các ký hiệu ra trước. - n càng nhỏ càng tốt  Tiêu chuẩn mã kinh tế tối ưu:   n UH )(  (2) H(U): Entrôpi của nguồn n : độ dài trung bình của từ mã.   càng tiến tới 1 tính kinh tế của mã càng cao.  Mã thống kê có tính prephic.  )(2 i n upi  (3) & 12 1    N i ni (4) 2-2-2 Mã Thống kê tối ưu Sannon: Các bước thực hiện mã thống kê tối ưu Sannon: Bước 1: Liệt kê các tin của nguồn Ui và các xác suất pi tương ứng theo xác suất giảm dần. Lý thuyết thông tin trang: 14 Bước 2: Ứng với mỗi hàng ui, pi ghi một số Pi theo biểu thức: Pi = p1 + p2 +.+ pi-1 Bước 3: Đổi các số thập phân Pi thành các số nhị phân Bước 4: Tính độ dài từ mã: ii n i n up   12)(2 (2) Bước 5: Từ mã (ni, bi) sẽ là ni ký hiệu nhị phân (kể từ số lẻ trở đi) của số nhị phân Pi Ví dụ: lập mã cho nguồn U có sơ đồ thống kê: Ui U1 U2 U3 U4 U5 U6 U7 pi 0,34 0,23 0,19 0,1 0,07 0,06 0,01 Ui pi Pi Số nhị phân Pi ni Tứ mã U1 0,34 0 0,0000 2 00 U2 0,23 0,34 0,0101 3 010 U3 0,19 0,57 0,1001 3 100 U4 0,1 0,76 0,1100 4 1100 U5 0,07 0,86 0,11011 4 1101 U6 0,06 0,93 0,11101 5 11101 U7 0,01 0,99 0,1111110 7 1111110 + Pi được tính theo bước 2: i = 1 P1 = p0 = 0 i = 2 P2 = p1 = 0,34 i =3 P3 = p1 + p2 = 0,57 + Đổi Pi sang số nhị phân: Lý thuyết thông tin trang: 15 Pi = 0,34 x 2 0,68  0 x 2 1,36  1 - 1 0,36 x 2 0,72  0 x 2 1,44  1 Khi đó Pi = 0,34  0,0101 Pi = 0,86 x 2 1,72  1 - 1 0,72 x 2 1,44  1 - 1 0,44 x 2 0,88  0 x 2 1,76  1 - 1 0,76 x 2 1,52  1 Khi đó Pi = 0,86  0,11011 + Tính ni theo (2) ni = 1  2 -1 = 0,5 > pi=0,34  bị loại ni = 2  2 -2 = 0,25 < pi=0,34 < 3 1-2 =0,5  thỏa mãn  vậy ta lấy ni = 2 suy ra từ mã: 00 ni = 3  2 -3 = 0,125 < pi=0,23 <0,25  lấy ni =3  010  Tính kinh tế của mã: Lý thuyết thông tin trang: 16 H(U)= i i i pp 2 7 1 log     37,201,0log01,0...34,0log34,0 22  n =         7 1 99,2701,0...323,0234,0 i ii xxxnp  p= 81,0 99,2 37,2)(  n UH 2-2-3 Mã thống kê tối ưu Fano: Các bước thực hiện mã hoá mã thống kê tối ưu Fano: Bước 1: Liệt kê các tin ui trong một cột theo thứ tự pi giảm dần. Bước 2: Chia làm 2 nhóm có tổng xác suất gần bằng nhau nhất. Ký hiệu mã dùng cho nhóm đầu là 0, thì nhóm thứ 2 là 1. Bước 3: Mỗi nhóm lại chia thành hai nhóm nhỏ có xác suất gần bằng nhau nhất (ký hiệu 0 và 1). Quá trình cứ tiếp tục cho đến khi chỉ còn một ký hiệu thì kết thúc. Ui pi 1 2 3 4 5 Từ mã U1 0,34 0 0 00 U2 0,23 0 1 01 U3 0,19 1 0 10 U4 0,1 1 1 0 110 U5 0,07 1 1 1 0 1110 U6 0,06 1 1 1 1 0 11110 U7 0,01 1 1 1 1 1 11111  Thực hiện bước 2: Lý thuyết thông tin trang: 17 - Cách 1: p1+ p2 = 0,34 + 0,23 = 0,57 p3+ p4 + p5 + p6 + p7 = 0,43 Độ chênh lệch : 0,14 - Cách 2: p1+ p2 + p3 = 0,76 p4 + p5 + p6 + p7 = 0,24 Độ chênh lệch : 0,52 Vậy cách chia thứ nhất có xác suất gần bằng nhau hơn cách chia thứ hai, nên ta chọn cách chia thứ nhất. Quá trình cứ thế tiếp diễn.  Thực hiện bước 3: - Cách 1: p3 = 0,19 p4 + p5 + p6 + p7 = 0,24 Độ chênh lệch : -0,05 - Cách 2: p3 + p4 = 0,29 p5 + p6 + p7 = -0,14 Độ chênh lệch : 0,15 Vậy ta chọn cách thứ nhất. n =           7 1 31,0219,0223,0234,0 i ii xxxxnp p= 98,0 41,2 37,2)(  n UH  có thể vẽ cây mã cho TKTƯ Fano.  Nhận xét về mã thống kê tối ưu Fano:       41,2501,0506,0407,0  xxx Lý thuyết thông tin trang: 18 Ưu: Với cách chia nhóm đồng xác suất, sự lập mã TK tối ưu đồng thời cũng là mã prêphic. Khuyết: Không cho phép lập mã duy nhất, nghĩa là có nhiều mã tương đương về tính kinh tế. Ví dụ: đối với nguồn tin dưới đây ít nhất có hai cách chia có tính kinh tế như sau: Ui pi Cách chia 1 Từ mã Cách chia 2 Từ mã U1 0,19 0 0 0 0 0 0 0 0 0 0 U2 0,19 0 1 0 0 1 0 0 0 1 0 0 1 U3 0,19 0 1 1 0 1 1 0 1 0 1 U4 0,19 1 0 1 0 1 0 1 0 U5 0,08 1 1 0 1 1 0 1 1 0 0 1 1 0 0 U6 0,08 1 1 1 0 1 1 1 0 1 1 0 1 1 1 0 1 U7 0,08 1 1 1 1 1 1 1 1 1 1 1 1 1 1    7 1 1 i iinpn (0,19x2) + (0,19x3) + (0,19x3) + (0,19x2) + (0,08x3) + (0,08x4) +(0,08x4)=2,46    7 1 2 i iinpn (0,19x3) + (0,19x3) + (0,19x2) + (0,19x2) + (0,08x4) + (0,08x4) +(0,08x3)=2,46 Cùng một bộ mã nên H(u1) = H(u2) suy ra 1 =2.  Để khắc phục nhược điểm của mã thống kê tối ưu Fano ta nghiên cứu mã thống kê tối ưu Huffman. Lý thuyết thông tin trang: 19 0 0 0 0 0 0 1 1 1 1 1 u1 u2 u3 u4 u5 u6 u7 0 0 1 1 1 1 1 1 0 0 0 0 u1 u2 u3 u4 u5 u6 u7 0 0 0 0 0 0 1 1 1 1 1 1 u1 u2 u3 u5 u6 u7 u4 Cách chia 1 2-2-4 Mã TK tối ưu Huffman: Theo Hốpman để có một bộ mã Pre6phic có độ dài từ mã tối thiểu, điều kiện cần và đủ là thỏa mãn 3 tính chất sau: 1- Tính thứ tự độ dài các từ mã: pi  pj với i <j thì ni  nj. 2- Tính những từ cuối: có độ dài bằng nhau, chỉ khác nhau về trọng số của ký hiệu cuối cùng. 3- Tính liên hệ giữa những từ cuối và từ trước cuối.  Các bước thực hiện mã hóa TK tối ưu Hốpman. Cách chia 2 Lý thuyết thông tin trang: 20 Bước 1: Các nguồn tin được liệt kê trong cột theo thứ tự xác suất xuất hiện giảm dần. Bước 2: Hai tin cuối có xác suất bé nhất được hợp thành tin phụ mới có xác suất bằng tổng xác suất các tin hợp thành. Bước 3: Các tin còn lại (N-2) với tin phụ mới được liệt kê trong cột phụ thứ nhất theo thứ tự xác suất giảm dần. Bước 4: Quá trình cứ thế tiếp tục cho đến khi hợp thành một tin phụ có xác suất xuất hiện bằng 1. ui pi Từ mã 0 1 1 U1 0,34 0 0,58 00 1 U2 0,23 0 0,42 10 U3 0,19 1 11 0 0,24 U4 0,10 1 011 U5 0,07 0 0.14 0100 1 U6 0,06 0 0,07 01010 U7 0,01 1 01011  Từ mã được đọc ngược từ đầu ra về đầu vào. Cũng có thể dùng cây mã để xác định mã Hốp nam: Lý thuyết thông tin trang: 21 0 0 0 1 1 10 0,42 1 0,42 0 0 1 1 0,14 0,07 u1(0,34) u2(0,23) u3(0,19) u4(0,1) u5(0,07) u6(0,06) u7(0,01) gèc  Tính kinh tế:  = 0,98 Mặc dù tối ưu hơn so với mã Sannon và Fano, nhưng khi bộ mã nguồn có nhiều tin thì bộ mã trở nên cồng kềnh. Khi đó người ta kết hợp 2 phương pháp mã hóa: Mã Hốp man + mã đều. ui Pi Mã Hốp man Mã đều Từ mã u1 0,5 0 0 u2 0,25 0 0,5*1 10 u3 0,0315 1 1 00 11000 u4 0,0315 0,125 01 11001 u5 0,031 0 10 11010 u6 0,031 11 11011 u7 0,0157 0,25 000 111000 u8 0,0157 001 111001 u9 0,0157 010 111010 u10 0,0157 0,125 011 111011 u11 0,0156 1 100 111100 u12 0,0156 101 111101 u13 0,0155 110 111110 u14 0,0155 111 111111 Lý thuyết thông tin trang: 22 H(u) =   4 1 2log i ii pp -[0,5log20,5 + 0,25log20,25 + 0,125log20,125] =    4 1i iinpn (0,5x1) +(0,25x2) + ((0,125x5) +0,125x6 = 0,5 +0,5+0,625+0.75=2,375 375,2 )(   n uH  Lý thuyết thông tin trang: 23 CHƯƠNG 3: MÃ HÓA KÊNH TRUYỀN (Mã phát hiện và sửa sai) 3-1 KHÁI NIỆM VỀ MÃ PHÁT HIỆN VÀ SỬA SAI:  Dạng sai lầm của mã hiệu được truyền tuỳ thuộc tính chất thống kê của kênh: - sai độc lập dẫn đến sai ngẫu nhiên: 1 hoặc 2 sai. - Sai tương quan dẫn đến sai chùm (sai cụm)  Người ta thống kê: sai ngẫu nhiên xẩy ra 80%, sai chùm xảy ra 20%.  Xác suất xuất hiện một từ mã n ký hiệu có t sai bất kỳ: p(n,t) = Cn t ps t (1-ps) n-t (1) 3-1-1 Cơ chế phát hiện sai của mã hiệu  Số từ mã có thể có: N0 = 2 n  Số từ mã mang tin: N = 2k.  Số từ mã không dùng đến: 2n –2k (số tổ hợp cấm)  Để mạch có thể phát hiện hết i lỗi thì phải thỏa mãn điều kiện:    E n k 1 2 2 (2) Trong đó  E = E1 + E2+ . . . + Ei (3) E1, E2, . . Ei là tập hợp các vector sai 1,2 . . .i lỗi.  Để phát hiện và sửa hết sai 1 lỗi ta có: Lý thuyết thông tin trang: 24 1 2 2   n n k (4) 3-1-2 Khả năng phát hiện và sửa sai:  Trọng số Hamming của vector t: ký hiệu, w(t) được xác định theo số các thành phần khác không của vector. Ví dụ: t1 = 1 0 0 1 0 1 1  w(t1) = 4  Khoảng cách Hamming giữa 2 vector t1, t2: ký hiệu, d(t1, t2) được định nghĩa là số các thành phần khác nhau giữa chúng. Ví dụ: t2 = 0 1 0 0 0 1 1  d(t1, t2) = 3 chúng k