Entropy và thông tin
Số trang: 6
Loại file: pdf
Dung lượng: 177.23 KB
Lượt xem: 23
Lượt tải: 0
Xem trước 2 trang đầu tiên của tài liệu này:
Thông tin tài liệu:
Lý thuyết thông tin (Infomation theory) là lý thuyết liên quan đến các định luật toán học chi phối việc truyền, tiếp nhận và xử lý thông tin. Chính xác hơn lý thuyết thông tin đề cập tới các vấn đề về đo số lượng thông tin, biểu diễn thông tin (như vấn đề mã hoá), và khả năng của các hệ thống truyền thông có nhiệm vụ truyền, nhận và xử lý thông tin. Việc mã hoá có thể dùng để chuyển các tín hiệu âm thanh và hình ảnh thành tín hiệu điện, điện từ hoặc dùng để bảo mật thông tin.
Nội dung trích xuất từ tài liệu:
Entropy và thông tinENTROPY VÀ THÔNG TINPGS.PTS.NGƯT. Đoàn Phan TânKhái niệm Entropy và Thông tin là khái niệm cơ bản của Lýthuyết thông tin.Lý thuyết thông tin (Infomation theory) là lý thuyết liên quan đếncác định luật toán học chi phối việc truyền, tiếp nhận và xử lý thông tin.Chính xác hơn lý thuyết thông tin đề cập tới các vấn đề về đo số lượngthông tin, biểu diễn thông tin (như vấn đề mã hoá), và khả năng của cáchệ thống truyền thông có nhiệm vụ truyền, nhận và xử lý thông tin. Việcmã hoá có thể dùng để chuyển các tín hiệu âm thanh và hình ảnh thành tínhiệu điện, điện từ hoặc dùng để bảo mật thông tin.Lý thuyết thông tin do Claude E. Shanon, một kỹ sư người Mỹ,một chuyên viên về kỹ thuật truyền tin đưa ra vào năm 1948 với bài báo“A mathematical theory of communication”, nhằm giải quyết nhu cầu vềcơ sở lý thuyết của công nghệ truyền thông. Nhu cầu này nảy sinh do độphức tạp của quá trình truyền tin trên các kênh truyền thông như cácmạng lưới điện thoại, điện báo và truyền thanh. Thuật ngữ thông tin ở đâylà để chỉ các thông báo được truyền đi như: tiếng nói và âm nhạc đượctruyền đi bằng điện thoại hoặc truyền thanh, hình ảnh được truyền đi bằngtruyền hình, các dữ liệu số hoá trên các mạng máy tính. Lý thuyết thôngtin còn được ứng dụng trong những lĩnh vực khác nhau như điều khiểnhọc, ngôn ngữ học, tâm lý học...1- Entropy là số đo độ không xác địnhSự không xác định là tính chất chủ yếu của các biến cố ngẫu nhiên.Nhưng rõ ràng là mức độ không xác định của các biến cố ngẫu nghiênkhác nhau là khác nhau.Ví dụ:- Rất khó đoán trước được người đầu tiên mà ta gập ở ngoài phố làđàn ông hay đàn bà. Nhưng còn khó hơn khi đoán trước người chiếnthắng trong một cuộc đua có 10 người tham gia.- Trong khi đó, gần như tuyệt đối ta có thể khẳng định màu củacon quạ mà ta gập đầu tiên là màu đen.Vấn đề đặt ra là, cần phải xây dựng một đại lượng cho phép tađánh giá bằng số độ không xác định của các phép thử , để ta có thể sosánh được chúng vơí nhau (về đọ không xác định).Trước hết, ta xét các phép thử α có k kết cục đồng khả năng. Rõràng đặc trưng bằng số phải tìm của độ không xác định của α phụ thuộc1vào k, tức là một hàm số của k. Rõ ràng hàm f(k) này phải có hai tínhchất sau:- f(1) = 0, vì với k = 1 thì tính không xác định của phép thử α hoàntoàn không có.- f(k) > f(l) nếu k > l, vì độ không xác định của phép thử α sẽ tăngkhi k tăng.Bây giờ ta xét hai phép thử độc lập α và β. Giả sử α có k kết cụcđồng khả năng, β có l kết cục đồng khả năng. Khi đó phép thử hợp αβ, làphép thử thực hiện đồng thời cả hai phép thử α và β, sẽ có kl kết cụcđồng khả năng. Rõ ràng độ không xác định của phép thử hợp sẽ lớn hơnđộ không xác định của phép các thử thành phần. Một cách tự nhiên tathừa nhận rằng: độ không xác định của phép thử αβ bằng tổng độ khôngxác định của các phép thử α và β. Do đó hàm f(k) phải thoả mãn tínhchất sau:f(kl) = f(k) + f(l)Ta nhận thấy rằng trong toán học hàm logarit với cơ số lớn hơn 1là hàm có các tính chất trên. Điều đó gợi ý cho ta lấy số logak làm số đođộ không xác định của phép thử có k kết cục đồng khả năng, trong đó a >1 để bảo đảm tính đồng biến của hàm số này. Vì vậy:H(α) = logak, với a >1Trong kỹ thuật người ta thường chọn cơ số a = 2, tức là đặt:H(α) = log2kNếu phép thử α có 2 kết cục đồng khả năng thì k = 2 (ví dụ: phépthử là việc gieo một đồng tiền, các kết cục của nó là việc xuất hiện mộttrong hai mặt sấp hoặc ngửa), thì f(2) = log22 = 1. Do đó người ta lấy sốđo độ không xác định của phép thử α có 2 kết cục đồng khả năng làm đơnvị đo độ không xác định. Đơn vị đó thường gọi là đơn vị nhị phân, cònđược gọi tắt là một bít. (viết tắt của từ binary digit).Ta xét bảng phân phối xắc suất của phép thử có k kết quả đồng khảnăngKết cục của phép thửA1A2A3.....AnXắc suất1/k1/k1/k........1/kVì độ không xác định chung của phép thử là log2k, nên có thể thừanhận rằng : mỗi kết cục riêng biệt, có xắc suất 1/k, có một độ không xác111log 2 k = − logkkk2định bằng:Do đó, một cách tự nhiên ta thừa nhận rằng trong kết quả của phépthử, cho bởi bảng phân phối xắc suất sau đây:Kết cục của phép thửA1A2A3Xắc suất1/21/31/6các kết cục A1, A2, A3 có độ không xác đọnh tương ứng bằng:11− log ,2211− log ,3311− log66Như vậy độ không xác định chung của phép thử này là:11 1111− log − log − log22 3366Trong trường hợp tổng quát, với phép thử α có bản phân phối xắcsuất:Kết cục của phép thửXắc suấtA1A2A3.....Anp(A1)p(A2)p(A3)........p(An)thì số đo độ không xác định của nó, ký hiệu là H(α ), bằng:H(α) = - p(A1)log2p(A1) - p(A2)log2p(A2) - . . . . . - p(An)log2p(An)con số trên được gọi là entropy của phép thử α.Tính chất của entropy:1) H(α ) ≥ 0Vì 0≤ p(Ai) ≤1, nên - p(Ai)log2p(Ai) ≥ 0, với mọi i.2) H(α ) = 0 khi một trong các xắc suất p(Ai) bằng 1, còn các xắcsuất khác bằng 0.Điều này hoàn toàn phù hợp với ...
Nội dung trích xuất từ tài liệu:
Entropy và thông tinENTROPY VÀ THÔNG TINPGS.PTS.NGƯT. Đoàn Phan TânKhái niệm Entropy và Thông tin là khái niệm cơ bản của Lýthuyết thông tin.Lý thuyết thông tin (Infomation theory) là lý thuyết liên quan đếncác định luật toán học chi phối việc truyền, tiếp nhận và xử lý thông tin.Chính xác hơn lý thuyết thông tin đề cập tới các vấn đề về đo số lượngthông tin, biểu diễn thông tin (như vấn đề mã hoá), và khả năng của cáchệ thống truyền thông có nhiệm vụ truyền, nhận và xử lý thông tin. Việcmã hoá có thể dùng để chuyển các tín hiệu âm thanh và hình ảnh thành tínhiệu điện, điện từ hoặc dùng để bảo mật thông tin.Lý thuyết thông tin do Claude E. Shanon, một kỹ sư người Mỹ,một chuyên viên về kỹ thuật truyền tin đưa ra vào năm 1948 với bài báo“A mathematical theory of communication”, nhằm giải quyết nhu cầu vềcơ sở lý thuyết của công nghệ truyền thông. Nhu cầu này nảy sinh do độphức tạp của quá trình truyền tin trên các kênh truyền thông như cácmạng lưới điện thoại, điện báo và truyền thanh. Thuật ngữ thông tin ở đâylà để chỉ các thông báo được truyền đi như: tiếng nói và âm nhạc đượctruyền đi bằng điện thoại hoặc truyền thanh, hình ảnh được truyền đi bằngtruyền hình, các dữ liệu số hoá trên các mạng máy tính. Lý thuyết thôngtin còn được ứng dụng trong những lĩnh vực khác nhau như điều khiểnhọc, ngôn ngữ học, tâm lý học...1- Entropy là số đo độ không xác địnhSự không xác định là tính chất chủ yếu của các biến cố ngẫu nhiên.Nhưng rõ ràng là mức độ không xác định của các biến cố ngẫu nghiênkhác nhau là khác nhau.Ví dụ:- Rất khó đoán trước được người đầu tiên mà ta gập ở ngoài phố làđàn ông hay đàn bà. Nhưng còn khó hơn khi đoán trước người chiếnthắng trong một cuộc đua có 10 người tham gia.- Trong khi đó, gần như tuyệt đối ta có thể khẳng định màu củacon quạ mà ta gập đầu tiên là màu đen.Vấn đề đặt ra là, cần phải xây dựng một đại lượng cho phép tađánh giá bằng số độ không xác định của các phép thử , để ta có thể sosánh được chúng vơí nhau (về đọ không xác định).Trước hết, ta xét các phép thử α có k kết cục đồng khả năng. Rõràng đặc trưng bằng số phải tìm của độ không xác định của α phụ thuộc1vào k, tức là một hàm số của k. Rõ ràng hàm f(k) này phải có hai tínhchất sau:- f(1) = 0, vì với k = 1 thì tính không xác định của phép thử α hoàntoàn không có.- f(k) > f(l) nếu k > l, vì độ không xác định của phép thử α sẽ tăngkhi k tăng.Bây giờ ta xét hai phép thử độc lập α và β. Giả sử α có k kết cụcđồng khả năng, β có l kết cục đồng khả năng. Khi đó phép thử hợp αβ, làphép thử thực hiện đồng thời cả hai phép thử α và β, sẽ có kl kết cụcđồng khả năng. Rõ ràng độ không xác định của phép thử hợp sẽ lớn hơnđộ không xác định của phép các thử thành phần. Một cách tự nhiên tathừa nhận rằng: độ không xác định của phép thử αβ bằng tổng độ khôngxác định của các phép thử α và β. Do đó hàm f(k) phải thoả mãn tínhchất sau:f(kl) = f(k) + f(l)Ta nhận thấy rằng trong toán học hàm logarit với cơ số lớn hơn 1là hàm có các tính chất trên. Điều đó gợi ý cho ta lấy số logak làm số đođộ không xác định của phép thử có k kết cục đồng khả năng, trong đó a >1 để bảo đảm tính đồng biến của hàm số này. Vì vậy:H(α) = logak, với a >1Trong kỹ thuật người ta thường chọn cơ số a = 2, tức là đặt:H(α) = log2kNếu phép thử α có 2 kết cục đồng khả năng thì k = 2 (ví dụ: phépthử là việc gieo một đồng tiền, các kết cục của nó là việc xuất hiện mộttrong hai mặt sấp hoặc ngửa), thì f(2) = log22 = 1. Do đó người ta lấy sốđo độ không xác định của phép thử α có 2 kết cục đồng khả năng làm đơnvị đo độ không xác định. Đơn vị đó thường gọi là đơn vị nhị phân, cònđược gọi tắt là một bít. (viết tắt của từ binary digit).Ta xét bảng phân phối xắc suất của phép thử có k kết quả đồng khảnăngKết cục của phép thửA1A2A3.....AnXắc suất1/k1/k1/k........1/kVì độ không xác định chung của phép thử là log2k, nên có thể thừanhận rằng : mỗi kết cục riêng biệt, có xắc suất 1/k, có một độ không xác111log 2 k = − logkkk2định bằng:Do đó, một cách tự nhiên ta thừa nhận rằng trong kết quả của phépthử, cho bởi bảng phân phối xắc suất sau đây:Kết cục của phép thửA1A2A3Xắc suất1/21/31/6các kết cục A1, A2, A3 có độ không xác đọnh tương ứng bằng:11− log ,2211− log ,3311− log66Như vậy độ không xác định chung của phép thử này là:11 1111− log − log − log22 3366Trong trường hợp tổng quát, với phép thử α có bản phân phối xắcsuất:Kết cục của phép thửXắc suấtA1A2A3.....Anp(A1)p(A2)p(A3)........p(An)thì số đo độ không xác định của nó, ký hiệu là H(α ), bằng:H(α) = - p(A1)log2p(A1) - p(A2)log2p(A2) - . . . . . - p(An)log2p(An)con số trên được gọi là entropy của phép thử α.Tính chất của entropy:1) H(α ) ≥ 0Vì 0≤ p(Ai) ≤1, nên - p(Ai)log2p(Ai) ≥ 0, với mọi i.2) H(α ) = 0 khi một trong các xắc suất p(Ai) bằng 1, còn các xắcsuất khác bằng 0.Điều này hoàn toàn phù hợp với ...
Tìm kiếm theo từ khóa liên quan:
Entropy và thông tin Lý thuyết thông tin Mã hóa thông tin Định luật toán học Xử lý thông tin Hệ thống truyền thôngGợi ý tài liệu liên quan:
-
PHÂN TÍCH THIẾT KẾ HỆ THỐNG XÂY DỰNG HỆ THỐNG ĐẶT VÉ TÀU ONLINE
43 trang 281 2 0 -
Đề cương chi tiết bài giảng môn Đảm bảo và an toàn thông tin
25 trang 271 0 0 -
Tóm tắt luận án tiến sỹ Một số vấn đề tối ưu hóa và nâng cao hiệu quả trong xử lý thông tin hình ảnh
28 trang 221 0 0 -
Tài liệu học tập môn Tin cơ sở: Phần 1 - Phùng Thị Thu Hiền
100 trang 189 1 0 -
Giáo án Tin học lớp 10 (Trọn bộ cả năm)
152 trang 178 0 0 -
6 trang 170 0 0
-
Tuyển tập bài nghiên cứu chủ đề Truyền thông Việt Nam trong bối cảnh toàn cầu hóa: Phần 1
161 trang 162 0 0 -
Giáo trình Lý thuyết thông tin - Bộ Môn Khoa Học Máy Tính
82 trang 115 0 0 -
Giáo trình An toàn mạng (Nghề: Quản trị mạng - Trình độ: Cao đẳng) - Trường Cao đẳng nghề Cần Thơ
117 trang 86 1 0 -
Bài giảng Kỹ thuật xử lý và phân tích số liệu định lượng - ThS, Nguyễn Ngọc Anh
10 trang 82 0 0