NHẬN DẠNG ẢNH PATTERN RECOGNITION Như chỉ ra trong hình 1.1 – a chương Một, nhận dạng ảnh là tiến trình sau cuối của những mạng lưới hệ thống giải quyết và xử lý ảnh. Nhận dạng ảnh dựa trên nền tảng kim chỉ nan nhận dạng ( pattern recognition ) nói chung và đã được đề cập trong nhiều sách về nhận dạng. Ở đây, ta không nhắc lại mà chỉ trình diễn mang đặc thù trình làng 1 số ít khái niệm cơ bản và những chiêu thức thường được sử dụng trong kỹ thuật nhận dạng. Và ở đầu cuối sẽ đề cập đến một trường hợp đơn cử về nhận dạng đó là nhận dạng chữ viết, một yếu tố đã và đang được chăm sóc nhiều. Trong kim chỉ nan nhận dạng nói chung và nhận dạng ảnh nói riêng có 3 cách tiếp cận khác nhau : – Nhận dạng dựa vào phân hoạch khoảng trống. – Nhận dạng cấu trúc. – Nhận dạng dựa vào kỹ thuật mạng nơ ron. Hai cách tiếp cận đầu là những kỹ thuật tầm cỡ. Các đối tượng người tiêu dùng ảnh quan sát và thu nhận được phải trải qua quy trình tiến độ tiền giải quyết và xử lý nhằm mục đích tăng cường chất lượng, làm nổi những chi tiết cụ thể ( chương 4 ), tiếp theo là trích chọn và trình diễn những đặc trưng ( chương 5 và chương 6 ), và ở đầu cuối mới qua quá trình nhận dạng. Cách tiếp cận thứ ba trọn vẹn khác. Nó dựa vào chính sách đoán nhận, lưu trũ và phân biệt đối tượng người tiêu dùng mô phỏng theo hoạt động giải trí của hệ thần kinh con người. Do chính sách đặc biệt quan trọng, những đối tượng người dùng thu nhận bởi thị giác người không cần qua quy trình tiến độ cải tổ mà chuyển ngay sang quy trình tiến độ tổng hợp, đối sánh tương quan với những mẫu đã tàng trữ để nhận dạng. Đây là cách tiếp cận có nhiều hứa hẹn. Các cách tiếp cận trên sẽ trình diễn cụ thể trong những phần dưới đây. 7.1 TỔNG QUAN VỀ NHẬN DẠNG Nhận dạng là quy trình phân loại những đối tượng người dùng được trình diễn theo một quy mô nào đó và gán cho chúng vào một lớp ( gán cho đối tượng người tiêu dùng một tên gọi ) dựa theo những quy luật và những mẫu chuẩn. Quá trình nhận dạng dựa vào những mẫu học biết trước gọi là nhận dạng có thày hay học có thày ( supervised learning ) ; trong trường hợp ngược lại gọi là học không có thày ( non supervised learning ). Chúng ta sẽ lần lượt ra mắt những khái niệm này. 7.1.1 Không gian trình diễn đối tượng người tiêu dùng, khoảng trống diễn dịch Không gian trình diễn đối tượng người dùng Các đối tượng người dùng khi quan sát hay tích lũy được, thường được trình diễn bởi tập những đặc trưng hay đặc tính. Như trong trường hợp giải quyết và xử lý ảnh, ảnh sau khi được tăng cường để nâng cao chất lượng, phân vùng và trích chọn đặc tính như đã trình diễn trong những chương từ chương Bốn đến chương Sáu, được trình diễn bởi những đặc trưng như biên, miền giống hệt, v., v. Người ta thường phân những đặc trưng này theo những loại như : đặc trưng tô pô, đặc trưng hình học và đặc trưng tính năng. Việc trình diễn ảnh theo đặc trưng nào là phụ thuộc vào vào ứng dụng tiếp theo. Ở đây ta đưa ra một cách hình thức việc màn biểu diễn những đối tượng người tiêu dùng. Giả sử đối tượng người dùng X ( ảnh, chữ viết, dấu vân tay, v., v ) được màn biểu diễn bởi n thành phần ( n đặc trưng ) : X = { x1, x2 ,., xn } ; mỗi xi màn biểu diễn một đặc tính. Không gian trình diễn đối tượng người dùng thường gọi tắt là khoảng trống đối tượng người dùng X được định nghĩa : X = { X1, X2 ,., Xm } trong đó mỗi Xi trình diễn một đối tượng người tiêu dùng. Không gian này hoàn toàn có thể là vô hạn. Để tiện xem xét tất cả chúng ta chỉ xét tập X là hữu hạn. Không gian diễn dịch Không gian diễn dịch là tập những tên gọi của đối tượng người dùng. Kết thúc quy trình nhận dạng ta xác lập được tên gọi cho những đối tượng người dùng trong tập khoảng trống đối tượng người tiêu dùng hay nói là đã nhận dạng được đối tượng người dùng Một cách hình thức gọi W là tập tên đối tượng người dùng : W = { w1, w2 ,., wk } với wi, i = 1, 2 ,., k là tên những đối tượng người tiêu dùng Quá trình nhận dạng đối tượng người tiêu dùng f là một ánh xạ f : X — > W với f là tập những quy luật để định một thành phần trong X ứng với một thành phần trong W. Nếu tập những quy luật và tập tên những đối tượng người tiêu dùng là biết trước như trong nhận dạng chữ viết ( có 26 lớp từ A đến Z ), người ta gọi là nhận dạng có thày. Trường hợp thứ hai là nhận dạng không có thày. Đương nhiên trong trường hợp này việc nhận dạng có khó khăn vất vả hơn .

docx

42 trang

| Chia sẻ : tlsuongmuoi

| Lượt xem: 3519

| Lượt tải: 6

download

Bạn đang xem nội dung tài liệu Nhận dạng ảnh pattern recognition, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên

7 NHẬN DẠNG ẢNH PATTERN RECOGNITION Như chỉ ra trong hình 1.1 – a chương Một, nhận dạng ảnh là quá trình ở đầu cuối của những mạng lưới hệ thống giải quyết và xử lý ảnh. Nhận dạng ảnh dựa trên nền tảng triết lý nhận dạng ( pattern recognition ) nói chung và đã được đề cập trong nhiều sách về nhận dạng. Ở đây, ta không nhắc lại mà chỉ trình diễn mang đặc thù trình làng 1 số ít khái niệm cơ bản và những giải pháp thường được sử dụng trong kỹ thuật nhận dạng. Và sau cuối sẽ đề cập đến một trường hợp đơn cử về nhận dạng đó là nhận dạng chữ viết, một yếu tố đã và đang được chăm sóc nhiều. Trong kim chỉ nan nhận dạng nói chung và nhận dạng ảnh nói riêng có 3 cách tiếp cận khác nhau : – Nhận dạng dựa vào phân hoạch khoảng trống. – Nhận dạng cấu trúc. – Nhận dạng dựa vào kỹ thuật mạng nơ ron. Hai cách tiếp cận đầu là những kỹ thuật tầm cỡ. Các đối tượng người tiêu dùng ảnh quan sát và thu nhận được phải trải qua quá trình tiền giải quyết và xử lý nhằm mục đích tăng cường chất lượng, làm nổi những cụ thể ( chương 4 ), tiếp theo là trích chọn và trình diễn những đặc trưng ( chương 5 và chương 6 ), và ở đầu cuối mới qua quy trình tiến độ nhận dạng. Cách tiếp cận thứ ba trọn vẹn khác. Nó dựa vào chính sách đoán nhận, lưu trũ và phân biệt đối tượng người tiêu dùng mô phỏng theo hoạt động giải trí của hệ thần kinh con người. Do chính sách đặc biệt quan trọng, những đối tượng người tiêu dùng thu nhận bởi thị giác người không cần qua quy trình tiến độ cải tổ mà chuyển ngay sang tiến trình tổng hợp, đối sánh tương quan với những mẫu đã tàng trữ để nhận dạng. Đây là cách tiếp cận có nhiều hứa hẹn. Các cách tiếp cận trên sẽ trình diễn chi tiết cụ thể trong những phần dưới đây. 7.1 TỔNG QUAN VỀ NHẬN DẠNG Nhận dạng là quy trình phân loại những đối tượng người dùng được màn biểu diễn theo một quy mô nào đó và gán cho chúng vào một lớp ( gán cho đối tượng người dùng một tên gọi ) dựa theo những quy luật và những mẫu chuẩn. Quá trình nhận dạng dựa vào những mẫu học biết trước gọi là nhận dạng có thày hay học có thày ( supervised learning ) ; trong trường hợp ngược lại gọi là học không có thày ( non supervised learning ). Chúng ta sẽ lần lượt trình làng những khái niệm này. 7.1.1 Không gian trình diễn đối tượng người dùng, khoảng trống diễn dịch Không gian trình diễn đối tượng người dùng Các đối tượng người tiêu dùng khi quan sát hay tích lũy được, thường được màn biểu diễn bởi tập những đặc trưng hay đặc tính. Như trong trường hợp giải quyết và xử lý ảnh, ảnh sau khi được tăng cường để nâng cao chất lượng, phân vùng và trích chọn đặc tính như đã trình diễn trong những chương từ chương Bốn đến chương Sáu, được màn biểu diễn bởi những đặc trưng như biên, miền giống hệt, v …, v. Người ta thường phân những đặc trưng này theo những loại như : đặc trưng tô pô, đặc trưng hình học và đặc trưng công dụng. Việc màn biểu diễn ảnh theo đặc trưng nào là nhờ vào vào ứng dụng tiếp theo. Ở đây ta đưa ra một cách hình thức việc trình diễn những đối tượng người tiêu dùng. Giả sử đối tượng người tiêu dùng X ( ảnh, chữ viết, dấu vân tay, v …, v ) được màn biểu diễn bởi n thành phần ( n đặc trưng ) : X = { x1, x2, …, xn } ; mỗi xi trình diễn một đặc tính. Không gian màn biểu diễn đối tượng người dùng thường gọi tắt là khoảng trống đối tượng người tiêu dùng X được định nghĩa : X = { X1, X2, …, Xm } trong đó mỗi Xi màn biểu diễn một đối tượng người tiêu dùng. Không gian này hoàn toàn có thể là vô hạn. Để tiện xem xét tất cả chúng ta chỉ xét tập X là hữu hạn. Không gian diễn dịch Không gian diễn dịch là tập những tên gọi của đối tượng người dùng. Kết thúc quy trình nhận dạng ta xác lập được tên gọi cho những đối tượng người dùng trong tập khoảng trống đối tượng người dùng hay nói là đã nhận dạng được đối tượng người tiêu dùng Một cách hình thức gọi ( là tập tên đối tượng người dùng : ( = { w1, w2, …, wk } với wi, i = 1, 2, …, k là tên những đối tượng người dùng Quá trình nhận dạng đối tượng người tiêu dùng f là một ánh xạ f : X — > ( với f là tập những quy luật để định một thành phần trong X ứng với một thành phần trong (. Nếu tập những quy luật và tập tên những đối tượng người tiêu dùng là biết trước như trong nhận dạng chữ viết ( có 26 lớp từ A đến Z ), người ta gọi là nhận dạng có thày. Trường hợp thứ hai là nhận dạng không có thày. Đương nhiên trong trường hợp này việc nhận dạng có khó khăn vất vả hơn. 7.1.2 Mô hình và thực chất của quy trình nhận dạng 7.1.2. 1 Mô hình Việc lựa chọn một quy trình nhận dạng có tương quan mật thiết đến kiểu diễn đạt mà người ta sử dụng để đặc tả đối tượng người dùng. Trong nhận dạng, người ta phân loại làm 2 họ lớn : – Họ diễn đạt theo tham số – Họ diễn đạt theo cấu trúc. Cách diễn đạt được lựa chọn sẽ xác lập quy mô của đối tượng người tiêu dùng. Như vậy, tất cả chúng ta sẽ có 2 loại quy mô : quy mô theo tham số và quy mô cấu trúc. Mô hình tham số sử dụng một véctơ để đặc tả đối tượng người tiêu dùng. Mỗi thành phần của véctơ diễn đạt một đặc tính của đối tượng người tiêu dùng. Thí dụ như trong những đặc trưng tính năng, người ta sử dụng những hàm cơ sở trực giao để trình diễn. Và như vậy ảnh sẽ được màn biểu diễn bởi một chuỗi những hàm trực giao. Giả sử C là đường bao của ảnh và C ( i, j ) là điểm thứ i trên đường bao, i = 1, 2, …, N ( đường gồm có N điểm ). Giả sử tiếp : x0 = xi y0 = yi là toạ độ điểm trung tâm. Như vậy, moment TT bậc p, q của đường bao là : ( pq = ( xi-x0 ) p ( yi-y0 ) q ( 7.1 ) Véctơ tham số trong trường hợp này chính là những moment ( ij với i = 1, 2, …, p và j = 1, 2, …, q. Còn trong số những đặc trưng hình học, người ta hay sử dụng chu tuyến, đường bao, diện tích quy hoạnh và tỉ lệ T = 4 ( S / p2, với S là diện tích quy hoạnh, p là chu tuyến. Việc lựa chọn chiêu thức màn biểu diễn sẽ làm đơn thuần cách kiến thiết xây dựng. Tuy nhiên, việc lựa chọn đặc trưng nào là trọn vẹn nhờ vào vào ứng dụng. Thí dụ, trong nhận dạng chữ ( sẽ trình diễn sau ), những tham số là những tín hiệu : – số điểm chạc ba, chạc tư, – số điểm quy trình, – số điểm ngoặt, – số điểm kết thúc, ( ví dụ điển hình với chữ t ( ( có 4 điểm kết thúc, 1 điểm chạc tư, … ( Mô hình cấu trúc : Cách tiếp cận của quy mô này dựa vào việc diễn đạt đối tượng người dùng nhờ 1 số ít khái niệm biểu lộ những đối tượng người tiêu dùng cơ sở trong ngôn từ tự nhiên. Để miêu tả đối tượng người tiêu dùng, người ta dùng 1 số ít dạng nguyên thuỷ như đoạn thẳng, cung, v, …, v. Chẳng hạn một hình chữ nhật được định nghĩa gồm 4 đoạn thẳng vuông góc với nhau từng đôi một. Trong quy mô này người ta sử dụng một bộ kí hiệu kết thúc Vt, một bộ kí hiệu không kết thúc gọi là Vn. Ngoài ra có dùng một tập những luật sản xuất để diễn đạt cách thiết kế xây dựng những đối tượng người tiêu dùng tương thích dựa trên những đối tượng người tiêu dùng đơn thuần hơn hoặc đối tượng người dùng nguyên thuỷ ( tập Vt ). Trong cách tiếp cận này, ta gật đầu một khẳng đinh là : cấu trúc một dạng là tác dụng của việc vận dụng luật sản xuất theo theo những nguyên tắc xác lập khởi đầu từ một dạng gốc mở màn. Một cách hình thức, ta hoàn toàn có thể coi quy mô này tương tự một văn phạm G = ( Vt, Vn, P, S ) với : – Vt là bộ ký hiệu kết thúc, – Vn là bộ ký hiệu không kết thúc, – P là luật sản xuất, – S là dạng ( ký hiệu khởi đầu ). Thí dụ, đối tượng người dùng nhà gồm mái và tường, mái là một tam giác gồm 3 cạnh là 3 đoạn thẳng, tường là một hình chữ nhật gồm 4 cạnh vuông góc với nhau từng đôi một sẽ được miêu tả trải qua cấu trúc miêu tả dựa vào văn phạm sinh như chỉ ra trong hình 7.1 dưới đây. ( 1 ) ( 2 ) Nhà ( 3 ) Mái Tường ( 6 ) ( 4 ) Đọạn 1 Đoạn 2 Đoạn 3 Đoạn 3 Đoạn 4 Đoạn 5 Đoạn 6 ( 5 ) Hình 7.1 Mô hình cấu trúc của một đối tượng người dùng nhà. 7.1.2. 2 Bản chất của quy trình nhận dạng Quá trình nhận dạng gồm 3 quy trình tiến độ chính : – Lựa chọn quy mô trình diễn đối tượng người tiêu dùng. – Lựa chọn luật ra quyết định hành động ( giải pháp nhận dạng ) và suy diễn quy trình học. – Học nhận dạng. Khi quy mô trình diễn đối tượng người dùng đã được xác lập, hoàn toàn có thể là định lượng ( quy mô tham số ) hay định tính ( quy mô cấu trúc ), quy trình nhận dạng chuyển sang tiến trình học. Học là tiến trình rất quan trọng. Thao tác học nhằm mục đích cải tổ, kiểm soát và điều chỉnh việc phân hoạch tập đối tượng người dùng thành những lớp. Việc nhận dạng chính là tìm ra quy luật và những thuật toán để hoàn toàn có thể gán đối tượng người tiêu dùng vào một lớp hay nói một cách khác gán cho đối tượng người dùng một tên. Học có thày ( supervised learning ) Kỹ thuật phân loại nhờ kỹ năng và kiến thức biết trước gọi là học có thày. Đặc điểm cơ bản của kỹ thuật này là người ta có một thư viện những mẫu chuẩn. Mẫu cần nhận dạng sẽ được đem sánh với mẫu chuẩn để xem nó thuộc loại nào. Thí dụ như trong một ảnh viễn thám, người ta muốn phân biệt một cánh đồng lúa, một cánh rừng hay một vùng đất hoang mà đã có những miêu tả về những đối tượng người dùng đó. Vấn đề đa phần là phong cách thiết kế một mạng lưới hệ thống để hoàn toàn có thể đối sánh tương quan đối tượng người dùng trong ảnh với mẫu chuẩn và quyết định hành động gán cho chúng vào một lớp. Việc đối sánh tương quan nhờ vào những thủ tục ra quyết định hành động dựa trên một công cụ gọi là hàm phân lớp hay hàm ra quyết định hành động. Hàm này sẽ được đề cập trong phần sau. Học không có thày ( unsupervised learning ) Kỹ thuật học này phải tự định ra những lớp khác nhau và xác lập những tham số đặc trưng cho từng lớp. Học không có thày đương nhiên là khó khăn vất vả hơn. Một mặt, do số lớp không được biết trước, mặt khác những đặc trưng của những lớp cũng không biết trước. Kỹ thuật này nhằm mục đích thực thi mọi cách gộp nhóm hoàn toàn có thể và lựa chọn cách tốt nhất. Bắt đầu từ tập dữ liệu, nhiều thủ tục giải quyết và xử lý khác nhau nhằm mục đích phân lớp và tăng cấp dần để đạt được một giải pháp phân loại. Một số kỹ thuật tự học sẽ được trình diễn trong phần 7.2.4. Nhìn chung, dù là quy mô nào và kỹ thuật nhận dạng ra làm sao, một mạng lưới hệ thống nhận dạng hoàn toàn có thể tóm tắt theo sơ đồ sau : Trích chọn đặc tính Phân lớp vấn đáp Đánh trình diễn đối tượng người tiêu dùng ra quyết định giá Quá trình tiền giải quyết và xử lý Khối nhận dạng Hình 7.2 Sơ đồ tổng quát một hệ nhận dạng. 7.2 NHẬN DẠNG DỰA TRÊN PHÂN HOẠCH KHÔNG GIAN Trong kỹ thuật này, những đối tượng người tiêu dùng nhận dạng là những đối tượng người dùng định lượng. Mỗi đối tượng người tiêu dùng được màn biểu diễn bởi một véctơ nhiều chiều. Trước tiên, ta xem xét 1 số ít khái niệm như : phân hoạch khoảng trống, hàm phân biệt sau đó sẽ đi vào 1 số ít kỹ thuật đơn cử. 7.2.1 Phân hoạch khoảng trống Giả sử khoảng trống đối tượng người dùng X được định nghĩa : X = { Xi, i = 1, 2, …, m }, Xi là một véctơ. Người ta nói p là một phân hoạch của khoảng trống X thành những lớp Ci, Ci ( X nếu : Ci ( Cj = với i ( j và ( Ci = X Nói chung, đây là trường hợp lý tưởng : tập X tách được trọn vẹn. Trong thực tiễn, thường gặp khoảng trống trình diễn tách được từng phần. Như vậy phân loại là dựa vào việc kiến thiết xây dựng một ánh xạ f : X — > p. Công cụ thiết kế xây dựng ánh xạ này là những hàm phân biệt ( Descriminant functions ). 7.2.2 Hàm phân lớp hay hàm ra quyết định hành động Để phân đối tượng người dùng vào những lớp, ta phải xác lập số lớp và ranh giới giữa những lớp đó. Hàm phân lớp hay hàm phân biệt là một công cụ rất quan trọng. Gọi { gi } là lớp những hàm phân lớp. Lớp hàm này được định nghĩa như sau : nếu ( i ( k, gk ( X ) > gi ( X ) thì ta quyết định hành động X ( lớp k. Như vậy để phân biệt k lớp, ta cần k-1 hàm phân biệt. Hàm phân biệt g của một lớp nào đó thường dùng là hàm tuyến tính, có nghĩa là : g ( X ) = W0 + W1X1 + W2 X2 +. .. + Wk Xk trong đó : – Wi là những trọng số gán cho những thành phần Xi. – W0 là trọng số để viết cho gọn. Trong trường hợp g là tuyến tính, người ta nói là việc phân lớp là tuyến tính hay siêu phẳng ( hyperplan ). Các hàm phân biệt thường được kiến thiết xây dựng dựa trên khái niệm khoảng cách hay dựa vào Tỷ Lệ có điều kiện kèm theo. Lẽ tự nhiên, khoảng cách là một công cụ rất tốt để xác lập xem đối tượng người tiêu dùng có ” gần nhau ” hay không. Nếu khoảng cách nhỏ hơn một ngưỡng ( nào đấy ta coi 2 đối tượng người tiêu dùng là giống nhau và gộp chúng vào một lớp. Ngược lại, nếu khoảng cách lớn hơn ngưỡng, có nghĩa là chúng khác nhau và ta tách thành 2 lớp. Trong 1 số ít trường hợp, người ta dựa vào Xác Suất có điều kiện kèm theo để phân lớp cho đối tượng người tiêu dùng. Lý thuyết Phần Trăm có điều kiện kèm theo được Bayes điều tra và nghiên cứu khá kỹ và tất cả chúng ta hoàn toàn có thể vận dụng triết lý này để phân biệt đối tượng người tiêu dùng. Gọi : P ( X / Ci ) là Xác Suất để có X biết rằng có Open lớp Ci P ( Ci / X ) là Phần Trăm có điều kiện kèm theo để X thuộc lớp Ci. với X là đối tượng người dùng nhận dạng, Ci là những lớp đối tượng người dùng. Quá trình học được cho phép ta xác lập P ( X / Ci ) và nhờ công thức Bayes về sác xuất có điều kiện kèm theo vận dụng trong điều kiện kèm theo nhiều biến, tất cả chúng ta sẽ tính được P ( Ci / X ) theo công thức : P ( Ci / X ) = ( 7.2 ) Nếu P ( Ci / X ) > P ( Ck / X ) với ( i # k thì X ( Ci. Tuỳ theo những chiêu thức nhận dạng khác nhau, hàm phân biệt sẽ có những dạng khác nhau. 7.2.3 Nhận dạng thống kê Nếu những đối tượng người tiêu dùng nhận dạng tuân theo luật phân bổ Gauss, mà hàm tỷ lệ sác xuất cho bởi : 1 ( x-m ) 2 f ( x ) = exp ( – ) 2 ( ( ( 2 ( ( ( người ta có dùng giải pháp ra quyết định hành động dựa vào kim chỉ nan Bayes. Lý thuyết Bayes thuộc loại triết lý thống kê nên giải pháp nhận dạng. dựa trên kim chỉ nan Bayes có tên là chiêu thức thống kê. Quy tắc Bayes – Cho khoảng trống đối tượng người dùng X = { Xl, l = 1, 2, …, L }, với Xl = { x1, x2, …, xp } – Cho khoảng trống diễn dịch ( = { C1, C2, …, Cr }, r là số lớp Quy tắc Bayes phát biểu như sau : ( : X — > ( sao cho X Ck nếu P ( Ck / X ) > P ( Cl / X ) ( l k, l = 1, 2, …, r. Trường hợp lý tưởng là nhận dạng luôn đúng, có nghĩa là không có sai số. Thực tế, luôn sống sót sai số ( trong quy trình nhận dạng. Vấn đề ở đây là kiến thiết xây dựng quy tắc nhận dạng với sai số ( là nhỏ nhất. Phương pháp ra quyết định hành động với ( tối thiểu Ta xác lập X Ck nhờ Phần Trăm P ( Ck / X ). Vậy nếu có sai số, sai số sẽ được tính bởi 1 – P ( Ck / X ). Để nhìn nhận sai số trung bình, người ta kiến thiết xây dựng một ma trận L ( r, r ) giả thiết là có n lớp. Ma trận L được định nghĩa như sau : lk, j > 0 nếu k j ( sống sót sai số ) ( 7.3 ) Lk, j = lk, j < = 0 nếu k = j ( không có sai số ) Như vậy, sai số trung bình của sự phân lớp sẽ là : rk ( X ) = ( 7.4 ) Để sai số là nhỏ nhất ta cần có rk là min. Từ công thức 7.2 và 7.4 ta có : rk ( X ) = P ( Cj ) ( 7.5 ) Vậy, quy tắc ra quyết định hành động dựa trên kim chỉ nan Bayes có tính đến sai số được phát biểu như sau : X Ck nếu k k, p = 1, 2, …, r. ( 7.6 ) với k là rk ( X ). Trường hợp đặc biệt quan trọng với 2 lớp C1 và C2, ta thuận tiện có : X C1 nếu P ( X / C1 ) > ( 7.7 ) Giả sử thêm rằng Xác Suất phân bổ là đều ( P ( C1 ) = P ( C2 ), sai số là như nhau ta có : X C1 nếu P ( X / C1 ) > P ( X / C2 ) ( 7.8 ) 7.2.4 Một số thuật toán nhận dạng tiêu biểu vượt trội trong tự học Thực tế có nhiều thuật toán nhận dạng học không có thày. Ở đây, tất cả chúng ta xem xét 3 thuật toán hay được sử dụng : Thuật toán nhận dạng dựa vào khoảng cách lớn nhất, thuật toán K – trung bình ( K mean ) và thuật toán ISODATA. Chúng ta lần lượt xem xét những thuật toán này vì chúng có bước tiếp nối, nâng cấp cải tiến từ thuật toán này qua thuật toán khác. 7.2.4. 1 Thuật toán dựa vào khoảng cách lớn nhất a ) Nguyên tắc Cho một tập gồm m đối tượng người dùng. Ta xác lập khoảng cách giữa những đối tượng người tiêu dùng và khoảng cách lớn nhất ứng với thành phần xa nhất tạo nên lớp mới. Sự phân lớp được hình thành từ từ dựa vào việc xác lập khoảng cách giữa những đối tượng người tiêu dùng và những lớp. b ) Thuật toán Bước 1 – Chọn hạt nhân khởi đầu : giả sử X1 C1 gọi là lớp g1. Gọi Z1 là thành phần TT của g1. – Tính tổng thể những khoảng cách Dj1 = D ( Xj, Z1 ) với j = 1, 2, …, m – Tìm Dk1 = maxj Dj1. Xk là thành phần xa nhất của nhóm g1. Như vậy Xk là thành phần TT của lớp mới g2, kí hiệu Z2. – Tính d1 = D12 = D ( Z1, Z2 ). Bước 2 – Tính những khoảng cách Dj1, Dj2. – Dj1 = D ( Xj, Z1 ), Dj2 = D ( ( Xj, Z2 ). Đặt Dk ( 2 ) = max j Dj Nguyên tắc chọn – Nếu Dk ( 2 ) < ( d1 kết thúc thuật toán. Phân lớp xong. – Nếu không, sẽ tạo nên nhóm thứ ba. Gọi Xk là thành phần TT của g3, kí hiệu Z3. – Tính d3 = ( D12 + D13 + D23 ) / 3 với ( là ngưỡng cho trước và D13 = D ( Z1, Z3 ), D23 = D ( Z2, Z3 ). Quá trình cứ tái diễn như vậy cho đến khi phân xong. Kết quả là ta thu được những lớp với những đại diện thay mặt là Z1, Z2, …, Zm. 7.2.4. 2. Thuật toán K trung bình ( giả sử có K lớp ) a ) Nguyên tắc Khác với thuật toán trên, ta xét K thành phần tiên phong trong khoảng trống đối tượng người dùng, hay nói một cách khác ta cố định và thắt chặt K lớp. Hàm để nhìn nhận là hàm khoảng cách Euclide : Jk = ( 7-9 ) Jk là hàm chỉ tiêu với lớp Ck. Việc phân vùng cho k hạt nhân tiên phong được thực thi theo nguyên tắc khoảng cách cực tiểu. Ở đây, ta dùng chiêu thức đạo hàm để tính cực tiểu. Xét với Zk là biến. Ta thuận tiện có ( 7.9 ) min khi : = 0 ==> Zk = ( 7.10 ) Công thức 7.10 là giá trị trung bình của lớp Ck và điều này lý giải tên của chiêu thức. b ) Thuật toán Chọn Nc thành phần ( giả thiết có Nc lớp ) của tập T. Gọi những thành phần TT của những lớp đó là : X1, X2, …, XNc và ký hiệu là Z1, Z2, …, ZNc. Thực hiện phân lớp X Ck nếu D ( X, Zk ) = Min D ( X, Zj ) ( 1 ), j = 1, …, Nc. ( 1 ) là lần lặp thứ nhất. Tính toàn bộ Zk theo công thức 7.10. Tiếp tục như vậy cho đến bước q. X Gk ( q-1 ) nếu D ( X, Zk ( q-1 ) ) = min l D ( X, Zl ( q-1 ) ). Nếu Zk ( q-1 ) = Zk ( q ) thuật toán kết thúc, nếu không ta liên tục triển khai phân lớp. 7.2.4. 3 Thuật toán ISODATA ISODATA là viết tắt của từ Iteractive Self Organizing Data Analysis. Nó là thuật toán khá mềm dẻo, không cần cố định và thắt chặt những lớp trước. Các bước của thuật toán được diễn đạt như sau : – Lựa chọn một phân hoạch bắt đầu dựa trên những tâm bất kể. Thực nghiệm đã chứng tỏ hiệu quả nhận dạng không nhờ vào vào phân lớp bắt đầu [ 2 ]. – Phân vùng bằng cách sắp những điểm vào tâm gần nhất dựa vàp khoảng cách Euclide. – Tách đôi lớp khởi đầu nếu khoảng cách lớn hơn ngưỡng t1. – Xác định phân hoạch mới trên cơ sở những tâm vừa xác lập lại và liên tục xác lập tâm mới. – Tính tổng thể những khoảng cách đến tâm mới. – Nhóm những vùng với tâm theo ngưỡng t2. Lặp những thao tác tác trên cho đến khi thoả tiêu chuẩn phân hoạch. 7.3 NHẬN DẠNG THEO CẤU TRÚC 7.3.1 Biểu diễn định tính Ngoài cách biễn diễn theo định lượng như đã miêu tả ở trên, sống sót nhiều kiểu đối tượng người tiêu dùng mang tính định tính. Trong cách trình diễn này, người ta chăm sóc đến những dạng và mối quan hệ giữa chúng. Giả thiết rằng mỗi đối tượng người dùng được màn biểu diễn bởi một dãy ký tự. Các đặc tính màn biểu diễn bởi cùng một số ít ký tự. Phương pháp nhận dạng ở đây là nhận dạng lô gíc, dựa và hàm phân biệt là hàm Bool. Cách nhận dạng là nhận dạng những từ có cùng độ dài. Giả sử hàm phân biệt cho mọi ký hiệu là ga ( x ), gb ( x ), …, tương ứng với những ký hiệu a, b, …. Để thuận tiện tưởng tượng, ta giả sử có từ ” abc ” được màn biểu diễn bởi một dãy ký tự X = { x1, x2, x3, x4 }. Tính những hàm tương ứng với 4 ký tự và có : ga ( x1 ) + gb ( x2 ) + gc ( x3 ) + gc ( x4 ) Các phép cộng ở đây chỉ phép toán OR. Trên cơ sở tính giá trị cực lớn của hàm phân biệt, ta quyết định hành động X có thuộc lớp những từ ” abc ” hay không. Trong cách tiếp cận này, đối tượng người tiêu dùng tương tự với câu. 7.3.2 Phương pháp ra quyết định hành động dựa vào cấu trúc 7.3.2. 1 Một số khái niệm Thủ tục phân loại và nhận dạng ở đây gồm 2 quá trình : Giai đoạn đầu là quy trình tiến độ xác lập những quy tắc kiến thiết xây dựng, tương tự với việc nghiên cứu và điều tra một văn phạm trong một ngôn từ chính thống. Giai đoạn tiếp theo khi đã có văn phạm là xem xét tập những dạng có được sinh ra từ những dạng đó không ? Nếu nó thuộc tập đó coi như ta đã phân loại xong. Tuy nhiên, văn phạm là một yếu tố lớn. Trong nhận dạng cấu trúc, ta mới chỉ sử dụng được một phần rất nhỏ mà thôi. Như trên đã nói, quy mô cấu trúc tương tự một văn phạm G : G = { Vn, Vt, P, S }. Có rất nhiều kiểu văn phạm khác nhau từ chính tắc, phi ngữ cảnh, … Độc giả chăm sóc xin xem những tài liệu về kim chỉ nan ngôn từ hình thức hay xe hơi mát. Ở đây, xin trình làng một ngôn từ hoàn toàn có thể được vận dụng trong nhận dạng cấu trúc : đó là ngôn từ PLD ( Picture Language Description ). Ví dụ : Ngôn ngữ PLD Trong ngôn từ này, những từ vựng là những vạch có hướng. Có 4 từ vựng cơ bản : a : b : c : và d : Các từ vựng trên những quan hệ được định nghĩa như sau : + : a + b – : a – b x : a x b * : a * b Văn phạm sinh ra những diễn đạt trong ngôn từ được định nghĩa bởi : GA = { Vn, VT, P, S } với Vn = { A, B, C, D, E } và VT = { a, b, c, d }. S là ký hiệu khởi đầu và P là tập luật sản xuất. Ngôn ngữ này thường dùng nhận dạng những mạch điện. 7.3.2. 2 Phương pháp nhận dạng Các đối tượng người tiêu dùng cần nhận dạng theo chiêu thức này được trình diễn bởi một câu trong ngôn từ L ( G ). Khi đó thao tác phân lớp chính là xem xét một đối tượng người dùng có thuộc văn phạm L ( G ) không ? Nói cách khác nó có được sinh ra bởi những luật của văn phạmG không ? Như vậy sự phân lớp là theo cách tiếp cận cấu trúc đòi hỏ phải xác lập : – Tập Vt chung cho mọi đối tượng người dùng. – Các quy tắc sinh P để sản sinh ra một câu và chúng khác nhau so với mỗi lớp. – Quá trình học với những câu màn biểu diễn những đối tượng người tiêu dùng mẫu l nhằm mục đích xác lập văn phạmG. – Quá trình ra quyết định hành động : xác lập một đối tượng người tiêu dùng X được trình diễn bởi một câu lx. Nếu lx phân biệt bởi ngôn từ L ( Gx ) thì ta nói rằng X ( Ck. Nói cách khác, việc ra quyết định hành động phân lớp là dựa vào nghiên cứu và phân tích cúGk trình diễn lớp Ck. pháp của văn phạm. Cũng như trong nghiên cứu và phân tích cú pháp ngôn từ, có nghiên cứu và phân tích trên xuống, dưới lên, việc nhận dạng theo cấu trúc cũng hoàn toàn có thể triển khai theo cách tựa như. Việc nhận dạng dựa theo cấu trúc là một sáng tạo độc đáo và dẫu sao cũng cần được nghiên cứu và điều tra thêm. 7.4 MẠNG NƠ RON NHÂN TẠO VÀ NHẬN DẠNG THEO MẠNG NƠ RON Trước tiên, cần xem xét một số ít khái niệm cơ bản về bộ não cũng như chính sách hoạt động giải trí của mạng nơ ron sinh học. Tiếp theo, để tiện theo dõi, ở đây sẽ đề cập đến một ứng dụng của mạng nơ ron trong nhận dạng chữ viết. 7.4.1. Bộ não và nơ ron sinh học Các nhà nghiên cứu sinh học về bộ não cho ta thấy rằng những nơ ron ( tế bào thần kinh ) là đơn vị chức năng cơ sở đảm nhiệm những công dụng giải quyết và xử lý nhất định trong hệ thần kinh, gồm có não, tuỷ sống và những dây thần kinh. Mỗi nơ ron có phần thân với nhân bên trong ( gọi là soma ), một đầu thần kinh ra ( gọi là sợi trục axon ) và một mạng lưới hệ thống dạng cây những dây thần kinh vào ( gọi là dendrite ). Các dây thần kinh vào tạo thành một lưới sum sê xung quanh thân tế bào, chiếm diện tích quy hoạnh khoảng chừng 0,25 mm2, còn dây thần kinh ra tạo thành trục dài hoàn toàn có thể từ 1 cm cho đến hàng mét. Đường kính của nhân tế bào thường chỉ là 10-4 m. Trục dây thần kinh ra cũng hoàn toàn có thể phân nhánh theo dạng cây để nối với những dây thần kinh vào hoặc trực tiếp với nhân tế bào những nơ ron khác trải qua những khớp nối ( gọi là synapse ). Thông thường, mỗi nơ ron hoàn toàn có thể gồm vài chục cho tới hàng trăm ngàn khớp nối để nối với những nơ ron khác. Người ta ước đạt rằng lưới những dây thần kinh ra cùng với những khớp nối bao trùm diện tích quy hoạnh khoảng chừng 90 % mặt phẳng nơ ron ( hình 7-3 ). Các tín hiệu truyền trong những dây thần kinh vào và dây thần kinh ra của những nơ ron là tín hiệu điện và được triển khai trải qua những quy trình phản ứng và giải phóng những chất hữu cơ. Các chất này được phát ra từ những khớp nối dẫn tới những dây thần kinh vào sẽ làm tăng hay giảm điện thế của nhân tế bào. Khi điện thế này đạt tới một ngưỡng nào đó, sẽ tạo ra một xung điện dẫn tới trục dây thần kinh ra. Xung này được truyền theo trục, tới những nhánh rẽ khi chạm tới những khớp nối với những nơ ron khác sẽ giải phóng những chất truyền điện. Người ta chia làm hai loại khớp nối : khớp nối kích thích ( excitatory ) hoặc khớp nối ức chế ( inhibitory ). Phát hiện quan trọng nhất trong ngành điều tra và nghiên cứu về bộ não là những link khớp thần kinh khá mềm dẻo, hoàn toàn có thể dịch chuyển và chỉnh đổi theo thời hạn tuỳ thuộc vào những dạng kích thích. Hơn nữa, những nơ ron hoàn toàn có thể sản sinh những link mới với những nơ ron khác và nhiều lúc, lưới những nơ ron hoàn toàn có thể di trú từ vùng này sang vùng khác trong bộ não. Các nhà khoa học cho rằng đây chính là cơ sở quan trọng để lý giải chính sách học của bộ não con người. Phần lớn những quy trình giải quyết và xử lý thông tin đều xảy ra trên vỏ não. Toàn bộ vỏ não được bao trùm bởi mạng những tổ chức triển khai cơ sở có dạng hình thùng tròn với đường kích khoảng chừng 0,5 mm, độ cao 4 mm. Mỗi đơn vị chức năng cơ sở này chứa khoảng chừng 2000 nơ ron. Người ta chỉ ra rằng mỗi vùng não có những tính năng nhất định. Điều rất đáng quá bất ngờ chính là những nơ ron rất đơn thuần trong chính sách thao tác, nhưng mạng những nơ ron link với nhau lại có năng lực thống kê giám sát, tâm lý, ghi nhớ và tinh chỉnh và điều khiển. Có thể điểm qua những tính năng cơ bản của bộ não như sau : – Bộ nhớ được tổ chức triển khai theo những bó thông tin và truy nhập theo nội dung ( Có thể truy xuất thông tin dựa theo giá trị những thuộc tính của đối tượng người tiêu dùng ) – Bộ não có năng lực tổng quát hoá, hoàn toàn có thể truy xuất những tri thức hay những mối link chung của những đối tượng người tiêu dùng tương ứng với một khái niệm chung nào đó – Bộ não có năng lực dung thứ lỗi theo nghĩa hoàn toàn có thể kiểm soát và điều chỉnh hoặc liên tục thực thi ngay khi có những xô lệch do thông tin bị thiếu hoặc không đúng chuẩn. Ngoài ra, bộ não còn hoàn toàn có thể phát hiện và hồi sinh những thông tin bị mất dựa trên sự tương tự như giữa những đối tượng người dùng. – Bộ não có năng lực xuống cấp trầm trọng và thay thế sửa chữa từ từ. Khi có những trục trặc tại những vùng não ( do bệnh, chấn thương ) hoặc phát hiện những thông tin trọn vẹn mới lạ, bộ não vẫn hoàn toàn có thể liên tục thao tác. – Bộ não có khả năng học. So sánh năng lực thao tác của bộ não và máy tính Máy tính Bộ não người Đơn vị đo lường và thống kê Bộ giải quyết và xử lý TT với 105 mạch logic cơ sở Mạng 1011 nơ ron Bộ nhớ 109 bit RAM 1011 nơ ron 1010 bit bộ nhớ ngoài với 1014 khớp nối thần kinh Thời gian giải quyết và xử lý 10-8 giây 10-3 giây Thông lượng 109 bit / giây 1014 bit / giây Cập nhật thông tin 105 bit / giây 1014 nơ ron / giây Dễ dàng thấy rằng bộ não con người hoàn toàn có thể lưu giữ nhiều thông tin hơn những máy tính tân tiến ; Tuy rằng điều này không phải đúng mãi mãi, bởi lẽ bộ não tiến hóa chậm, trong khi đó nhờ những tân tiến trong công nghệ tiên tiến vi điện tử, bộ nhớ máy tính được tăng cấp rất nhanh. Hơn nữa, sự hơn kém về bộ nhớ trở nên trọn vẹn thứ yếu so với sự độc lạ về vận tốc thống kê giám sát và năng lực giải quyết và xử lý song song. Các bộ vi giải quyết và xử lý hoàn toàn có thể tính 108 lệnh trong một giây, trong khi đó mạng nơ ron giải quyết và xử lý chậm hơn, cần khoảng chừng vài miligiây để kích hoạt. Tuy nhiên, bộ não hoàn toàn có thể kích hoạt phần đông cùng một lúc tại rất nhiều nơ ron và khớp nối, trong khi đó ngay cả máy tính văn minh cũng chỉ có 1 số ít hạn chế những bộ vi giải quyết và xử lý song song. Nếu chạy một mạng nơ ron tự tạo trên máy tính, phải tốn hàng trăm lệnh máy để kiểm tra một nơ ron có được kích hoạt hay không ( tiêu phí khoảng chừng 10-8 x 102 giây / nơ ron ). Do đó, dầu bộ vi giải quyết và xử lý hoàn toàn có thể thống kê giám sát nhanh hơn hàng triệu lần so với những nơ ron bộ não, nhưng xét tổng thể và toàn diện bộ não lại đo lường và thống kê nhanh hơn hàng tỷ lần. Cách tiếp cận mạng nơ ron tự tạo có ý nghĩa thực tiễn rất lớn được cho phép tạo ra những thiết bị hoàn toàn có thể phối hợp năng lực song song cao của bộ não với vận tốc thống kê giám sát cao của máy tính. Tuy vậy, cần phải có một khoảng chừng thời hạn dài nữa để những mạng nơ ron tự tạo hoàn toàn có thể mô phỏng được những hành vi phát minh sáng tạo của bộ não con người. Chẳng hạn, bộ não hoàn toàn có thể thực thi một trách nhiệm khá phức tạp như nhận ra khuôn mặt người quen sau không quá 1 giây, trong khi đó một máy tính tuần tự phải triển khai hàng tỷ phép tính ( khoảng chừng 10 giây ) để thực thi cùng thao tác đó, nhưng với chất lượng kém hơn nhiều, đặc biệt quan trọng trong trường hợp thông tin không đúng chuẩn, không vừa đủ. nối Hình 7-3. Cấu tạo nơ ron sinh học 7.4.2. Mô hình mạng nơ ron tự tạo Mạng nơ ron tự tạo ( Artificial Neural Network ) gọi tắt là MNR gồm có những nút ( đơn vị chức năng giải quyết và xử lý, nơ ron ) được nối với nhau bởi những link nơ ron. Mỗi link kèm theo một trọng số nào đó, đặc trưng cho đặc tính kích hoạt / ức chế giữa những nơ ron. Có thể xem những trọng số là phương tiện đi lại để lưu giữa thông tin dài hạn trong mạng nơ ron và trách nhiệm của quy trình giảng dạy ( học ) mạng là update những trọng số khi có thêm những thông tin về những mẫu học, hay nói một cách khác, những trọng số được kiểm soát và điều chỉnh sao cho dáng điệu vào ra của nó mô phỏng trọn vẹn tương thích môi trường tự nhiên đang xem xét. Trong mạng, một số ít nơ ron được nối với môi trường tự nhiên bên ngoài như những đầu ra, nguồn vào. 7.4.2. 1. Mô hình nơ ron nhân tạo Hình 7.4. Mô hình nơ ron tự tạo Mỗi nơ ron được nối với những nơ ron khác và nhận được những tín hiệu sj từ chúng với những trọng số wj. Tổng những thông tin vào có trọng số là : Net = ( wj sj. Người ta gọi đây là thành phần tuyến tính của nơ ron. Hàm kích hoạt g ( còn gọi là hàm chuyển ) đóng vai trò đổi khác từ Net sang tín hiệu đầu ra out. out = g ( Net ). Đây là thành phần phi tuyến của nơ ron. Có 3 dạng hàm kích hoạt thường được dùng trong thực tiễn : Hàm dạng bước step ( x ) = 1 nếu x ( 0 hoặc step ( x ) = 1 nếu x ( ( 0 nếu x < 0 0 nếu x < ( Hàm dấu sign ( x ) = 1 nếu x ( 0 hoặc sign ( x ) = 1 nếu x ( ( – 1 nếu x < 0 – 1 nếu x < ( Hàm sigmoid Ở đây ngưỡng ( đóng vai trò làm tăng tính thích nghi và năng lực giám sát của mạng nơ ron. Sử dụng ký pháp véctơ, S = ( s1, …, sn ) véctơ tín hiệu vào, W = ( w1, …, wn ) véctơ trọng số, ta có out = g ( Net ), Net = SW. Trường hợp xét ngưỡng (, ta dùng màn biểu diễn véctơ mới S ‘ = ( s1, …, sn, ( ), W ‘ = ( w1, …, wn, – 1 ) Khả năng màn biểu diễn của nơ ron Bộ vi giải quyết và xử lý máy tính dựa trên tích hợp những mạch logic cơ sở. Có thể thấy rằng những nơ ron trọn vẹn mô phỏng năng lực thống kê giám sát của những mạch cơ sở AND, OR, NOT. 7.4.2. 2. Mạng nơ ron Mạng nơ ron là mạng lưới hệ thống gồm có nhiều thành phần giải quyết và xử lý đơn thuần ( nơ ron ) hoạt động giải trí song song. Tính năng của mạng lưới hệ thống này tuỳ thuộc vào cấu trúc của hệ, những trọng số link nơ ron và quy trình đo lường và thống kê tại những nơ ron đơn lẻ. Mạng nơ ron hoàn toàn có thể học từ tài liệu mẫu và tổng quát hóa dựa trên những tài liệu mẫu học. Trong mạng nơ ron, những nơ ron tiếp đón tín hiệu vào gọi là nơ ron vào và những nơ ron đưa thông tin ra gọi là nơ ron ra. A. PHÂN LOẠI CÁC MẠNG NƠ RON Theo kiểu link nơ ron : Ta có mạng nơ ron truyền thẳng ( feel-forward Neural Network ) và mạng nơ ron qui hồi ( recurrent NN ). Trong mạng nơ ron truyền thẳng, những link nơ ron đi theo một hướng nhất định, không tạo thành đồ thị không có quy trình ( Directed Acyclic Graph ) với những đỉnh là những nơ ron, những cung là những link giữa chúng. Ngược lại, những mạng qui hồi được cho phép những link nơ ron tạo thành quy trình. Vì những thông tin ra của những nơ ron được truyền lại cho những nơ ron đã góp thêm phần kích hoạt chúng, nên mạng hồi qui còn có năng lực lưu giữ trạng thái trong của nó dưới dạng những ngưỡng kích hoạt ngoài những trọng số link nơ ron. Theo số lớp : Các nơ ron hoàn toàn có thể tổ chức triển khai lại thành những lớp sao cho mỗi nơ ron của lớp này chỉ được nối với những nơ ron ở lớp tiếp theo, không được cho phép những link giữa những nơ ron trong cùng một lớp, hoặc từ nơ ron lớp dưới lên nơ ron lớp trên. Ở đây cũng không được cho phép những link nơ ron nhảy qua một lớp. Hình 7.5. Mạng nơ ron truyền thẳng và nhiều lớp Hình 7.6. Mạng nơ ron hồi qui Dễ dàng nhận thấy rằng những nơ ron trong cùng một lớp nhận được tín hiệu từ lớp trên cùng một lúc, do vậy về nguyên tắc chúng hoàn toàn có thể giải quyết và xử lý song song. Thông thường, lớp nơ ron vào chỉ chịu nghĩa vụ và trách nhiệm truyền đưa tín hiệu vào, không triển khai một thống kê giám sát nào nên khi tính số lớp của mạng, người ta không tính lớp nào. Ví dụ, mạng nơ ron ở hình 7.15 có 2 lớp : một lớp ẩn và một lớp ra. B. HAI CÁCH NHÌN VỀ MẠNG NƠ RON Mạng nơ ron như một công cụ thống kê giám sát : Giả sử mạng nơ ron NN có m nơ ron vào và n nơ ron ra, khi đó với mỗi véc tơ những tín hiệu vào X = ( x1, …, xm ), sau quy trình thống kê giám sát tại những nơ ron ẩn, ta nhận được hiệu quả ra Y = ( y1, …, yn ). Theo nghĩa nào đó mạng nơ ron thao tác với tư cách một bảng tra, mà không cần biết dạng nhờ vào hàm tường minh giữa Y và X. Khi đó ta viết : Y = Tinh ( X, NN ) Cần quan tâm thêm rằng những nơ ron trên cùng một lớp hoàn toàn có thể giám sát đồng thời, do vậy độ phức tạp đo lường và thống kê nói chung sẽ nhờ vào vào số lớp mạng. Các thông số kỹ thuật cấu trúc mạng nơ ron gồm có : Số tín hiệu vào, số tín hiệu ra. Số lớp nơ ron. Số nơ ron trên mỗi lớp ẩn. Số lượng link của mỗi nơ ron ( link vừa đủ, link bộ phận và link ngẫu nhiên ). Các trọng số link nơ ron. Mạng nơ ron như một mạng lưới hệ thống thích nghi có khả năng học ( huấn luyện và đào tạo ) để điều khiển và tinh chỉnh những trọng số link cũng như cấu trúc của mình sao cho tương thích với những mẫu học ( samples ). Người ta phân biệt ba loại kỹ thuật học ( i ) học có quan sát ( supervised learning ) hay còn gọi là học có thầy ( ii ) học không có giám sát ( unsupervised learning ) hay còn gọi là học không có thầy và ( iii ) học tăng cường. Trong học có giám sát, mạng được phân phối một tập mẫu học { ( Xs, Ys ) } theo nghĩa Xs là những tín hiệu vào, thì tác dụng ra đúng cuả hệ phải là Ys. Ở mỗi lần học, vectơ tín hiệu vào Xs được đưa vào mạng, sau đó so sánh sự sai khác giữa những tác dụng ra đúng Ys với tác dụng đo lường và thống kê outs. Sai số này sẽ được dùng để hiệu chỉnh lại những trọng số link trong mạng. Quá trình cứ liên tục cho đến khi thoả mãn một tiêu chuẩn nào đó. Có hai cách sử dụng tập mẫu học : hoặc dùng những mẫu lần lượt, hết mẫu này đến mẫu khác, hoặc sử dụng đồng thời toàn bộ những mẫu một lúc. Các mạng với chính sách học không giám sát được gọi là những mạng tự tổ chức triển khai. Các kỹ thuật học trong mạng nơ ron hoàn toàn có thể nhằm mục đích vào hiệu chỉnh những trọng số link ( gọi là học tham số ) hoặc kiểm soát và điều chỉnh, sửa đổi cấu trúc của mạng gồm có số lớp, số nơ ron, kiểu và trọng số những link ( gọi là học cấu trúc ). Cả hai mục tiêu học này hoàn toàn có thể triển khai đồng thời hoặc tách biệt. Học tham số : Giả sử có k nơ ron trong mạng và mỗi nơ ron có đúng l link vào với những nơ ron khác. Khi đó, ma trận trọng số link W sẽ có size kxl. Các thủ tục học tham số nhằm mục đích mục tiêu tìm kiếm ma trận W sao cho Ys = Tinh ( Xs, W ) so với mọi mẫu học S = ( Xs, Ys ) ( 1 ) Hình 7.7. Học tham số có giám sát Học cấu trúc : Với học tham số ta giả định rằng mạng có một cấu trúc cố định và thắt chặt. Việc học cấu trúc của mạng truyền thẳng gắn với nhu yếu tìm ra số lớp của mạng L và số nơ ron trên mỗi lớp nj. Tuy nhiên, với những mạng hồi qui còn phải xác lập thêm những tham số ngưỡng ( của những nơ ron trong mạng. Một cách tổng quát phải xác lập bộ tham số P = ( L, n1, …, nl, ( 1, …, ( k ). ở đây k = ( nj sao cho Ys = Tinh ( Xs, P ) so với mọi mẫu học s = ( Xs, Ys ) ( 2 ) Về thực ra, việc kiểm soát và điều chỉnh những vectơ tham số W trong ( 1 ) hay P trong ( 2 ) đều qui về bài toán tìm kiếm tối ưu trong khoảng trống tham số. Do vậy, hoàn toàn có thể vận dụng những chính sách tìm kiếm tầm cỡ theo gradient hay những giải thuật di truyền, lập trình tiến hóa. KHẢ NĂNG TÍNH TOÁN VÀ BIỂU DIỄN PHỤ THUỘC DỮ LIỆU CỦA MẠNG NƠ RON. Mạng nơ ron truyền thẳng chỉ đơn thuần giám sát những tín hiệu ra dựa trên những tín hiệu vào và những trọng số link nơ ron đã xác lập sẵn ở trong mạng. Do đó chúng không có trạng thái bên trong nào khác ngoài vectơ trọng số W. Đối với mạng hồi qui, trạng thái trong của mạng được lưu giữ tại những ngưỡng của những nơ ron. Điều này có nghĩa là quy trình thống kê giám sát trên mạng truyền thẳng có lớp lang hơn trong mạng qui hồi. Nói chung, những mạng qui hồi hoàn toàn có thể không không thay đổi, thậm chí còn rối loạn theo nghĩa, khi cho vectơ giá trị nguồn vào X nào đó, mạng cần phải giám sát rất lâu, thậm chí còn hoàn toàn có thể bị lặp vô hạn trước khi đưa ra được tác dụng mong ước. Quá trình học của mạng qui hồi cũng phức tạp hơn rất nhiều. Tuy vậy, những mạng qui hồi hoàn toàn có thể được cho phép mô phỏng những mạng lưới hệ thống tương đối phức tạp trong trong thực tiễn. D. XÁC ĐỊNH CẤU TRÚC MẠNG TỐI ƯU. Như đã nói ở trên, lựa chọn sai cấu trúc mạng hoàn toàn có thể dẫn tới hoạt động giải trí mạng trở nên kém hiệu suất cao. Nếu ta chọn mạng quá nhỏ hoàn toàn có thể chúng không trình diễn được sự nhờ vào tài liệu mong ước. Nếu chọn mạng quá lớn để hoàn toàn có thể nhớ được toàn bộ những mẫu học dưới dạng bảng tra, nhưng trọn vẹn không hề tổng quát hóa được cho những tín hiệu vào chưa biết trước. Nói cách khác, cũng giống như trong những quy mô thống kê, những mạng nơ ron hoàn toàn có thể đưa tới thực trạng quá thừa tham số. Bài toán xác lập cấu trúc mạng tốt hoàn toàn có thể xem như bài toán tìm kiếm trong khoảng trống tham số ( xem phần học cấu trúc và học tham số ). Một cách làm là sử dụng giải thuật di truyền. Tuy vậy, khoảng trống tham số hoàn toàn có thể rất lớn và để xác lập một trạng thái W ( hoặc P ) trong khoảng trống yên cầu phải đào tạo và giảng dạy mạng, do vậy rất tốn thời hạn. Có thể vận dụng tư tưởng tìm kiếm leo đồi ( hill-climbing ) nhằm mục đích sửa đổi một cách có lựa chọn, mang tính địa phương cấu trúc mạng hiện có. Có hai cách làm : + Hoặc khởi đầu với một mạng lớn, sau đó giảm nhỏ xuống Hoặc mở màn với một mạng nhỏ, sau đó tăng dần lên. Một kỹ thuật khác hoàn toàn có thể vận dụng gọi là ” Tổn thương tối ưu ” nhằm mục đích vô hiệu một số ít link trọng số trong mạng dựa trên cách tiếp cận triết lý thông tin. Đơn giản nhất là những link có trọng số bằng 0. Quá trình cứ liên tục như vậy. Thực nghiệm chỉ ra rằng, kỹ thuật này hoàn toàn có thể loại trừ tới 3/4 những link, do đó nâng cao đáng kể hiệu suất cao của mạng. Ngoài việc loại trừ những link nơ ron thừa, người ta hoàn toàn có thể vứt bỏ những nơ ron không góp phần nhiều vào quy trình triển khai của mạng. Giải thuật ” Lợp ngói ” là một biến thể của kỹ thuật tăng trưởng mạng xuất phát từ thông số kỹ thuật bắt đầu tương đối nhỏ. Ý tưởng ở đây là xác lập một thông số kỹ thuật mạng cho phép tính đúng những mẫu học đã biết. Sau đó, mỗi khi thêm dần mẫu học mới, mạng được phép thêm 1 số ít nơ ron được cho phép đoán đúng hiệu quả học hiện tại và quy trình cứ liên tục như vậy. 7.4.3. Các mạng nơ ron một lớp 7.4.3. 1. Mạng Hopfield Năm 1982 nhà vật lý người Mỹ J.J. Hopfield đã yêu cầu quy mô mạng nơ ron một lớp NN được cho phép tạo ánh xạ tài liệu từ tín hiệu vào sang tín hiệu ra theo kiểu tự phối hợp ( auto – association ) tức là nếu tín hiệu vào là X thuộc miền giá trị D nào đó thì tác dụng ra Y : Y = Tinh ( X, NN ) cũng thuộc vào miền D đó. Nhờ vậy, một vectơ tín hiệu vào X bị thiếu thông tin hoặc biến dạng hoàn toàn có thể được phục sinh dạng nguyên bản của mình. Trong ứng dụng, mạng Hopfield đã mô phỏng được năng lực tự phối hợp ( hồi tưởng ) của bộ não người, nhận ra người quen sau khi nhận thấy những nét quen thuộc trên khuôn mặt. Ngoài ra, với một số ít cải biên mạng Hopfield còn được dùng để xử lý những bài toán tối ưu, bài toán giải quyết và xử lý tài liệu trong tinh chỉnh và điều khiển tự động hóa. A. KIẾN TRÚC MẠNG Mạng Hopfield có một lớp ra, với số nơ ron bằng số tín hiệu vào. Các link nơ ron là vừa đủ. Hình 7.8. Mạng Hopfield Nếu có m tín hiệu vào thì ma trận trọng số W sẽ có kích cỡ mxm : W = ( wij ) trong đó wij là trọng số link nơ ron thứ j ở lớp vào sang nơ ron thứ i ở lớp ra ( Các hàng tương ứng với nơ ron ra, những cột tương ứng với nơ ron vào ). Mạng nơ ron Hopfield nhu yếu những tín hiệu vào có giá trị lưỡng cực – 1 và 1. Trường hợp đầu vào x nhị phân hoàn toàn có thể dùng hàm đổi khác x ‘ = 2 x – 1. Hàm kích hoạt được dùng tại những nơ ron là hàm dấu. B. HUẤN LUYỆN MẠNG Mạng Hopfield HF học dựa trên nguyên tắc có giám sát. Giả sử có p mẫu học tương ứng với những vectơ tín hiệu vào Xs, s = 1, p. Mạng sẽ xác lập bộ trọng số W sao cho Xs = Tinh ( Xs, W ) với mọi s = 1, p ( 4 ) Ta kiến thiết xây dựng ma trận trọng số W như sau : W = ( w ij ) với ở đây Xs = ( xs1, …, xsm ). Một cách trực quan, trọng số link ( ji sẽ tăng thêm một lượng là 1 ( tương ứng với số hạng xsj.xsi ) nếu cả hai thành phần thứ i và thứ j của mẫu học Xs bằng nhau. Khi có mẫu học mới Xp + 1 ta chỉ cần xét những thành phần thứ i và thứ j của nó để update giá trị cho wji ( 6 ). Có thể chứng tỏ được với ma trận W được xác lập như trong ( 5 ), ta sẽ có được ( 4 ). Nói cách khác, mạng đã ” học thuộc ” những ví dụ mẫu { Xs }. C. SỬ DỤNG MẠNG. Giả sử đưa vào mạng vectơ tín hiệu X. Sử dụng mạng để tính đầu ra tương ứng với tín hiệu vào X là quy trình lặp gồm có những bước : Ban đầu, đặt X ( 0 ) = X. Gọi Y ( t ) là vectơ tín hiệu ra tương ứng với một lần cho X ( t ) Viral trong mạng. Y ( t ) = out ( t ) = Tinh ( HF, X ( t ) ). Nếu Y ( t ) ( X ( t ) thì liên tục bước lặp với t = t + 1 và X ( t + 1 ) = Y ( t ) = out ( t ) Nếu Y ( t ) = X ( t ) thì dừng và khi đó X ( t ) được coi là hiệu quả giải quyết và xử lý của mạng khi có tín hiệu vào X. Điểm quan tâm quan trọng là ma trận W không biến hóa trong quy trình sử dụng mạng. Một vài trường hợp nảy sinh Mạng không quy tụ. Mạng quy tụ và X ( t ) = X Mạng quy tụ và X ( t ) = Xs với Xs là mẫu nào đó đã học. Mạng quy tụ với X ( t ) ( Xs với mọi mẫu học Xs Mạng quy tụ với X ( t ) nào đó như trong 2 ) 3 ) 4 ) nhưng là ảnh ngược ( 1 thành – 1, – 1 thành 1 ). Mạng hoàn toàn có thể đưa ra luân phiên một vài mẫu học ( hoặc ảnh ngược của chúng ). Trường hợp 2 ) có nghĩa rằng vectơ X đã được đoán nhận đúng dựa trên mẫu học { Xs } hay nói cách khác, X hoàn toàn có thể suy ra từ mẫu học. Trường hợp 3 ) chứng tỏ rằng mạng đã hồi sinh dạng nguyên bản Xs của X. Trường hợp 4 ) chỉ ra một vectơ mới, hoàn toàn có thể xem là mẫu học và sẽ được dùng để update ma trận trọng số ( xem ( 6 ) ). D. THỬ NGHIỆM MẠNG TRONG PHỤC HỒI ẢNH Xét bài toán phục sinh ảnh đen trắng kích cỡ 4 x 4. Như vậy mỗi ảnh có 16 điểm ảnh. Ta phong cách thiết kế một mạng HF với 16 nguồn vào và 16 nơ ron ra. Vectơ nguồn vào của mạng nhận được từ ma trận ảnh, lấy từng dòng một, sau khi đã đổi khác nhờ sử dụng hàm x ‘ = 2 x – 1. Ban đầu ta có 4 mẫu X1 = ( 0,0,1,1,0,0,1,1,1,1,0,0,1,1,0,0 ) X2 = ( 0,0,0,0,0,0,0,0,1,1,1,1,1,0,0,0 ) X3 = ( 1,1,1,1,0,0,0,1,0,0,0,1,1,1,1,1 ) X4 = ( 1,0,0,0,1,0,0,0,1,0,0,0,1,1,1,1 ) Hình 7.9. Mẫu học X1 0 0 1 1 0 0 1 1 1 1 0 0 1 1 0 0 X1 ‘ – 1 – 1 1 1 – 1 – 1 1 1 1 1 – 1 – 1 1 1 – 1 – 1 ( ( ( ( ( ( ( ( ( ( ( ( ( ( ( ( … … O O O O O O O O O O O O O O O O ( ( ( ( ( ( ( ( ( ( ( ( ( ( ( ( Y1 – 1 – 1 1 1 – 1 – 1 1 1 1 1 – 1 – 1 1 1 – 1 – 1 Hình 7.10. Mạng Hopfield Phục hồi ảnh. Ma trận W được tính theo công thức ( 5 ) cho hiệu quả sau : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 0 2 0 0 2 0 – 2 0 – 2 – 4 – 2 0 0 2 4 4 1 2 0 2 2 0 2 0 2 – 4 – 2 0 2 – 2 0 2 2 2 0 2 0 4 – 2 0 2 4 – 2 0 – 2 0 0 2 0 0 3 0 2 4 0 – 2 0 2 4 – 2 0 – 2 0 0 2 0 0 4 2 0 – 2 – 2 0 2 0 – 2 0 – 2 0 – 2 – 2 0 2 2 5 0 2 0 0 2 0 2 0 – 2 0 2 0 – 4 – 2 0 0 6 – 2 0 2 2 0 2 0 2 0 2 0 – 2 – 2 0 – 2 – 2 7 0 2 4 4 – 2 0 2 0 – 2 0 – 2 0 0 2 0 0 8 – 2 – 4 – 2 – 2 0 – 2 0 – 2 0 2 0 – 2 2 0 – 2 – 2 9 – 4 – 2 0 0 – 2 0 2 0 2 0 2 0 0 – 2 – 4 – 4 10 – 2 0 – 2 – 2 0 2 0 – 2 0 2 0 2 – 2 – 4 – 2 – 2 11 0 2 0 0 – 2 0 – 2 0 – 2 0 2 0 0 – 2 0 0 12 0 – 2 0 0 – 2 – 4 – 2 0 2 0 – 2 0 0 2 0 0 13 2 0 2 2 0 – 2 0 2 0 – 2 – 4 – 2 2 0 2 2 14 4 2 0 0 2 0 – 2 0 – 2 – 4 – 2 0 0 2 0 4 15 4 2 0 0 2 0 – 2 0 – 2 – 4 – 2 0 0 2 4 0 16 Kết quả thử nghiệm với những ảnh có nhiễu tại 2,5,13 điểm ảnh ( tương ứng với 13, 31 và 81 % ) được cho trên hình 7.11. Hơn nữa, với ảnh đầu vào có cùng số điểm ảnh biến dạng hoàn toàn có thể dẫn tới những hành vi khác nhau ( không quy tụ giống nhau, số vòng lặp khác nhau … ). Nếu có hơn 50 % điểm ảnh biến dạng thì ảnh được tái tạo ở đầu ra là âm bản của ảnh gốc. E. KHẢ NĂNG NHỚ MẪU CỦA MẠNG HOPFIELD Kết quả thực nghiệm chỉ ra rằng số nơ ron Nnơ ron nói chunggấp 7 lần số ảnh mẫu N anh cần phải nhớ ( đã Phục hồi ) trong mạng : Nnơ ron = 7. N anh ( 7 ). Từ công thức này rút ra hai điều : Thứ nhất, độ phân giải r x r của ảnh phụ thuộc vào vào cần phải nhớ bao nhiêu ảnh mẫu. Chẳng hạn, nếu cần nhớ 100 ảnh mẫu thì cần phải có 700 nơ ron, mỗi nơ ron tương ứng với một điểm ảnh. Do vậy, r 2 = Nnơ ron = 7. N anh = 700, do đó ảnh phải có độ phân giải 27 x 27. Mẫu X1 Mẫu X2 Mẫu X3 Mẫu X4 Hình 7.11. Thí nghiệm mạng với ảnh nhiễu. Thứ hai, size ma trận trong số sẽ là mét vuông = ( Nnơ ron ) 2 = 49 ( N anh ) 2 Nếu cần nhớ 100 ảnh mẫu, cần phải lưu giữ 490.000 trọng số, mỗi trọng số cần 2 hoặc 4 byte ; Do vậy, để lưu giữu thông tin về mạng cần phải mất cỡ 1M byte hoặc 2M byte. Đây chính là độ phức tạp của mạng Hopfield. Để ước đạt ngân sách thời hạn, ta làm như sau : Mỗi lần lặp để tính out ( t ) từ X ( t ) ta cần ngân sách cỡ 2.106 phép nhân và 2.106 phép cộng. Một ước đạt thô là độ phức tạp thời hạn của mạng Hopfield tăng theo luỹ thừa bậc 2 của kích cỡ bài toán. Hệ thức ( 7 ) chỉ đúng khi những mẫu học phân bổ ngẫu nhiên trong khoảng trống mẫu. Nếu phân bổ hoặc lựa chọn mẫu học tốt, hoàn toàn có thể tăng năng lực nhớ mẫu của mạng từ 0,14 mẫu / 1 nơron lên tới 0,25 mẫu / 1 nơ ron. Trong ví dụ đã xét, ta chỉ có 4 mẫu ( N anh = 4 ) dùng cho mạng với Nnơ ron = 4×4 = 16 nơ ron. Khả năng nhớ mẫu của nó là 4/16 = 0,25. MỘT SỐ ĐIỂM LƯU Ý VỀ MẠNG HOPFIELD Mạng Hopfield được cho phép tạo ánh xạ tự tích hợp trên những tập dữ liệu Dữ liệu vào, ra có giá trị lưỡng cực Học có giám sát Mạng được cho phép hồi sinh tài liệu Khả năng nhớ mẫu phụ thuộc vào vào số nơ ron của mạng 7.4.3. 2 Mạng kiểu bộ nhớ 2 chiều tích hợp thích nghi ( Adaptive Bidirectional Associative Memory Neural Network ) Có chữ ” hai chiều ” trong tên gọi của mạng là vì hoàn toàn có thể dùng mạng để đổi khác tín hiệu vào thành tín hiệu ra và ngược lại nghĩa là Y = Tính ( X, WT ) và X = Tinh ( Y, W ) ở đây WT là ma trận chuyển vị của W. Chữ ” thích nghi ” có nghĩa là mạng hoàn toàn có thể kiểm soát và điều chỉnh ma trận trọng số cho tương thích với dáng điệu của thiên nhiên và môi trường. Theo một nghĩa nào đó, mạng ABAM có những nét giống mạng Hopfield : Chúng cùng là mạng 1 lớp Tín hiệu vào hoàn toàn có thể là nhị phân, hoặc lưỡng cực Việc xác lập ma trận trọng số khởi đầu giống nhau. Điểm khác giữa 2 loại mạng chính là ở khoanh vùng phạm vi bài toán hoàn toàn có thể xử lý và cách xác lập những trọng số cho tương thích với những bài toán đó : Mạng Hopfield được xác lập đúng một lần và được dùng cho tổng thể những bước thống kê giám sát .. Kích thước của ảnh ( số điểm ảnh trong mỗi mẫu ) sẽ xác lập số nơ ron và số trọng số link, trong khi đó số mẫu học và hình dạng của chúng sẽ xác lập giá trị những trọng số. Với mạng ABAM, ma trận trọng số không bắt buộc phải vuông. Thông thường, số nơ ron ra ít hơn nhiều số nơ ron vào. Ban đầu, ma trận trọng số được xác lập dựa trên những tập mẫu { ( Xs, Ys ) } giống như so với mạng Hopfield nghĩa là : Ở những bước t tiếp theo trong quy trình học, ma trận trọng số W ( t ) được đổi khác cho tương thích sao cho tạo ra sự phối hợp thực sự 2 chiều giữa tín hiệu vào và tín hiệu ra trong tập mẫu học. A. KIẾN TRÚC MẠNG. Hình 7.12 Mạng ABAM. B. HUẤN LUYỆN MẠNG. Giả sử có tập mẫu học { ( Xs, Ys ) }. Sơ đồ quy trình học được bộc lộ như sau : Lặp { ( Xs, Ys ) } ( ma trận W ( 0 ) Xs W ( 0 ) T ( Ys ( 1 ) Ys W ( 0 ) ( Xs ( 1 ) { ( Xs ( 1 ), Ys ( 1 ) ) } ( ma trận W ( 1 ) Xs W ( 1 ) T ( Ys ( 2 ) Ys W ( 1 ) ( Xs ( 2 ) cho đến khi { ( Xs ( t ), Ys ( t ) ) } = { ( Xs, Ys ) } Từ tập những mẫu học { ( Xs ( t ), Ys ( t ) ) } xác lập ma trận W ( t ) theo công thức ( 8 ) Ban đầu Xs ( 0 ) = Xs và Ys ( 0 ) = Ys. Sản sinh tập mẫu học mới { ( Xs ( t + 1 ), Ys ( t + 1 ) ) } nhờ nhân ma trận W ( t ) và chuyển vị của nó W ( t ) T với những mẫu học gốc { ( Xs, Ys ) }. So sánh tập mẫu học mới và mẫu học gốc. Nếu trùng nhau thì dừng. Ngược lại, liên tục quy trình lặp. Một số trường hợp 1 ) Quá trình học không quy tụ 2 ) Quá trình học quy tụ { ( Xs ( t ), Ys ( t ) ) } = { ( Xs, Ys ) } đồng thời Xs W ( t ) T = Ys và Ys W ( t ) = Xs với mọi s 3 ) Quá trình học dừng tại thời gian t ứng với { Xs ( t ) } = { Xs } và { Ys ( t ) } = { Ys } nhưng có một mẫu s sao cho Xs W ( t ) T ( Ys hoặc Ys W ( t ) ( Xs 4 ) Quá trình học dừng tại thời gian t với { ( Xs ( t ), Ys ( t ) ) } ( { ( Xs, Ys ) } 5 ) Quá trình học dừng tại thời gian t với { ( Xs ( t ), Ys ( t ) ) } sao cho { ( Xs ( t ), Ys ( t ) ) } ( { ( Xs, Ys ) } hoặc { ( Xs ( t ), Ys ( t ) ) } = { ( Xs, Ys ) } ở đây ta hiểu X là vectơ hòn đảo của X ( thay 1 thành – 1 và ngược lại ) C. SỬ DỤNG MẠNG – Giả sử đã rèn luyện mạng với tập mẫu { ( Xs, Ys ) } và quá rình quy tụ đến ma trận trọng số Ws ( t ) sao cho Xs Ws ( t ) T = Ys và Ys Ws ( t ) = Xs Khi đó, ta hoàn toàn có thể sử dụng như bảng tra 2 chiều : – Biết tín hiệu vào X ta hoàn toàn có thể xác lập hiệu quả ra tương ứng Y = X W ( t ) T – Biết tín hiệu ra Y ta hoàn toàn có thể xác lập tín hiệu vào tương ứng X = Y W ( t ) Độ phức tạp bộ nhớ và độ phức tạp thời hạn của mạng ABAM cỡ khoảng chừng 0 ( mxn )
Các file đính kèm theo tài liệu này :

  • docxNhận dạng ảnh pattern recognition.docx

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *