Nội dung text [SGU] Xử lý ngôn ngữ tự nhiên [QT] (2024-2025)
BÀI TẬP QUÁ TRÌNH XỬ LÝ NGÔN NGỮ TỰ NHIÊN (DCT121C1 & DCT121C2 & DCT1223) - Hình thức: Bài tập NHÓM (tối đa 05 sinh viên) - Tỉ lệ điểm: 40% - Thời hạn nộp: 09/11/2024. 23h59’. - Nộp đồ án (FILE PDF): (nếu làm nhóm thì mỗi thành viên vẫn tự nộp bài) 1. Hệ thống học trực tuyến của SGU (https://hoctructuyen.sgu.edu.vn/). 2. Google Classrom (sẽ cập nhật tại đây). - Báo cáo đồ án: trang bìa theo mẫu của khoa; không qui định cấu trúc trình bày báo cáo nhưng phải trình bày đầy đủ các mục có liên quan đến bài toán, kiến trúc mạng, huấn luyện mạng, kết quả thực nghiệm ... —--------------------------------------------------------------------------------------------------------- Đề bài: Thiết kế một mạng neuron đa lớp (Multilayer Perceptron - MLP) để giải quyết bài toán phân loại phi tuyến. Giả sử có bộ dữ liệu có hai đặc trưng x1, x2 và nhãn y∈{0,1}. Hãy xây dựng một MLP với một hidden layer và một lớp đầu ra để phân loại dữ liệu. Yêu cầu: cài đặt chương trình bằng Python. Dữ liệu mẫu: ● X = [(0,0), (0,1), (1,0), (1,1)]
● Y=[0, 1, 1, 0] (bài toán XOR) Giải thích: Bài toán XOR (Exclusive OR) là một bài toán phân loại nhị phân cơ bản trong máy học và thường được sử dụng để minh họa sự khác biệt giữa mô hình tuyến tính và phi tuyến tính, đồng thời cũng là một ví dụ kinh điển để giải thích lý do vì sao các mô hình nơ-ron đơn giản (như Perceptron) không thể giải quyết bài toán này mà cần đến mạng neuron đa lớp (MLP) hoặc các mô hình phức tạp hơn. Hướng dẫn: Sinh viên cần tìm hiểu bài toán XOR. Tài liệu tham khảo: 1. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press. https://www.deeplearningbook.org/ 2. Nielsen, M. (2015). Neural Networks and Deep Learning. Determination Press. http://neuralnetworksanddeeplearning.com/ Các bước triển khai: Bước 1: Kiến trúc mạng: ● Input layer: x1, x2. ● Hidden layer: 2 neurons. ● Output layer: 1 neuron (dự đoán nhãn yyy). Bước 2: Trọng số và hàm kích hoạt: Sử dụng hàm kích hoạt sigmoid cho cả lớp ẩn và lớp đầu ra. Bước 3: Tính toán truyền tiến (forward pass): ● Tính toán đầu ra của lớp ẩn ● Tính toán đầu ra của lớp đầu ra
Bước 4: Backpropagation và cập nhật trọng số: Sử dụng backpropagation để tính sai số và điều chỉnh trọng số của tất cả các lớp dựa trên quy tắc gradient descent. Bước 5: Huấn luyện mạng: Chạy qua nhiều epoch cho đến khi mạng có thể học được cách phân loại chính xác dữ liệu XOR. Kết quả: Sau khi huấn luyện, mạng neuron sẽ có thể giải quyết được bài toán XOR phi tuyến.