Please use this identifier to cite or link to this item: http://digital.csmsu.net:8080/library/handle/123456789/121
Title: กระบวนการสำหรับการจำแนกความรู้สึกที่มีข้อมูลไม่สมดุล
Other Titles: A Method of Imbalanced Sentiment Classification
Authors: นายพีระวัฒน์ บุญบ้านงิ้ว
Advisors: จันทิมา พลพินิจ
Keywords: การจำแนกเอกสาร;การให้น้ำหนักคำ;ข้อมูลไม่สมดุล;ซัพพอร์ตเวคเตอร์แมชชีน
Issue Date: 2563
Publisher: ภาควิชาวิทยาการคอมพิวเตอร์
Abstract: การจำแนกความรู้สึก (Sentiment Classification) คือการจำแนกเอกสารตามขั้นความรู้สึกซึ่ง โดยทั่วไปอาจจะจำแนกเป็นความรู้สึกที่เป็นบวก (Positive) ความรู้สึกที่เป็นลบ (Negative) และ ความรู้สึกที่เป็นกลาง (Neutral) โดยการจำแนกความรู้สึกนั้น ได้รับการศึกษามาอย่างต่อเนื่อง เพราะ การประยุกต์ใช้ในหลายลักษณะ แต่โดยทั่วไปมักจะนิยมใช้ในการจำแนกความรู้สึกที่มีการแสดงไว้ใน รูปแบบข้อความ (Text) เช่น ประยุกต์ใช้ในการจัดอันดับความรู้สึกจากข้อความแสดงความคิดเห็นของ ผู้คนที่มีต่อสินค้าและบริการ การประยุกต์ใช้เพื่อวิเคราะห์ความรู้สึกของผู้เรียน การประยุกต์ใช้เพื่อ วิเคราะห์ความรู้สึกของผู้คนในเรื่องการเมือง เป็นต้น ซึ่งปัญหาความไม่สมดุลของข้อมูลในคลาสนั้น เกิด จากกลุ่มตัวอย่างที่ใช้ในการเรียนรู้มีข้อมูลไม่สมดุลกัน โดยกลุ่มที่มีข้อมูลมากกว่าจะเรียกว่า “ข้อมูลกลุ่ม หลัก (Majority Class)” ขณะที่กลุ่มตัวอย่างที่มีข้อมูลจำนวนน้อยกว่าจะเรียกว่า “ข้อมูลกลุ่มรอง (Minority Class)” เมื่อนำเอาชุดข้อมูลในลักษณะนี้ไปเรียนรู้เพื่อสร้างตัวจำแนกความรู้สึก (Sentiment Classifier) ข้อมูลใหม่ๆ ที่อ่านเข้ามาเพื่อวิเคราะห์เพื่อจำแนกกลุ่มด้วยตัวจำแนกความรู้สึกดังกล่าว ก็มี แนวโน้มที่จะทำนายกลุ่มของข้อมูลนั้นไปยังทิศทางของข้อมูลกลุ่มหลักที่ใช้ในการเรียนรู้ตัวจำแนก ความรู้สึก ดังนั้น ในโครงงานปริญญานิพนธ์ฉบับนี้ จึงได้นำเสนอการศึกษาการแก้ปัญหาความไม่สมดุล ของข้อมูลในการจำแนกความรู้สึกด้วยเทคนิคการให้น้ำหนักคำ 5 เทคนิค คือ TF-IDF, Delta TF-IDF, TF-IDF-ICF, TF-RF และ TF-IGM ร่วมกับแมชชีนเลิร์นนิง 3 ตัว คือ Naïve Bayes, K-Nearest Neighbor และสุดท้าย Convolution Neural Network
URI: http://digital.csmsu.net:8080/library/handle/123456789/121
Appears in Collections:โครงงานวิทยาการคอมพิวเตอร์



Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.