Soyutlayıcı Özetlemek, Benzerlik, Gereklilik, ve Kabul Edilebilirliği Kullanan Kapsamlı Değerlendirme Metriği

dc.contributor.advisorYıldız, Beytullah
dc.contributor.authorAl-brıman, Mohammed Khalıd Hılmı
dc.contributor.otherSoftware Engineering
dc.date.accessioned2024-07-07T12:46:13Z
dc.date.available2024-07-07T12:46:13Z
dc.date.issued2023
dc.departmentFen Bilimleri Enstitüsü / Bilgisayar Mühendisliği Ana Bilim Dalı
dc.description.abstractUzun metinlerden otomatik olarak anlamlı özetler üretmek, birçok alanda büyük önem taşımaktadır. Transformer modeli gibi yeni sinir ağı mimarilerinin ortaya çıkması, kaliteli özetler üretebilen çok sayıda büyük dil modellerinin gelişmesine neden olmuştur. Fakat, özetleme modellerinin ürettiği özetler, önemli bir sorunu beraberinde getirmektedir. Özetleme modellerinin kalitesini ölçen, ROUGE gibi, standart otomatik değerlendirme metrikleri, kapsamlı bir değerlendirme yapmakta eksik kalmaktadır. Bu çalışmada, modeller tarafından üretilen ve insanlar tarafından yazılan örnek özetleri kullanan, SEAScore adlı yeni bir model tabanlı metrik sunuyoruz. Bu metrik, semantik benzerlik, doğal dil çıkarımı ve dilsel kabul edilebilirlik gibi çeşitli Doğal Dil İşleme yöntemlerini kullanır. Geliştirdiğimiz SEAScore metriği, daha önce eğitilmiş dil modelleri tarafından çıkarılan özellikleri kullanarak, özetleme modellerinin kalitelerini ölçen bir puan üretir. Bu tezde, üç tane özetleme modeli kullanarak yeni metriğimizin kalitesini ölçen deneyler yaptık. Deneysel sonuçlara göre, geliştirdiğimiz SEAScore metriği, bilinen standart metriklerine göre, insan tarafından üretilen değerlendirme puanları ile daha yüksek korelasyon sergileyerek başarılı sonuçlar sunmuştur.
dc.description.abstractProducing meaningful automatic summaries from long textual documents is essential in various fields. The emergence of novel neural network architectures, such as the Transformer model, has led to the development of large pre-trained language models that can produce quality summaries. However, model-generated summaries suffer from many issues. Thus, standard automatic evaluation metrics, such as the ROUGE metric, fail to effectively evaluate the quality of summarization models. In this study, we introduce SEAScore, a new model-based automatic evaluation metric that can evaluate model-generated summaries against their counterpart reference summaries by utilizing multiple Natural Language Processing tasks such as Semantic Similarity, Natural Language Inference, and Linguistic Acceptability. SEAScore takes features extracted by pre-trained language models and produces an evaluation score to measure the quality of summarization models. In this thesis, we develop our new evaluation metric SEAScore and train three summarization models to assess our new metric. Experimental results show that SEAScore correlates better with human judgment than some standard metrics.en
dc.identifier.endpage123
dc.identifier.startpage0
dc.identifier.urihttps://hdl.handle.net/20.500.14411/5013
dc.identifier.yoktezid812633
dc.institutionauthorYıldız, Beytullah
dc.language.isoen
dc.subjectBilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol
dc.subjectComputer Engineering and Computer Science and Controlen_US
dc.subjectDerin öğrenme
dc.subjectDeep learningen_US
dc.titleSoyutlayıcı Özetlemek, Benzerlik, Gereklilik, ve Kabul Edilebilirliği Kullanan Kapsamlı Değerlendirme Metriği
dc.titleA Comprehensive Evaluation Metric for Abstractive Summarization: Leveraging Similarity, Entailment, and Acceptabilityen_US
dc.typeMaster Thesis
dspace.entity.typePublication
relation.isAuthorOfPublication8eb144cb-95ff-4557-a99c-cd0ffa90749d
relation.isAuthorOfPublication.latestForDiscovery8eb144cb-95ff-4557-a99c-cd0ffa90749d
relation.isOrgUnitOfPublicationd86bbe4b-0f69-4303-a6de-c7ec0c515da5
relation.isOrgUnitOfPublication.latestForDiscoveryd86bbe4b-0f69-4303-a6de-c7ec0c515da5

Files

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
812633 A comprehensive evaluation metric for abstractive summarization.pdf
Size:
2.4 MB
Format:
Adobe Portable Document Format