Soyutlayıcı Özetlemek, Benzerlik, Gereklilik, ve Kabul Edilebilirliği Kullanan Kapsamlı Değerlendirme Metriği

dc.contributor.advisor Yıldız, Beytullah
dc.contributor.author Al-brıman, Mohammed Khalıd Hılmı
dc.contributor.other Software Engineering
dc.date.accessioned 2024-07-07T12:46:13Z
dc.date.available 2024-07-07T12:46:13Z
dc.date.issued 2023
dc.department Fen Bilimleri Enstitüsü / Bilgisayar Mühendisliği Ana Bilim Dalı
dc.description.abstract Uzun metinlerden otomatik olarak anlamlı özetler üretmek, birçok alanda büyük önem taşımaktadır. Transformer modeli gibi yeni sinir ağı mimarilerinin ortaya çıkması, kaliteli özetler üretebilen çok sayıda büyük dil modellerinin gelişmesine neden olmuştur. Fakat, özetleme modellerinin ürettiği özetler, önemli bir sorunu beraberinde getirmektedir. Özetleme modellerinin kalitesini ölçen, ROUGE gibi, standart otomatik değerlendirme metrikleri, kapsamlı bir değerlendirme yapmakta eksik kalmaktadır. Bu çalışmada, modeller tarafından üretilen ve insanlar tarafından yazılan örnek özetleri kullanan, SEAScore adlı yeni bir model tabanlı metrik sunuyoruz. Bu metrik, semantik benzerlik, doğal dil çıkarımı ve dilsel kabul edilebilirlik gibi çeşitli Doğal Dil İşleme yöntemlerini kullanır. Geliştirdiğimiz SEAScore metriği, daha önce eğitilmiş dil modelleri tarafından çıkarılan özellikleri kullanarak, özetleme modellerinin kalitelerini ölçen bir puan üretir. Bu tezde, üç tane özetleme modeli kullanarak yeni metriğimizin kalitesini ölçen deneyler yaptık. Deneysel sonuçlara göre, geliştirdiğimiz SEAScore metriği, bilinen standart metriklerine göre, insan tarafından üretilen değerlendirme puanları ile daha yüksek korelasyon sergileyerek başarılı sonuçlar sunmuştur.
dc.description.abstract Producing meaningful automatic summaries from long textual documents is essential in various fields. The emergence of novel neural network architectures, such as the Transformer model, has led to the development of large pre-trained language models that can produce quality summaries. However, model-generated summaries suffer from many issues. Thus, standard automatic evaluation metrics, such as the ROUGE metric, fail to effectively evaluate the quality of summarization models. In this study, we introduce SEAScore, a new model-based automatic evaluation metric that can evaluate model-generated summaries against their counterpart reference summaries by utilizing multiple Natural Language Processing tasks such as Semantic Similarity, Natural Language Inference, and Linguistic Acceptability. SEAScore takes features extracted by pre-trained language models and produces an evaluation score to measure the quality of summarization models. In this thesis, we develop our new evaluation metric SEAScore and train three summarization models to assess our new metric. Experimental results show that SEAScore correlates better with human judgment than some standard metrics. en
dc.identifier.endpage 123
dc.identifier.startpage 0
dc.identifier.uri https://hdl.handle.net/20.500.14411/5013
dc.identifier.yoktezid 812633
dc.institutionauthor Yıldız, Beytullah
dc.language.iso en
dc.subject Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol
dc.subject Computer Engineering and Computer Science and Control en_US
dc.subject Derin öğrenme
dc.subject Deep learning en_US
dc.title Soyutlayıcı Özetlemek, Benzerlik, Gereklilik, ve Kabul Edilebilirliği Kullanan Kapsamlı Değerlendirme Metriği
dc.title A Comprehensive Evaluation Metric for Abstractive Summarization: Leveraging Similarity, Entailment, and Acceptability en_US
dc.type Master Thesis
dspace.entity.type Publication
relation.isAuthorOfPublication 8eb144cb-95ff-4557-a99c-cd0ffa90749d
relation.isAuthorOfPublication.latestForDiscovery 8eb144cb-95ff-4557-a99c-cd0ffa90749d
relation.isOrgUnitOfPublication d86bbe4b-0f69-4303-a6de-c7ec0c515da5
relation.isOrgUnitOfPublication.latestForDiscovery d86bbe4b-0f69-4303-a6de-c7ec0c515da5

Files

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
812633 A comprehensive evaluation metric for abstractive summarization.pdf
Size:
2.4 MB
Format:
Adobe Portable Document Format

Collections