Soyutlayıcı Metin Özetlemesi Derin Öğrenme Kullanarak

dc.contributor.advisorYıldız, Beytullah
dc.contributor.authorAbbas, Hanan Wahhab Abbas
dc.contributor.otherSoftware Engineering
dc.date.accessioned2024-07-07T12:49:29Z
dc.date.available2024-07-07T12:49:29Z
dc.date.issued2021
dc.departmentFen Bilimleri Enstitüsü / Bilgisayar Mühendisliği Ana Bilim Dalı
dc.description.abstractÖzetleri otomatik olarak üretme yeteneği, çeşitli alanlarda verimliliğin yanı sıra bilginin yayılmasını ve elde tutulmasını iyileştirmeye yardımcı olabilir. Özetleme, soyutlamacı ve çıkarıcı olmak üzere temelde iki yaklaşım vardır. Ana fikirleri yakalamak için kaynak metnin kısa bir özetini oluşturma süreci olduğu için soyutlayıcı yaklaşım daha başarılı kabul edilir. Bu yaklaşımda, kaynak metinden oluşturulan özetler, orijinal metinde yer almayan yeni ifadeler ve cümleler içerebilir. Dikkate dayalı Tekrarlayan Sinir Ağları kodlayıcı-kod çözücü modellerinin kullanımı, özetleme ve makine çevirisi dahil olmak üzere dille ilgili çeşitli görevler için popüler olmuştur. Son zamanlarda, makine çevirisi alanında, Transformer modelinin Tekrarlayan Sinir Ağları tabanlı modelden üstün olduğu kanıtlanmıştır. Bu tezde, metin özetleme için geliştiril-miş bir kodlayıcı-kod çözücü Transformer modeli öneriyoruz. Temel model olarak, soyutlayıcı metin özetleme görevi için bir Tekrarlayan Sinir Ağları modelini olan Dikkatli Uzun Kısa Süreli Bellek kullandık. Bu çalışmanın değerlendirilmesi, ROUGE puanı kullanılarak otomatik olarak yapılmıştır. Deneysel sonuçlar, Transformer modelinin daha iyi bir özet ve daha yüksek bir ROUGE puanı sağladığını göstermektedir.
dc.description.abstractThe ability to produce summaries automatically helps to improve knowledge dissemination and retention, as well as efficiency in a variety of fields. There are basically two approaches to summarizing, abstractive and extractive. The abstractive approach is considered more successful as it is the process of creating a brief summary of the source text to capture the main ideas. In this approach, summaries created from the source text may contain new phrases and sentences not included in the original text. The use of attention-based Recurrent Neural Networks encoder-decoder models has been popular for a variety of language-related tasks, including summarization and machine translation. Recently, in the field of machine translation, the Transformer model has proven to be superior to the Recurrent Neural Networks -based model. In this thesis, we propose an improved encoder-decoder Transformer model for text summarization. As a baseline model, we used Long Short-Term Memory with attention, a Recurrent Neural Networks model, for the abstractive text summarization task. Evaluation of this study is performed automatically using the ROUGE score. Experimental results show that the Transformer model provides a better summary and a higher ROUGE score.en
dc.identifier.endpage67
dc.identifier.startpage0
dc.identifier.urihttps://hdl.handle.net/20.500.14411/5432
dc.identifier.yoktezid704678
dc.institutionauthorYıldız, Beytullah
dc.language.isoen
dc.subjectBilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol
dc.subjectComputer Engineering and Computer Science and Controlen_US
dc.titleSoyutlayıcı Metin Özetlemesi Derin Öğrenme Kullanarak
dc.titleAbstractive text summarization using deep learningen_US
dc.typeMaster Thesis
dspace.entity.typePublication
relation.isAuthorOfPublication8eb144cb-95ff-4557-a99c-cd0ffa90749d
relation.isAuthorOfPublication.latestForDiscovery8eb144cb-95ff-4557-a99c-cd0ffa90749d
relation.isOrgUnitOfPublicationd86bbe4b-0f69-4303-a6de-c7ec0c515da5
relation.isOrgUnitOfPublication.latestForDiscoveryd86bbe4b-0f69-4303-a6de-c7ec0c515da5

Files

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
704678 Abstractive text summarization using deep learning.pdf
Size:
934.79 KB
Format:
Adobe Portable Document Format