Yapay sinir ağları ile makine çevirisinin detaylı başarım analizi / (Record no. 200438303)

MARC details
000 -LEADER
fixed length control field 04960nam a2200445 i 4500
003 - CONTROL NUMBER IDENTIFIER
control field TR-AnTOB
005 - DATE AND TIME OF LATEST TRANSACTION
control field 20230908000947.0
007 - PHYSICAL DESCRIPTION FIXED FIELD--GENERAL INFORMATION
fixed length control field ta
008 - FIXED-LENGTH DATA ELEMENTS--GENERAL INFORMATION
fixed length control field 171111s2018 xxu e mmmm 00| 0 eng d
035 ## - SYSTEM CONTROL NUMBER
System control number (TR-AnTOB)200438303
040 ## - CATALOGING SOURCE
Original cataloging agency TR-AnTOB
Language of cataloging eng
Description conventions rda
Transcribing agency TR-AnTOB
041 0# - LANGUAGE CODE
Language code of text/sound track or separate title Türkçe
099 ## - LOCAL FREE-TEXT CALL NUMBER (OCLC)
Classification number TEZ TOBB FBE BİL YL’20 HAR
100 1# - MAIN ENTRY--PERSONAL NAME
Personal name Harma, Simla Burcu
Relator term author
9 (RLIN) 127971
245 10 - TITLE STATEMENT
Title Yapay sinir ağları ile makine çevirisinin detaylı başarım analizi /
Statement of responsibility, etc. Simla Burcu Harma ; thesis advisor Oğuz Ergin.
246 11 - VARYING FORM OF TITLE
Title proper/short title An in-depth performance analysis of neural machine translation tasks
264 #1 - PRODUCTION, PUBLICATION, DISTRIBUTION, MANUFACTURE, AND COPYRIGHT NOTICE
Place of production, publication, distribution, manufacture Ankara :
Name of producer, publisher, distributor, manufacturer TOBB ETÜ Fen Bilimleri Enstitüsü,
Date of production, publication, distribution, manufacture, or copyright notice 2020.
300 ## - PHYSICAL DESCRIPTION
Extent xiv, 50 pages :
Other physical details illustrations ;
Dimensions 29 cm
336 ## - CONTENT TYPE
Source rdacontent
Content type code txt
Content type term text
337 ## - MEDIA TYPE
Source rdamedia
Media type code n
Media type term unmediated
338 ## - CARRIER TYPE
Source rdacarrier
Carrier type code nc
Carrier type term volume
502 ## - DISSERTATION NOTE
Dissertation note Tez (Yüksek Lisans Tezi)--TOBB ETÜ Fen Bilimleri Enstitüsü Ocak 2020
520 ## - SUMMARY, ETC.
Summary, etc. Teknoloji çağında yaşıyoruz ve son on yılda Yapay Zeka üzerine en çok çalışılan teknoloji olmuştur. Sayısız alanda uygulaması bulunmakla birlikte, Yapay Sinir Ağları ile Makine Çevirisi (YMÇ) temel araştırma alanlarından birisidir. Google, Facebook, Amazon, Microsoft, Yandex gibi birçok büyük şirket ürünlerinde YMÇ kullanmaktadır ve YMÇ'nin kullanıcılara servis olarak sunulması son zamanlarda benimsenen bir yöntem olmuştur. Bu servislerin, kullanıcı memnuniyeti açısından, hız ve çeviri kalitesi başta olmak üzere bazı kısıtları sağlamaları gerekmektedir. YMÇ modellerini hızlandır- mak konusunda birçok çalışma yapılmıştır, ancak bildiğimiz kadarıyla bu çalışmaların hiçbiri detaylı başarım/zaman analizinde bulunmamıştır. Bu çalışmada en gelişmiş YMÇ modellerinden birisi olan, kodlayıcı-kodçözücü yapısını ilgi mekanizmasıyla birleştiren Dönüştürücü modeli ile çalışılmıştır. Dönüştürücü'nün etrafına bir mikroservis kurulmuş ve sistemin darboğazının modelin kendisi olduğu gösterilmiştir. Bunun üzerine temel yapılandırma parametrelerinin değişimiyle deneyler yapılmış ve bu parametrelerin başarımı hassas bir şekilde etkilediği gözlenmiştir. Bunun üzerine modelin her bir bileşeninin CPU ve GPU'da detaylı zaman dökümü çıkarılmış ve en verimsiz aşamanın ışın araması olduğu gösterilmiştir. Daha sonra ışın aramasının daha iyi anlaşılması adına her bir adımını gösteren zaman dökümü çıkarılmıştır. Ayrıca, ışın boyutunun BLEU skorunu sadece kelime-bazında etkilediği, türce-bazında bir etkisinin olmadığı gözlemlenmiştir. Son olarak kelime-hazinesi büyüklüğünün ışın aramasının başarımında büyük rolü olduğu gösterilmiştir.
Summary, etc. We live in the technology era and over the last decade Artificial Intelligence (AI) has been the most focused technology. It has applications in countless topics and neural machine translation (NMT) is one of the major research areas. Many big companies like Google, Facebook, Amazon, Microsoft, Yandex deploy NMT in their production systems and NMT services has become popular lately. These services need to provide some constraints, especially speed and translation quality, for user satisfaction. There has been significant amount of work on accelerating NMT models however to the best of our knowledge, there is no detailed research giving a detailed performance analysis of each step in a model. In this work, one of the state-of-the-art models the Transformer is used. It has encoder-decoder architecture with an additional attention mechanism. A microservice is implemented on top of the Transformer model and it is showed that the bottleneck is the model itself. Then, several experiments with different configuration values has been conducted and it is observed that the performance of the model is highly sensitive to the changes in these values. A detailed performance breakdown of the model in CPU and GPU show that beam search is a big source of inefficiency. So a detailed time breakdown of the beam search is obtained in order to have a better understanding. Additionally, it is observed that the beam size only affects BLEU score at word level, and not at token level. Finally, it is showed that the vocabulary size has a major role on the performance of the beam search.
650 #7 - SUBJECT ADDED ENTRY--TOPICAL TERM
Topical term or geographic name entry element Tezler, Akademik
9 (RLIN) 32546
653 ## - INDEX TERM--UNCONTROLLED
Uncontrolled term Makine Çevirisi
Uncontrolled term Mikroservisler
Uncontrolled term Yapay Sinir Agları
Uncontrolled term Derin Öğrenme
Uncontrolled term Performans Analizi
Uncontrolled term Neural Machine Translation
Uncontrolled term Microservices
Uncontrolled term Neural Network
Uncontrolled term Deep Learning
Uncontrolled term Performance Analysis
700 1# - ADDED ENTRY--PERSONAL NAME
Personal name Ergin, Oğuz
9 (RLIN) 36153
Relator term advisor
710 ## - ADDED ENTRY--CORPORATE NAME
Corporate name or jurisdiction name as entry element TOBB Ekonomi ve Teknoloji Üniversitesi.
Subordinate unit Fen Bilimleri Enstitüsü
9 (RLIN) 77078
942 ## - ADDED ENTRY ELEMENTS (KOHA)
Koha item type Thesis
Source of classification or shelving scheme Other/Generic Classification Scheme
Holdings
Withdrawn status Lost status Source of classification or shelving scheme Not for loan Collection code Home library Current library Shelving location Date acquired Source of acquisition Total Checkouts Full call number Barcode Date last seen Copy number Date shelved Koha item type
    Library of Congress Classification Ödünç Verilemez-Tez / Not For Loan-Thesis Tezler Merkez Kütüphane Merkez Kütüphane Tez Koleksiyonu / Thesis Collection 16/06/2020 Bağış / Donation   TEZ TOBB FBE BİL YL’20 HAR TZ01091 16/06/2020 1 24/06/2020 Thesis
Devinim Yazılım Eğitim Danışmanlık tarafından Koha'nın orjinal sürümü uyarlanarak geliştirilip kurulmuştur.