000 05566nam a2200445 i 4500
999 _c200442239
_d60451
003 TR-AnTOB
005 20230908000954.0
007 ta
008 171111s2020 xxu e mmmm 00| 0 eng d
035 _a(TR-AnTOB)200442239
040 _aTR-AnTOB
_beng
_erda
_cTR-AnTOB
041 0 _atur
099 _aTEZ TOBB FBE MAT Ph.D’20 TÜR
100 1 _aTürkün, Can
_eauthor
_9131638
245 1 0 _aSinir ağı operatörlerinin toplanabilirliğinin incelenmesi /
_cCan Türkün ; thesis advisor Oktay Duman.
246 1 1 _aInvestigation of summability of neural network operators
264 1 _aAnkara :
_bTOBB ETÜ Fen Bilimleri Enstitüsü,
_c2020.
300 _axii, 42 pages :
_billustrations ;
_c29 cm
336 _2rdacontent
_btxt
_atext
337 _2rdamedia
_bn
_aunmediated
338 _2rdacarrier
_bnc
_avolume
502 _aTez (Doktora Tezi)--TOBB ETÜ Fen Bilimleri Enstitüsü Aralık 2020
520 _aBu doktora tezinde sinir ağı operatörlerinin yaklaşım özellikleri tüm yönleriyle ele alınmıştır. Mühendislikten tıpa, finanstan bilgisayar teknolojilerine kadar geniş bir yelpazede uygulama alanına sahip olan yapay sinir ağları, yaklaşımlar teorisinde ilk kez 1989 yılında Cybenko tarafından ele alınmış ve daha sonra 1997 yılında Cardaliaguet, Euvrard ve Anastassiou tarafından geliştirilmiştir. Sinir ağı operatörleri yardımıyla düzgün sürekli fonksiyonlara tüm reel eksen üzerinde noktasal olarak yaklaşılabileceği bilinmektedir. Fakat, sinir ağı operatörlerinin test fonksiyonlarındaki değerlerini analitik olarak hesaplamak genellikle oldukça güç olduğundan buradaki yaklaşımı elde edebilmek için klasik Korovkin Teoremi uygulamak da çoğu zaman kullanışlı değildir. Tez çalışmamızda ilk olarak çan tipindeki aktivasyon fonksiyonları yardımıyla tanımlanan lineer yapıdaki sinir ağı operatörlerini modifiye ederek düzgün sürekli fonksiyonlara düzgün olarak yaklaşmasını sağladık. Daha sonra da klasik yaklaşımın gerçeklenmediği durumlar için negatif olmayan regüler toplanabilme metotlarından yararlandık. Bilindiği üzere matematiksel analizde bir toplanabilme metodu, klasik anlamda yakınsak olmayan bir dizinin (veya bir serinin) yakınsamasını sağlamanın alternatif bir yöntemidir. Elde ettiğimiz yaklaşım sonuçlarını desteklemek üzere çeşitli matematiksel yazılım programlarından yararlanarak grafiksel gösterimler elde ettik. Daha sonra çalışmalarımızı çok değişkenli fonksiyonlar teorisi üzerine genişlettik. Tezin ikinci kısmında ise maksimum-çarpım işlemleri yardımıyla lineer olmayan yapıdaki sinir ağı operatörlerini ele aldık. Benzer yaklaşım sonuçlarının lineer olmayan durum için de geçerli olduğunu kanıtladık. Literatürde toplanabilme teorisi teknikleri yaklaşımlar teorisinde sıklıkla kullanılmış olmasına rağmen sinir ağı operatörlerinin yaklaşımında bildiğimiz kadarıyla henüz bu yönde bir çalışma yapılmamış olması tez çalışmamıza özgünlük katmaktadır.
520 _aIn this Ph.D. thesis, the approximation properties of neural network operators are examined in all aspects. Artificial neural networks, which have a wide range of applications from engineering to medical and finance to computer technologies, were first addressed in the approximation theory in 1989 by Cybenko and then developed by Cardaliaguet, Euvrard and Anastassiou in 1997. It is known that uniform continuous functions on the whole real axis can be pointwise approximated by means of neural network operators. However, since it is very difficult to calculate the values of neural network operators in test functions analytically, the classical Korovkin Theorem is often not useful. In our thesis, we have firstly modified the neural network operators having linear structure defined with the help of bell-type activation functions in order to obtain uniform approximation to uniform continuous functions. Later, we have used non-negative regular summability methods for situations where the classical approximation fails. As it is known, a summability method is an alternative formulation of convergence of a sequence (or a series) which is divergent in the conventional sense. We have also obtained graphical illustrations by using various mathematical software programs to support our results. We have also expanded our work on the theory of multivariable functions. In the second part of the thesis, we discussed the nonlinear neural network operators with the help of maximum-product operations. We have showed that similar approximation results are also valid for the nonlinear case. As far as we know, the approximation by neural network operators has not been conducted in this direction although the techniques of summability theory have been frequently used in the approximation theory, which gains the originality to our thesis.
650 7 _aTezler, Akademik
_932546
653 _aSinir agı operatörleri
653 _aÇan biçimli fonksiyonlar
653 _aDüzgün yakınsaklık
653 _aRegüler toplanabilme metodları
653 _aSüreklilik modülü
653 _aNeural network operators
653 _aBell-shaped functions
653 _aUniform convergence
653 _aRegular summability methods
653 _aModulus of continuity
700 1 _aDuman, Oktay
_976452
_eadvisor
710 _aTOBB Ekonomi ve Teknoloji Üniversitesi.
_bFen Bilimleri Enstitüsü
_977078
942 _2z
_cTEZ