Fen Bilimleri Enstitüsü / Science Institute
Permanent URI for this collectionhttps://hdl.handle.net/11727/1392
Browse
Item Alışılmamış imalat yöntemlerinin seçiminde bir karar destek sisteminin geliştirilmesi(Başkent Üniversitesi Fen Bilimler Enstitüsü, 2024) Kargın, Leman; İç, Yusuf TanselBu tez çalışmasında Alışılmamış İmalat Yöntemlerinin (AİY) seçimi için bir Karar Destek Sistemi (KDS) geliştirilmiştir. Geliştirilen KDS’de öncelikle literatürde gerçekleştirilmiş çalışmalardan yola çıkarak yapılacak işlemlere uygun AİY’ler veri tabanından belirlenerek bir alternatif setinin oluşturulması sağlanmıştır. Ardından literatürde yaygın bir şekilde AİY seçiminde kullanılmış olan AHP ve TOPSIS yöntemleri bütünleşik olarak uygulanarak işe en uygun AİY’nin belirlendiği bir seçim modeli oluşturulmuştur. Sonrasında elektro kimyasal delik delme işlemi özelinde bu işlemle delinmiş deliklerin görüntülerini görüntü işleme teknikleriyle işleyen, ön eleme ve AHP-TOPSIS modeli sonucu belirlenmiş olan AİY için uygun işleme parametrelerinin de önerildiği ikinci seviye bir model KDS’ye entegre edilmiştir. Son aşamada ise görüntü işleme teknikleri ile elde edilen farklı performans yanıtlarına sahip olan farklı parametre setlerinden oluşan alternatifler TOPSIS modeline aktarılarak performans yanıtlarına kullanıcının atayacağı ağırlık değerlerine göre en uygun parametre kombinasyonunun tespitinin sağlandığı bir en iyileme modülü de KDS’ye eklenmiştir. Böylece AİY seçim sürecinin tüm değerlendirme ve analiz aşamalarını içeren bütünleşik bir KDS ortaya konabilmiştir. Geliştirilen KDS ileriki dönemlerde diğer AİY’lerin işlemler özelindeki görüntülerinin veri tabanına yüklenmesi ile diğer işlemler için de işleme parametresi değeri verebilecek bir yapıda oluşturulmuştur. KDS, Python programlama dili kullanılarak geliştirilmiş ve uygulama çalışmaları ile KDS’nin işlevselliği gösterilmeye çalışılmıştır. In this thesis, a decision support system (DSS) was developed for the selection of Nontraditional Manufacturing Processes (NTMPs). In the developed DSS, first of all, based on the studies carried out in the literature, suitable NTMPs were determined from the database, and an alternative set was created. Then, AHP and TOPSIS methods, which have been widely used in the selection of AHPs in the literature, were integrated into the DSS to determine the most suitable NTMP for the defined operation. Afterward, a second level model was integrated into the DSS, which processes the images of the holes drilled with this process with image processing techniques, specifically for the electrochemical hole drilling process, and also recommends the appropriate processing parameters as a result of the pre-screening module and AHP-TOPSIS model. In the last stage, alternatives consisting of different parameter sets with different performance responses, obtained through image processing techniques, were transferred to the TOPSIS model, and an optimization module was integrated into the DSS, which enables the determination of the most appropriate parameter combination according to the weight values assigned by the user to the performance responses. Thus, an integrated DSS that includes all evaluation and analysis stages of the NTMP selection process was developed. The developed DSS was created in a structure that can provide processing parameter values for other processes in the future by uploading process-specific images of other NTMPs to the database. DSS was developed using Python programming language, and the functionality of DSS was tried to demonstrate with application studies.Item Artık blok destekli U-Net mimarisi kullanarak görüntü steganografisi ve gizli veri boyutunun analizi(Başkent Üniversitesi Fen Bilimler Enstitüsü, 2024) Şener, Dilara; Güney, SeldaGünümüz iletişim sistemlerinde veri güvenliği, hayati bir öneme sahiptir. Temel amaç, hassas bilgilerin yetkisiz kişilerin eline geçmeden veya anlaşılamayacak şekilde güvenli bir biçimde hedefe iletilmesidir. Dijital teknolojideki gelişmeler ve cihazların yaygınlaşması veri güvenliği konusunda yeni zorlukları da beraberinde getirmektedir. Özellikle bankacılık, sağlık sektörü ve özel yaşam gibi alanlarda veri güvenliği daha da önem kazanmıştır. Bu bağlamda, steganografi gibi veri gizleme yöntemleri, kötü niyetli erişimlerden korunma amacıyla öne çıkmaktadır. Steganografi, önemli bilgileri fark edilmeden dijital medyaların içine gizleyerek, bu bilgilerin sadece gönderici ve alıcı tarafından bilinmesini sağlayan bir yöntem olması nedeniyle bilgi güvenliği alanında sıkça kullanılan yöntemlerden biridir. Bu tez çalışmasında, temel amaç, artık blok destekli U-Net mimarisi kullanılarak 256x256 boyutlarındaki renkli mesaj görüntülerinin aynı boyutlardaki kapak görüntülerine etkili bir şekilde gizlenmesini sağlamaktır. Literatürdeki çalışmalarda genellikle görüntü segmentasyonu amacıyla kullanılan klasik U-Net mimarisi, bu çalışmada veri gizleme ve çıkarma amacıyla düzenlenerek kullanılmıştır. Modelin test edilmesi aşamasında, iki farklı analiz yapılmıştır. İlk analiz kapsamında, literatürdeki mevcut çalışmalardan farklı olarak, Linnaeus 5 veri seti kullanılarak 32x32, 64x64, 128x128, ve 256x256 olmak üzere farklı boyutlardaki renkli mesaj görüntülerinin kapak görüntüsü üzerindeki etkisini incelemiştir. İkinci analiz kapsamında, farklı karakteristik özelliklere sahip görüntüler üzerinde genelleştirme yeteneğini ölçmek amacıyla model, Linnaeus 5 veri setine ek olarak ImageNet ve Labeled Faces in the Wild (LFW) veri setleri ile de test edilmiş ve ölçüm metrikleri elde edilmiştir. Elde edilen sonuçlar literatürde yer alan diğer çalışmalarla kıyaslanmıştır. Gerçekleştirilen kapsamlı literatür taramasından elde edilen mevcut bilgiler çerçevesinde, çalışmanın literatürdeki mevcut derin öğrenme algoritmalarına kıyasla Tepe Sinyal-Gürültü Oranı (Peak Signal to Noise Ratio, PSNR) ve Yapısal Benzerlik İndeksi Ölçümü (Structural Similarity Index, SSIM) açısından umut verici sonuçlar verdiği değerlendirilmektedir. Elde edilen analiz sonuçları hem yüksek veri gizleme kapasitesi hem de yüksek algılanamazlık düzeyinin elde edildiğini göstermektedir. Tez çalışması kapsamında ayrıca kapak görüntüleri karmaşıklık düzeylerine göre kategorize edilerek iki ayrı kategorideki bu resimlere aynı gizli görüntülerin gizlenmesiyle elde edilen ölçüm sonuçları değerlendirilmiştir. Böylece, karmaşıklık düzeyine göre optimum kapak resmi seçilmesi konusunda istatistiksel bir değerlendirme yapılmıştır.In modern communication systems, data security is of paramount importance. The primary goal is to ensure that sensitive information is transmitted to the intended recipient securely and unintelligibly to unauthorized individuals. Advancements in digital technology and the proliferation of devices have introduced new challenges in data security. In fields such as banking, healthcare, and personal privacy, the importance of data security has become increasingly critical. In this context, methods of data concealment like steganography have gained prominence for their ability to protect against malicious access. Steganography, by discreetly embedding crucial information within digital media, ensures that the data is only known to the sender and the receiver, making it a frequently employed method in the field of information security. This thesis is primarily focused on employing the U-Net architecture, which is supported by residual blocks, for the efficient concealment of colored message images of 256x256 dimensions within cover images of identical size. The classical U-Net architecture, traditionally used for image segmentation in the literature, has been adapted in this study for data hiding and extraction. During the testing phase of the model, two distinct analyses were conducted. Differing from existing studies, the first analysis investigated the impact of colored message images of various sizes (32x32, 64x64, 128x128, and 256x256) on the cover image using the Linnaeus 5 dataset. The second analysis aimed to measure the generalization capability of the model on images with different characteristics, employing additional datasets such as ImageNet and Labeled Faces in the Wild (LFW), and the results were compared with other studies in the literature. Comprehensive analyses have shown promising results in terms of Peak Signal to Noise Ratio (PSNR) and Structural Similarity Index Measure (SSIM) compared to current deep learning algorithms in the literature, to the best of our knowledge. The results demonstrate both a high capacity for data concealment and a high level of imperceptibility. Additionally, as part of the thesis work, cover images categorized based on their complexity levels and evaluates the measurement results obtained by embedding the same secret images into these two different categories. This provides a statistical assessment for selecting the optimum cover image based on complexity level.Item Automated Audio Captioning with Acoustic and Semantic Feature Representation(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2023) Ozkaya Eren, AysegulToday, audio data is increasing rapidly with the developing technology and the increasing amount of data. Therefore, there is a need for understanding and interpretation of the content of audio data by human-like systems. Generally, audio processing studies have focused on speech recognition, audio event/scene, and tagging to process audio data. Speech recognition aims to translate a spoken language into text. Audio event/scene and tagging studies make single or few-word explanations of an audio recording. Unlike the previous studies, automatic audio captioning aims to explain an environmental audio record with a natural language sentence. This thesis explores the importance of using semantic information to improve audio captioning performance after a detailed literature study on audio processing, image/video, and audio captioning. In this context, computational models have been developed using linguistic knowledge (subject-verbs), topic model, knowledge graphs, and acoustic events for audio captioning. As a methodology, the contributions of different features, word embedding methods, deep learning architectures and datasets, and the contribution of semantic information to audio captioning were examined. Within the scope of the studies, two publicly open audio captioning datasets were used. The success of the models proposed in the thesis was compared with the studies using the same datasets. The results show that the proposed methods improve AAC performance and give results comparable to the literature. Günümüzde gelişen teknoloji ve artan veri miktarı ile birlikte ses verileri de hızla artmaktadır. Bu nedenle, ses verilerinin içeriğinin insan benzeri sistemler tarafından anlaşılmasına ve yorumlanmasına ihtiyaç duyulmaktadır. Genel olarak ses işleme çalışmaları konuşma tanıma, ses olay/sahne tanıma ve ses etiketlemeye odaklanmıştır. Konuşma tanıma, konuşulan bir dili metne çevirmeyi amaçlar. Ses olay/sahne tanıma ve etiketleme sistemleri, bir ses kaydına tek veya birkaç kelimelik açıklamalar yapar. Otomatik ses başlıklandırma ise önceki çalışmalardan farklı olarak çevresel bir ses kaydını doğal bir dil cümlesi ile açıklamayı amaçlar. Bu tez, ses işleme, görüntü/video ve ses başlıklandırma üzerine ayrıntılı bir literatür çalışmasının ardından ses başlıklandırma performansını iyileştirmek için anlamsal bilgileri kullanmanın önemini araştırmaktadır. Bu bağlamda, otomatik ses başlıklandırma için dilbilimsel (özne-fiiller), konu modeli, bilgi çizgesi ve akustik olaylar kullanılarak sayısal modeller geliştirilmiştir. Metodoloji olarak, farklı özniteliklerin, kelime gömme yöntemlerinin, derin öğrenme mimarilerinin ve veri kümelerinin katkıları ve semantik bilginin ses başlıklandırmaya katkısı incelenmiştir. Çalışmalar kapsamında iki adet ses başlıklandırma veri seti kullanılmıştır. Tezde önerilen modellerin başarısı, aynı veri setlerini kullanan çalışmalarla karşılaştırılmıştır. Sonuçlar, önerilen yöntemlerin otomatik ses başlıklandırma performansını iyileştirdiğini ve literatürle karşılaştırılabilir sonuçlar verdiğini göstermektedir.Item Bir örnekle öğrenme yaklaşımı kullanılarak çatı tipi sınıflandırması(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2023) Olcer, Naim; Sümer, EmreSon zamanlarda, Evrişimsel Sinir Ağları tabanlı metotlar uzaydan çekilmiş görüntüler üzerinde çatı tipi sınıflandırması yapmak için sıkça kullanılmaktadır. Bu metotlar ile yapılan sınıflandırma işlemlerinde en önemli sorun ilgili metotların çok fazla sayıda eğitim verisine ihtiyaç duymasıdır. İnsanların bir nesneyi tanıması için genelde bir veya birkaç örnek yeterlidir. Bir örnekle öğrenme yaklaşımı da aynı insan beyni gibi yalnızca bir veya birkaç eğitim örneğinden nesne kategorileri hakkında bilgi edinmeyi amaçlamaktadır. Bu metot, çok büyük miktarda veri kullanmak yerine her bir sınıf için yalnızca birkaç adet örnek kullanılarak öğrenme sağlayan bir yaklaşımdır. Bu çalışmada, Siyam Sinir Ağları modelini temel alan bir örnekle öğrenme yaklaşımı kullanılarak eğitim için az sayıda örnek ile çatı tipi sınıflandırması yapılmıştır. Eğitim için kullanılan resimler çatı verisi bulma zorluğu nedeniyle yapay olarak üretilmiştir. Test için de gerçek çatı resimlerinden oluşan iki farklı veri kümesi kullanılmıştır. Test ve eğitim veri kümeleri Teras (Flat), Beşik (Gable) ve Kırma (Hip) olmak üzere 3 farklı çatı tipinden oluşmaktadır. Yapay olarak üretilen resimlerle eğitilen Siyam Sinir Ağı modelinin ilk veri kümesine ait çatı resimleri ile test edilmesi sonucunda ortalama %66’lık bir sınıflandırma başarımı sağlanırken ikinci veri kümesi ile bu oran %85 olarak hesaplanmıştır. Aynı veriler Evrişimsel Sinir Ağları ve Destek Vektör Makineleri ile de test edilmiş, en yüksek başarımın Siyam Sinir Ağı modeli ile elde edildiği görülmüştür. Recently, Convolutional Neural Network-based methods have been used frequently for roof-type classification on images taken from space. The most important problem with classification processes using these methods is that they require a large amount of training data. Usually, one or a few samples are enough for a human to recognise an object. Like the human brain, the One-Shot Learning approach aims to learn object categories with just one or a few training examples per class, rather than using huge amounts of data. In this study, roof-type classification was carried out with a few training examples using the one-time learning approach and the so-called Siamese Neural Network method. The images used for training were artificially produced due to the difficulty of finding roof data. Two different data sets consisting of real roof pictures were used for the test. The test and training data set consisted of three different roof types: Flat, Gable and Hip. Finally, the Siamese Neural Network model, which was trained with artificially produced pictures, achieved an average classification performance of 66% as a result of testing with real roof pictures. With the other data set prepared, a classification success of 85% was achieved. The same data were also tested with Convolutional Neural Networks and Support Vector Machines, and it was found that the highest success was achieved with the Siamese Neural Network model.Item Büyük elektrik şebekeleri için güç salınımı tanımlayıcısı ve esnek alternatif akım iletim sistemlerine uygulanması(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2015) Atalık, Tevhid; Doğan, MustafaTürkiye Elektrik İletim Sistemi, 18 Eylül 2010 tarihinde kıta Avrupa Elektrik İletim Sistemi olan ENTSO-E (European Network of Transmission System Operators for Electricity)’e Bulgaristan üzerinden iki adet ve Yunanistan üzerinden bir adet 380 kV hat ile bağlanmıştır. Bu bağlantı hatları ile Türkiye’den Avrupa’ya ve Avrupa’dan Türkiye’ye yaklaşık olarak 1200 MW’lık bir güç alışverişi hedeflenmiştir. Türkiye Elektrik İletim Sisteminin ENTSO-E’ye bağlanması sonrasında kıta Avrupa ile Türkiye arasında bölgeler arası güç salınımlarının oluşacağı öngörülmüştür. Oluşması muhtemel bu salınımların tanımlanması ve sönümlendirilmesi güvenli bağlantı için gereklidir. Aksi taktirde oluşan bölgeler arası salınımlar, elektrik sisteminin dinamikleriyle sönümlenemezse ve genliği artarak devam ederse, iletim sisteminde tam (black-out) veya kısmi çökmelerin (brown-out) oluşmasına sebep olabilir. Bu yüzden bölgeler arası salınımların tespit edilmesi ve bastırılması oldukça önemlidir. Bu çalışmada, Türkiye Elektrik İletim Sisteminin kıta Avrupa Elektrik İletim Sistemine bağlanması sonucunda oluşması öngörülmüş olan bölgeler arası salınımların tanımlanmasına yönelik bölgeler arası salınım tanımlayıcı bir sistemin geliştirilmesi ve geliştirilen bu sistemin Türkiye Elektrik İletim Sisteminde hali hazırda kurulu bulunan FACTS cihazlarına uygulanması anlatılmaktadır. Bu tez çalışmasında, bölgeler arası salınımların tanımlanması için özgün olarak geliştirilen iki yöntem anlatılmaktadır. Birinci yöntem olan FFT Tabanlı Değiştirilmiş Kayan Pencere Algoritması (FFT-Based Modified Sliding Window Algorithm, FBMSWA), iki farklı uzunlukta kayan pencere üzerinde Fourier analiz temeline dayanmaktadır. Kısa pencere üzerinde yapılan FFT analizi sonucunda elde edilen veriler ile bölgeler arası salınımların genliği, uzun pencere üzerinde yapılan FFT analizi sonucunda elde edilen veriler ile ise salınımın fazı tespit edilir. Geliştirilen bu yöntem bir donanım üzerinde gerçek zamanlı olarak çalışacak hale getirilerek bölgeler arası salınım tanımlama sistemi oluşturulmuştur. Bu sistem, Ankara Sincan Transformatör Merkezinde bulunan T-STATCOM ile bütünleşik bir şekilde Eylül 2010 tarihinden itibaren çalışarak bölgeler arası salınımların bastırılmasında görev almıştır. Devreye girdiği ilk günden itibaren birçok bölgeler arası salınımı tanımlayan ve T-STATCOM’a başarıyla komutlar gönderen bu sistem, periyodik değişim göstermeyen ve anlık olarak oluşan salınımların fazını her zaman tam olarak doğru şekilde tespit edememektedir. Bu sorunu ortadan kaldırmak için Norden E. Huang tarafından geliştirilen Ampirik Kipsel Ayrıştırma (Empricial Mode Decomposition, EMD) yöntemi temeline dayalı ikinci bir algoritma geliştirilmiştir. Bu yöntemde EMD yönteminin yapısal sorunlarından biri olan aralıklılık (intermittency) probleminin neden olduğu kiplerin karışması (mode-mixing) sorununun çözümüne yönelik özgün bir yöntem geliştirilmiştir. Hedef odaklı saflaştırma adı verilen bu yöntem ile analiz edilecek sinyalde bulunan süreksiz bileşenler ve ilgilenilen frekans bandı dışındaki sinyaller ana sinyalden arındırılmaktadır. Arındırılmış sinyal daha sonra EMD yöntemi ile temel bileşenlerine ayrılmaktadır. Hedef Odaklı Saflaştırmaya Dayalı Ampirik Kipsel Ayrıştırma Yöntemi (Target Based Refinement Empirical Mode Decomposition, TBR-EMD) adı verilen bu ikinci yöntemde ilk olarak istenmeyen bileşenler ön filtreme ve hedef odaklı saflaştırma sayesinde incelenen sinyalden arındırılır ve daha sonra arındırılmış sinyal EMD ile bileşenlerine ayrılır. Şayet arındırılmış sinyalde bölgeler arası salınıma ait kip varsa, bu kip her zaman EMD işlemi sonucunda ayrıştırılan ilk bileşende ortaya çıkar. Bu yüzden EMD işleminde analiz edilen sinyalin tüm bileşenlerinin ayrıştırılmasına gerek yoktur ve böylece iteratif bir yönteme sahip olan EMD yönteminin işlem süresi önemli ölçüde kısalmaktadır. Hedef odaklı saflaştırmaya dayalı ampirik kipsel ayrıştırma yönteminin en önemli özelliği, bölgeler arası salınımların tanımlanması sırasında standart EMD yönteminin ayrıştıramadığı sinyalleri EMD yöntemine göre ortalama üç kat daha hızlı ayrıştırabilmesidir. Ayrıca gerçek sinyaller ile yapılan testlerde, TBR-EMD, FBMSWA’ya göre salınımların fazını daha iyi tespit ettiği görülmüştür. Türkiye Elektrik İletim Sistemi için geliştirilmiş bölgeler arası salınım tanımlama yöntemleri, yeni tasarım ölçütlerine göre kolayca uyarlanarak başka elektrik iletim sistemlerine de uygulanabilir. Özellikle hedef odaklı saflaştırma yöntemi genelleştirilebilir bir yöntem olup bölgeler arası salınımların tanımlanması dışında başka alanlarda da (görüntü işleme, ses işleme, biyomedikal, jeofizik, vb.) ihtiyaca göre uyarlanarak kullanılabilir. Bu yöntem sayesinde literatüre önemli bir katkı sağlanmıştır. Turkish Electricity Transmission System was connected to European Network of Transmission System Operators for Electricity (ENTSO-E), which is the European Continental Electricity Transmission Network, by means of two 380 kV lines over Bulgaria and one 380 kV line over Greece, on September 18th of 2010. Through these connection lines, an electricity commerce with a scale of 1200 MW has been targeted between Europe and Turkey. Inter-area oscillations between Turkey and continental Europe had been foreseen, once the connection of Turkey to ENSTO-E was completed. The identification and damping of these possible oscillations are necessary for a reliable connection. Otherwise, if these inter-area oscillations cannot be damped out by the inherent dynamics of the electricity network and if their amplitudes continue to grow, they can result in black-out or brown-out events in the transmission system. Hence, it is quite important that these inter-area oscillations should be identified and damped out respectively. In this work, the development of an inter-area oscillation identifier system and its application to already installed FACTS devices in the Turkish Electricity Transmission System in order to damp out the foreseen inter-area oscillations after the interconnection of Turkish and European Networks, is examined thoroughly. In this research, two main methods are proposed in order to identify the inter-area oscillations. The first method, FFT Based Modified Sliding Window Algorithm, is based on Fourier analysis with two sliding windows that have different lengths. The data obtained from the FFT analysis with the short window detects the magnitude of the oscillation, whereas the data obtained from the FFT analysis with the long window detects the phase of the oscillation. By means of this proposed method, an inter-area oscillation identifier system, which uses FFT based modified sliding window algorithm to run on hardware in real-time, embedded system is implemented. This system has been in operation for damping out the inter-area oscillations successfully, in conjunction with a type of FACTS device, which works as a T-STATCOM to regulate the bus voltage in Ankara Sincan Transformer Substation, since September 2010. Since going into operation, although being able to identify lots of inter-area oscillations and send successful commands to T-STATCOM, this system cannot all the time properly detect the phase of the oscillations which do not exhibit periodic character and occur instantly. In order to overcome this challenge, a second algorithm based on Empirical Mode Decomposition (EMD) method, which was developed by Norden E. Huang has been built up. In this algorithm, a structural drawback of EMD method; mode-mixing problem, which is caused by intermittency is solved. By target based refinement method, signals except for the discontinuous components and out of the frequency band of interest are pruned from the main signal. This pruned signal is then decomposed into its fundamental components by means of EMD method. In this second method, namely target based refinement empirical mode decomposition, the unwanted components in the signal inspected are pruned by means of target based refinement, and then the pruned signal is decomposed with the help of EMD. If the pruned signal contains a mode belonging to inter-area oscillation, this mode will always exist in the first component that is decomposed by means of EMD process. Therefore in the EMD process, there is no need to decompose all the signal components, and the processing time is significantly reduced for the EMD method which has an iterative solving character. The most important feature of the target based refinement empirical mode decomposition method is that it can decompose the signals which the standard EMD method cannot, during the identification of inter-area oscillations. Moreover, it can produce efficient results within duration as three times faster than the standard EMD method. Besides, it is found out that with field data, TBR-EMD can detect the phase much better than FBMSWA. The methods developed specifically for identifying the inter-area oscillations in the Turkish Electricity Transmission System, can be easily adapted to different electricity transmission systems. Especially the target based refinement is a method which can be generalized and can also be used in different areas other than identifying inter-area oscillations, e.g. (image processing, audio processing, biomedical, geophysics) after proper adaptation to new design criteria. Thanks to this method, a substantial contribution is made to the literature.Item Çok yüksek dayanımlı bir betonun yüksek gerinim hızlarındaki davranışının deneysel ve sayısal yöntemlerle incelenmesi(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2021) Günay, Ahmet Reha; Karadeniz, SamiDünya’daki savaşlarda, askeri unsurlar ve siviller zarar görmektedir. Ülkeler Savunma Sanayii’ndeki yatırımlarını artırmakta, yüksek hız ve tahribatlı mühimmat sistemleri geliştirmeyi sürdürmektedir. Günümüzde, tehditlerin gelişimine paralel olarak korumanında etkin biçimde sağlanabilmesi önemlidir. Bu tez çalışmasında, mühimmat çarpması gibi yüksek hız ve enerjili seyreden dinamik etkiler altında, çok yüksek dayanımlı bir betonun dinamik davranışları deneysel ve sayısal olarak incelenecektir. Normal betonlara kıyasla basınç dayanımı ve dürabiletesi yüksek 135 MPa basınç dayanımına sahip çok yüksek dayanımlı bir beton (ÇYDB) üretilmiştir. Üretilen bu beton, dinamik davranışının bilgisayarlarda benzetiminin sağlanması amacıyla, sayısal olarak modellenebilmesi ve gerekli malzeme parametrelerinin tespiti için Split Hopkinson Basınç Çubuğu (SHBÇ) test düzeneğinde 353 ila 1288 s-1 gerinim hızlarına erişilerek test edilmiştir. İlave olarak, balistik testlerde kullanılmak üzere 500x500x500 mm ölçüsünde hedef numuneleri üretilmiş ve tungsten ağır alaşımı parça yaklaşık 795-934 m/s hız aralığında ÇYDB hedef yapısına çarptırılmıştır. Deneysel çalışmaların benzetimi ve sayısal çalışmalar için yarı-statik ve SHBÇ testlerinden elde edilen veriler, Matlab programında çok değişkenli regresyon analiziyle değerlendirilmiş ve Holmquist Johnson Cook (HJC) malzeme modelinin parametreleri belirlenmiştir. Geliştirilen ÇYDB'ye ait Holmquist Johnson Cook (HJC) malzeme modeli kullanılarak bir dizi sayısal analiz gerçekleştirilmiş ve sayısal analiz sonuçları ile çarpma testlerinde elde edilen son hedefin penetrasyon ve krater derinliği, hasar yüzey alanı, delik çapı ölçümleri ve hedef ile çarpan parça görselleri balistik testlerle doğrulanmıştır. Bu tezle özgün olarak üretilen çok yüksek dayanımlı beton, ses üstü hızlarda ve yüksek tahribat sağlayan mühimmat sistemleri karşısında etkinliğin azaltılması, hasarının minimize edilmesi ve yapılarda korumanın sağlanması amacıyla kullanılarak literatüre katkı sağlayacaktır. Military elements and civilians are harmed in wars in the world. Countries increase their investments in the Defense Industry and continue to develop high speed and destructive ammunition systems. Nowadays, in parallel with the development of threats, it is important to provide effective protection. In this thesis, the dynamic behavior of a ultra high strength concrete under high speed and energetic dynamic effects such as ammunition impact will be studied experimentally and numerically. A ultra-high strength concrete (UHSC) having 135 MPa compressive strength and and higher durability compared to normal concretes was produced. In order to simulate the dynamic behaviour of this concerete numarically on a computer a number of experimentally produced material parameters are required . to generate such data the samples produced from this concrete were tested by reaching strain rates of 353 to 1288 s-1 in a Split Hopkinson Pressure Bar (SHPB) test rig . In addition, 500x500x500 mm target samples were produced to be used in ballistic tests and the tungsten heavy alloy specimen was impacted to the UHSC target structure in the velocity range of approximately 795-934 m/s. Simulation of experimental studies and data obtained from quasi-static and SHPB tests for numerical studies were evaluated by multivariate regression analysis in Matlab program and parameters of the Holmquist Johnson Cook (HJC) material model were determined. A series of numerical analyis was carried out using the Holmquist Johnson Cook (HJC) material model of the developed ultra-high strength concrete, and the penetration and crater depth, damage surface area, hole diameter measurements and images of the target and the striking part of the final target obtained in the impact tests were compared with the numerical analysis results. Hence , the numerical model has been verified. The ultra-high strength concrete produced uniquely in this thesis will contribute to the literature by using it in order to reduce the effectiveness, minimize the damage and protect the buildings against the ammunition systems that provide high damage and at supersonic speeds.Item Çoklu onarım ağında onarım seviyesi analizine ilişkin önerilen yeni model ve çok amaçlı bir yaklaşım(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2021) Bıçakcı, İsmail; İç, Yusuf TanselOnarım Seviyesi Analizi (OSA), (i) arızalı alt bileşenin onarılıp onarılmaması ile ilgili kararın verilmesi; (ii) verilen onarım kararının hangi onarım kademesinde yapılacağı ve (iii) onarım kararı için kullanılacak gerekli kaynağın konuşlanacağı en uygun konumun belirlenmesi için kullanılmaktadır. Uçak, gemi, tank gibi stratejik önem taşıyan ve yüksek maliyetli silah sistemlerinin ömür devri süreleri uzun olmakla birlikte; ömür devri maliyetleri de son derece yüksektir. OSA, silah sistemlerinin ömür devri maliyetlerini enküçüklemede önemli bir rol oynamaktadır. Bu tez kapsamında, kaynaklarda OSA probleminin temel yapısını ele alan modellere göre daha kapsamlı ve esnek yapıda yeni bir matematiksel model geliştirilmiştir. Önerilen model, bileşenlerin alt onarım kademesindeki bir tesisten üst onarım kademesindeki önceden tanımlanmış tesise sevk edilmesine izin veren ve onarım ağındaki tesislerin konumlarını tanımlayarak her tesis arasındaki malzeme hareket yollarını belirleyen çoklu yukarı akış yaklaşımını kullanmaktadır. Önerilen modelin performansı, üretilen kıyaslama problemleri aracılığıyla test edilmiş ve sonuçlar tekli yukarı akış yaklaşımı ile karşılaştırılmıştır. Yapılan sayısal analizler sonucunda, önerilen modelin tekli yukarı akış seçenekli modelden daha etkili olduğu ve toplam onarım maliyetlerini ortalama %4,85 oranında düşürdüğü görülmüştür. Silah sistemlerinin oldukça yüksek ömür devri maliyetleri olduğu dikkate alındığında, bu oran çok önemli bir maliyet tasarrufunu ifade etmektedir. Çoklu yukarı akış yaklaşımına ek olarak, onarım süresini (malzeme teslim sürelerinden etkilenen) ve onarım maliyetlerini birlikte enküçükleyen çok amaçlı bir karar modeli önerilmiştir. Önerilen çok amaçlı model, aynı zamanda arızalı bileşenlerin sevkiyatı için karayolu, demiryolu ve hava yolu gibi farklı sevk seçeneklerini dikkate alabilmektedir. Önerilen çok amaçlı model, toplam onarım maliyetleri ile toplam onarım süresi arasındaki ödünleşmenin gösterilmesi için bir örnek problem üzerinde çözülmüş ve bu kapsamda epsilon kısıt yöntemi kullanılarak Pareto eğrisi oluşturulmuştur. Level of Repair Analysis (LORA) determines (i) the best decision during a malfunction of each product component; (ii) the location in the repair network to perform the decision and (iii) the quantity of required resources in each facility. Capital goods have long life cycles and their total life cycle costs are extremely high. LORA plays an important role in minimizing the total life cycle costs of the capital goods. Within the scope of this thesis, a new mathematical model has been developed for the LORA problem, which is more comprehensive and flexible than the other pure LORA models in the literature. The proposed model uses the multiple upstream approach that allows the transfer of the components from a location in the lower echelon to the predefined locations in the upper echelon, and determines the material movement paths between each facility, defining the facilities’ locations in the repair network. The performance of the proposed model is tested on generated benchmark problems and the results are compared with the single upstream model. As a result of computational analyses, it is concluded that the proposed model is more effective than the single upstream model and reduces the maintenance costs 4.85% on average, which means enormous cost savings when considering the total life cycle costs of capital goods. In addition to the multiple upstream approach, a multi-objective decision model that minimizes both the repair time (affected by lead times) and the repair costs is proposed. The proposed multi-objective model also considers the movement of the defective components to be performed by multiple transportation modes such as highway, railway, and airway. In order to demonstrate the trade-off between total repair costs and total repair time, the proposed multi-objective model is solved on an illustrative example and the Pareto frontier is generated by using the epsilon constraint method.Item Derin ağ tabanlı özniteliklerle gazların sınıflandırılması ve konsantrasyon değerlerinin regresyon analizi(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2023) Bakiler, Hande; Güney, SeldaElektronik burun (e-burun), kimyasal sensör dizilimi ile biyolojik malzemelerden yayılan uçucu bileşikler üzerinde hassas ölçümler yaparak çeşitli özellikleri belirleyen, tanımlayan ve sınıflandıran elektronik algılama teknolojisine dayalı bir cihazdır. İnsan koku alma mekanizmasını taklit ederek çalışan bu sistemler, son yıllarda farklı alanlarda yaygın olarak kullanılmaktadır. E-burundaki önemli konulardan biri de farklı gazların farklı konsantrasyon değerlerinin tahmin edilmesidir. Gaz konsantrasyonlarının doğru bir şekilde tahmin edilmesi, hastalık tespiti gibi hassas konularda da çok önemli bir rol oynamaktadır. Bu çalışma, derin öğrenme (Deep Learning, DL) ağlarını kullanarak 4 adet metal oksit gaz sensörü tarafından tespit edilen etanol, metan, etilen ve karbon monoksit gazlarının konsantrasyon seviyelerinin ve değerlerinin sınıflandırma ve regresyon başarılarının artırılması amacıyla yapılmıştır. Gazların konsantrasyon seviyelerine göre sınıflandırma başarılarının karşılaştırılmasında ve belirli bir aralıktaki konsantrasyon değerlerinin tahmin başarılarının karşılaştırılmasında farklı yöntemler kullanılmıştır. Bu işlemlerin gerçekleştirilmesi için gaz verilerine ön işleme ve farklı öznitelik çıkarımı adımları uygulanmıştır. Bu çalışmanın odak noktası, öznitelik çıkarımı yapılmasında yeni yöntemler geliştirerek sınıflandırma ve regresyondan elde edilen başarının artırılmasıdır. Bu amaçla, iki yeni metodoloji önerilmiştir. Geliştirilen yöntemlerden birinde, derin öğrenme ağlarından biri olan Uzun Kısa-Süreli Bellek (Long Short-Term Memory, LSTM) ağlarının tam bağlantılı katmanından öznitelik çıkarımı yapılmış, çıkarılan öznitelikler sınıflandırma ve regresyonda kullanılmıştır. Önerilen diğer metodolojide ise LSTM ağının tam bağlantılı katmanından elde edilen veriler Zamansal Evrişimli Ağ (Temporal Convolutional Network, TCN) modeline giriş olarak uygulanmıştır ve bu TCN’nin tam bağlantılı katmanından elde edilen özniteliklerde sınıflandırma ve regresyon çalışmalarında kullanılmıştır (LSTMFCLTCNFCL). Önerilen her iki yöntemin sonuçları geleneksel yöntemlere göre karşılaştırıldığında hem sınıflandırma hem de tahmin sonuçlarında iyileşme olduğu, başarının arttığı ve ortalama karesel hataların da önemli ölçüde azaldığı görülmektedir. Ayrıca, ön işleme aşamasında sinyal düzeltme uygulandığı zaman sonuçlarda dikkate değer bir şekilde artış olduğu da görülmektedir. Hem sinyal düzeltmenin uygulanması hem de geliştirilen yöntemlerle sonuçlarda iki taraflı bir iyileşme olması sağlanmıştır. Sınıflandırmada Destek Vektör Makinesi (Support Vector Machines, SVM) algoritması 94,7% ile en yüksek doğruluk oranını verirken, regresyonda ise en düşük ortalama karesel hatalar Gauss Süreci Regresyonu (Gaussian Process Regression, GPR) ile elde edilmiştir. Electronic nose (e-nose) is a device based on electronic sensing technology that determines, identifies and classifies various properties by making precise measurements on volatile components emitted from biological materials with a chemical sensor array. These systems, which work by imitating the human olfactory mechanism, have been widely used in different fields in recent years. One of the important issues in e-nose is the estimation of different concentration values of different gases. Accurate estimation of gas concentrations plays a crucial role in sensitive issues such as disease detection. This study was carried out to increase the classification and regression success of the concentration levels and values of ethanol, methane, ethylene and carbon monoxide gases detected by 4 metal oxide gas sensors using deep learning networks. Different methods was used to compare the classification successes of gases according to their concentration levels and to compare the estimation successes of concentration values in a certain range. In order to perform these operations, preprocessing and different feature extraction steps were applied to the gas data. The focus of this study is to increase the success of the classification and regression by developing new methods for feature extraction. For this purpose, two new methodologies have been proposed. In one of the developed methods, feature extraction was made from the fully connected layer of Long Short-Term Memory (LSTM) networks, which is one of the deep learning networks, and the extracted features were used in the classification and regression. In the other proposed methodology, the data obtained from the fully connected layer of the LSTM network was applied as an input to the Temporal Convolutional Network (TCN), and the features obtained from the fully connected layer of this TCN were used in classification and regression studies (LSTMFCL-TCNFCL). When the results of both proposed methods are compared with the traditional methods, it is seen that there is an improvement in both classification and estimation results, the success is increased and the mean squared errors are significantly reduced. In addition, it is seen that there is a remarkable increase in the results when signal correction is applied in the preprocessing stage. Both the application of signal correction and the developed methods have provided a bilateral improvement in the results. While the Support Vector Machine algorithm gave the highest accuracy rate with 94,7% in the classification, the lowest mean square errors in regression were obtained with the Gaussian Process Regression.Item Derin öğrenme ağları kullanılarak protein metal bağlanma yerlerinin analizi(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2020) Haberal, İsmail; Oğul, HasanProteinler çevrelerinde bulunan metal iyonlarıyla kuvvetli bağlar oluşturarak katlanırlar ve üç boyutlu yapılarına ulaşırlar. Proteinlerin üç boyutlu yapısı, hücre içerisinde hangi yaşamsal fonksiyonu yerine getirdiğini gösterir. Protein dizilimi kullanılarak proteinlerin metallerle bağlanma durumunu tahmin etmek, proteinin yapısı, fonksiyonlarını tahmin etmek ve ilaç keşfi için önemlidir. Aminoasit dizilimlerinden elde edilen verilerden yola çıkarak ve makine öğrenmesi yöntemleri kullanılarak yapılan hesaplamalı tahminler çeşitli bioinformatik alanlarında yaygın olarak kullanılmaktadır. Bu tez çalışmasında, protein dizilimlerinde bulunan Histidin (HIS) ve Sistein (CYS) aminoasitlerinin metallerle bağlanma durumlarının tahmini için üç farklı derin öğrenme mimarisi önerilmektedir. Bu mimariler TensorFlow üzerinde çalışan Keras kullanılarak geliştirilmiştir. Bu mimariler sırasıyla evrişimsel sinir ağı, uzun-kısa süreli hafıza ve kapılı tekrarlayan hücre modelleri üzerine inşa edilmiştir. Bu modeller doğrudan dizilim verileri üzerinde çalışamadığından, ilgili modelleri beslemek üzere PAM skorlama matrisi, protein kompozisyonları ve ikili temsil yöntemlerine dayalı sayısallaştırma teknikleri uygulanmıştır. Geliştirilen mimariler ve protein dizilimi sayısallaştırma yöntemleri 2727 proteinden oluşan kıyaslama veri kümesi üzerinde test edilmiştir. Elde edilen sonuçlar Naive Bayes, destek vektör makineleri (SVM), Adaboost ve Bagging makine öğrenme yöntemleri ile elde edilen sonuçlarla karşılaştırılmıştır. Protein metal bağlanma yeri tahmini için en iyi sonuçların evrişimsel sinir ağ mimarisi ile elde edildiği görülmektedir. Bu sonuç, aynı veri kümesi ile literatürde var olan diğer çalışmalardan daha iyi başarım elde edildiğini göstermektedir. Elde edilen bu sonuçlar kullanılarak, bir metal iyonunun koordinasyonunda hangi kalıntıların birlikte yer aldığına karar vermek için metal bağlanma yerlerinin geometrisi değerlendirilmiştir. Proteins fold by forming strong bonds with the metal ions in their environment and reach their three-dimensional structure. The three-dimensional structure of proteins shows which critical function it performs in the cell. Prediction of protein metal binding sites using protein sequence is important for predicting protein structure, functions, and drug discovery. Computational estimates using machine learning methods based on data from amino acid sequences are widely used in various bioinformatics fields. In this thesis, three different deep learning architectures are proposed for the prediction of metal binding status of Histidine (HIS) and Cysteine (CYS) amino acids in protein sequences. These architectures are built on convolutional neural network (CNN), long-short term memory (LSM) and gated recurrent unit (GRU) models, respectively. These architectures are developed using Keras with Tensorflow backend. Since these models cannot work directly on sequence data, digitization techniques based on PAM scoring matrix, protein compositions and binary representation methods have been applied to feed the relevant models. Developed architectures and protein sequence digitization methods have been tested on benchmark data set consisting of 2727 proteins. The results obtained were compared with the results obtained with Naïve Bayes, Support vector machines, Adaboost and Bagging machine learning methods. It seems that the best results for prediction of protein metal binding site are obtained with CNN architecture. This result shows that better performance was obtained with the same dataset than other studies in the literature. Using these results, the geometry of the metal binding sites was evaluated in order to decide which residues are involved in the coordination of a metal ion.Item Derin öğrenme teknikleri kullanılarak kemik kırığı tespiti ve sınıflandırması(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2021) Açıcı, Koray; Sümer, EmreProksimal femur kırıklarının özellikle yaşlı nüfusu etkileyen ciddi bir sağlık sorunu olduğu bilinmektedir. Önümüzdeki yıllarda artan nüfusla birlikte vaka sayısının ikiye katlanacağı tahmin edilmektedir. Femoral kırıkların teşhisi için düz frontal pelvik radyografiler (PXR'ler) düşük maliyetleri nedeniyle yaygın olarak kullanılmaktadır. Ne yazık ki, tüm kalça kırıklarının %2'sinin PXR ile teşhis edilemediği belirtilmektedir. Bu durum yanlış tanıya yol açmakta, iyileşme sürecini engellemekte, tedavi maliyetlerini artırmakta ve hastaların yaşam kalitelerini düşürmektedir. Bu nedenle, kanonik makine öğrenimi algoritmalarının ve derin öğrenme mimarilerinin kırık tespiti ve sınıflandırmasında kullanımı, doğru teşhis ve tedaviye yardımcı olmak için artmaktadır. Buradan yola çıkılarak, tez çalışması kapsamında femur boyun kırığı tespiti ve femur kırığı sınıflandırması çalışmaları gerçekleştirilmiştir. Femur boyun kırığı tespiti çalışmasında sıfırdan bir CNN mimarisi önerilerek tasarlanmış ve dengeli ve dengesiz iki veri kümesi üzerinde deneyler yapılmıştır. GA ve PSO üst-sezgisel optimizasyon algoritmaları kullanılarak, önerilen CNN mimarisinin evrişimsel katmanlarındaki filtre boyutları ve bu katmanlarda üretilen öznitelik haritası sayıları optimize edilmeye çalışılmış ve başarım ölçütleri üzerinden performans artışı sağlandığı ortaya konmuştur. Femur kırığı sınıflandırması çalışmasında ise hazır CNN mimarileri transfer öğrenme yöntemiyle mevcut probleme uyarlanarak deneyler yürütülmüş ve performansları karşılaştırılmıştır. Hazır CNN mimarilerinin evrişimsel katmalarında otomatik olarak üretilen öznitelikler kanonik makine öğrenme sınıflandırıcılarını beslemek için kullanılmıştır. Tespit ve sınıflandırma çalışmalarında elde edilen performanslara göre derin öğrenme mimarilerinin kanonik sınıflandırıcılara üstün geldiği gözlemlenmiştir. It is known that proximal femur fractures are a serious health problem affecting especially the elderly population. It is estimated that the number of cases will double in the next three decades with the increasing population. To diagnose femoral fractures plain frontal pelvic radiographs (PXRs) are widely used due to their low cost. Unfortunately, it was stated that 2% of all hip fractures could not be diagnosed by a PXR. This situation leads to misdiagnosis, hinders the recovery process, increases the treatment costs, and decreases the life quality of the patients. Therefore, the utilization of canonical machine learning algorithms and deep learning architectures in fracture detection and classification has increased to aid in accurate diagnosis and treatment. Starting from this point of view, within the scope of the thesis, femoral neck fracture detection and femur fracture classification studies were carried out. The femoral neck fracture detection study was designed by proposing a CNN architecture from scratch and the experiments were conducted on the balanced and the imbalanced data sets. Using the meta-heuristic optimization algorithms, the filter sizes in the convolutional layers of the proposed CNN architecture and the number of feature maps generated in these layers have been tried to be optimized and it has been revealed that performance increases are achieved through performance criteria. In the femur fracture classification study, the experiments were carried out by adapting the pretrained CNN architectures to the existing problem with the transfer learning method. Automatically generated features of the pretrained CNN architectures were used to feed canonical machine learning classifiers. According to the performances obtained in the detection and classification studies, it has been observed that deep learning architectures are superior to canonical classifiers.Item Derin öğrenme yaklaşımları ile meme kanseri tespiti ve sınıflandırması(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2025) Karaca Aydemir, Büşra KübraMeme kanseri, dünya çapında kadınlar arasında kanserle ilişkili ölümlerin başlıca nedenlerinden biridir. Erken teşhis ve doğru tanı, sağkalım oranlarını artırmak ve etkili bir tedavi planlamak açısından çok önemlidir. Mamografi, meme kanseri taramasında anormallikleri erken evrede tespit edebilen temel görüntüleme yöntemidir. Mamografik bulgular arasında kitleler, en yaygın ve tanı açısından en kritik lezyonlardır. Mamografi görüntüleri genellikle radyologlar tarafından manuel olarak değerlendirilmekte, ancak lezyon çeşitliliği, yoğun meme dokusu ve yüksek görüntü sayısı süreci zorlaştırmakta; değerlendirmeyi zaman alıcı ve yorucu hâle getirmektedir. Ayrıca, deneyim farklılıkları ve uzun incelemelere bağlı dikkat dağınıklığı tanı doğruluğunu olumsuz etkileyebilmektedir. Son yıllarda, özellikle derin öğrenmeye dayalı yapay zekâ uygulamaları, tıbbi görüntüleme tanı süreçlerinde önemli ilerlemeler sağlamıştır. Bu alanda öne çıkan You Only Look Once (YOLO) algoritması, gerçek zamanlı nesne tespiti ve sınıflandırma yeteneğiyle öne çıkmaktadır. Bu sayede, mamografi görüntülerinde anormalliklerin hızlı ve doğru şekilde belirlenmesine olanak sağlayarak klinik tanı süreçlerine destek olma potansiyeli taşımaktadır. Bu tez çalışmasında, mamografi görüntülerinde meme kitlelerini tespit ve sınıflandırmak amacıyla YOLO tabanlı bir derin öğrenme modeli geliştirilmiştir. Bu kapsamda, YOLOv5, YOLOv8 ve YOLOv9 (GELAN) mimarileri temel alınmış; bu modellere çeşitli dikkat modülleri ve evrişimsel bloklar entegre edilerek farklı model varyantları oluşturulmuştur. Modeller, CBIS-DDSM, VinDr-Mammo ve bu iki kümenin birleşimiyle oluşturulan veri setleri kullanılarak sıfırdan eğitilmiş, ardından INBreast veri kümesi üzerinde beş katlı çapraz doğrulama yöntemiyle ince ayar uygulanmıştır. Ayrıca, farklı veri artırma stratejilerinin model performansına etkisi değerlendirilmiştir. INBreast üzerinde en yüksek başarıyı gösteren model varyantları, klinik uygulanabilirliği test etmek amacıyla Başkent Üniversitesi Ankara Hastanesi’ne ait veri kümesiyle de ince ayara tabi tutulmuştur. CBIS-DDSM + VinDr-Mammo → INBreast senaryosunda GELAN-c mimarisine derinlemesine evrişim (DWConv) ve Evrişimli Blok Dikkat Modülü (CBAM) entegre edilerek geliştirilen model varyantı (GELAN-c + DWConv + CBAM), varsayılan veri artırma konfigürasyonu ile 0.878 mAP@0.5 skoruna ulaşmış ve çalışmadaki en yüksek performansı göstermiştir. CBIS-DDSM + VinDr-Mammo → Başkent senaryosunda ise, YOLOv5s mimarisine Verimli Çok-Ölçekli Dikkat (EMA) modülü entegre edilerek oluşturulan model varyantı (YOLOv5s + EMA), varsayılan + mixup veri artırma kombinasyonu ile 0.848 mAP@0.5 skoruna ulaşmıştır. Bu sonuçlar, geliştirilen YOLO tabanlı model varyantları hem literatür veri kümelerinde hem de gerçek klinik görüntülerde yüksek başarı sağladığını ve klinik karar destek sistemlerine entegre edilebilecek potansiyele sahip olduğunu göstermektedir. Breast cancer is one of the leading causes of cancer-related deaths among women worldwide. Early detection and accurate diagnosis are crucial for improving survival rates and planning effective treatment. Mammography is the primary imaging method for breast cancer screening, detecting abnormalities at an early stage. Among mammographic findings, masses are the most common and diagnostically significant lesions. Mammograms are often evaluated manually by radiologists; however, the diversity of lesions, dense breast tissue, and large image volumes make this process challenging, time-consuming, and labor-intensive. Furthermore, differences in experience levels and attention fatigue caused by prolonged examinations can negatively affect diagnostic accuracy. In recent years, artificial intelligence applications, particularly those based on deep learning, have made significant contributions to medical imaging diagnostics. The You Only Look Once (YOLO) algorithm, a leading approach in this field, stands out with its real-time object detection and classification capabilities. This allows for the rapid and accurate identification of abnormalities in mammograms, offering potential support to clinical diagnostic workflows. In this thesis, a YOLO-based deep learning model was developed to detect and classify breast masses in mammograms. The YOLOv5, YOLOv8, and YOLOv9 (GELAN) architectures were utilized, and various attention modules and convolutional blocks were integrated into these models to generate different model variants. These models were trained from scratch using CBIS-DDSM, VinDr-Mammo, and their combined dataset. Then, fine-tuning was performed on the INBreast dataset using five-fold cross-validation. Furthermore, the effects of different data augmentation strategies on model performance were analyzed. The best-performing model variants on the INBreast dataset were further fine-tuned using a dataset obtained from Başkent University Ankara Hospital to evaluate clinical applicability. In the CBIS-DDSM + VinDr-Mammo → INBreast scenario, the model variant (GELAN-c + DWConv + CBAM), which integrates depth-wise convolution (DWConv) and the Convolutional Block Attention Module (CBAM) into the GELAN-c architecture, achieved a mAP@0.5 score of 0.878 with the default data augmentation configuration, representing the highest performance in the study. In the CBIS-DDSM + VinDr-Mammo → Başkent scenario, the model variant (YOLOv5s + EMA) created by integrating the Efficient Multi-Scale Attention (EMA) module into the YOLOv5s architecture, achieved a mAP@0.5 score of 0.848 using the default + mixup augmentation strategy. These results demonstrate that the proposed YOLO-based model variants achieved high performance on both public datasets and real clinical images and show strong potential for integration into clinical decision support systems.Item Derin öğrenme yöntemleri ile akciğer grafilerinde patoloji sınıflandırılması(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2025) Oltu, BurcuAkciğerler, solunum sisteminin temel organları olup yapısal bozukluklar, enfeksiyonlar veya çevresel etkenler nedeniyle işlev kaybına uğrayabilmektedir. COVID-19, tüberküloz, pnömoni, pulmoner fibröz, atelektazi, kardiyomegali ve pnömotoraks gibi akciğer hastalıkları erken evrede teşhis edilmediğinde ölümcül sonuçlara yol açabilmektedir. Bu nedenle akciğer hastalıklarının erken ve doğru şekilde teşhis edilmesi büyük önem taşımaktadır. Akciğer grafileri, düşük maliyet ve hızlı uygulanabilirlik gibi avantajlarıyla bu amaçla yaygın olarak kullanılmaktadır. Ancak örtüşen anatomik yapılar, sınırlı uzman sayısı ve yüksek görüntü hacmi gibi etkenler, bu görüntülerin yorumlanmasını zorlaştırmakta, günlük yaklaşık %3-5 oranında hata yapılmasına yol açmaktadır. Bu doğrultuda akciğer grafilerinin yorumlanabilmesi için radyologlara yardımcı olacak otomatik ve güvenilir teşhis sistemlerine duyulan ihtiyaç gün geçtikçe artmaktadır. Bu tez çalışmasında akciğer grafilerinin yüksek performansla sınıflandırılması amacıyla uçtan uca bir derin öğrenme modeli geliştirilmiş ve bu modelin başarısını artıracak özgün kayıp fonksiyonlarını önerilmiştir. Modelin omurgası olarak önceden eğitilmiş DenseNet201 mimarisi kullanılmıştır. DenseNet201’den çıkarılan öznitelik haritalarından daha zengin uzamsal bilgiler elde etmek amacıyla evrişimsel uzun kısa süreli bellek (Convolutional Long Short-Term Memory (ConvLSTM)) katmanı, kanal bazında özniteliklerin vurgulanması için sıkma-bırakma bloğu (Squeeze and Excitation (SE)) ve uzun menzilli bağımlılıkları yakalayan görü dönüştürücüler (Vision Transformer (ViT)) modele entegre edilmiştir. Ayrıca, küresel ortalama havuzlama (Global Average Pooling (GAP)) katmanı ile sınıflandırma için önemli uzamsal bilgilerin korunması sağlanmıştır. Bu bileşenlerin kombinasyonu ile önerilen model, yüksek sınıflandırma performansı sunmuştur. Çalışmada ayrıca, sınıflandırma başarısında önemli etkisi olan kayıp fonksiyonları derinlemesine incelenmiştir. Standart fonksiyonlara ek olarak hibrit ve dinamik yapılarda fonksiyonlar tasarlanmış, sınıflandırma eğilimlerine karşı ceza terimi içeren özgün bir fonksiyon önerilmiştir. Önerilen kayıp fonksiyonlarının avantajlarını bir araya getirerek sınıflandırma performansını artıracak farklı topluluk yaklaşımları uygulanmıştır. Bu fonksiyonların performansları sistematik olarak analiz edilmiş ve farklı modellerle de test edilerek modelden bağımsız başarı sağladığı gösterilmiştir. Başkent Üniversitesi Ankara Hastanesi Radyoloji Bölümü'nden elde edilen klinik veriler ile açık erişimli veri kümeleri birleştirilerek 7, 8, 9, 10, 12, 14 ve 15 sınıflı alt veri kümeleri oluşturulmuş ve her bir alt kümede önerilen model ve kayıp fonksiyonları detaylı şekilde test edilmiştir. Böylece hem veri kümesinden hem de sınıf sayısından bağımsız olarak modelin ve kayıp fonksiyonunun başarısı ortaya konmuştur. Elde edilen deneysel sonuçlar, önerilen yöntemin literatürdeki yaklaşımların çoğunu geride bıraktığını ve doğruluk, F1-skoru, AUC gibi performans metriklerinde yüksek başarı sergilediğini ortaya koymaktadır. Ayrıca modelin farklı senaryolarda tutarlı ve yüksek performans sergilemesi, güçlü bir genelleme yeteneğine sahip olduğunu kanıtlamaktadır. Sonuç olarak, bu tez kapsamında, akciğer grafilerinin otomatik olarak sınıflandırılmasını sağlayan yüksek performanslı ve tekrarlanabilir sonuçlar üreten yenilikçi bir model ve özgün kayıp fonksiyonları geliştirilmiştir. The lungs are the primary organs of the respiratory system and can lose functionality due to structural disorders, infections, or environmental factors. Lung diseases such as COVID-19, tuberculosis, pneumonia, pulmonary fibrosis, atelectasis, cardiomegaly, and pneumothorax may lead to fatal outcomes if not diagnosed at an early stage. Therefore, early and accurate diagnosis of lung diseases is crucial. Chest radiographs (CXRs) are widely used for this purpose due to their advantages, such as low cost, quick applicability, and low radiation dose. However, factors like overlapping anatomical structures, limited specialists, and high image volume make interpreting CXRs challenging, resulting in a daily error rate of 3–5%. Thus, the demand for automated and reliable diagnostic systems to assist radiologists in interpreting CXRs is increasing. In this thesis, an end-to-end deep learning model was developed for high-performance classification of CXRs, and novel loss functions were proposed to enhance the model’s performance. The pre-trained DenseNet201 architecture was used as the backbone. A Convolutional Long Short-Term Memory (ConvLSTM) layer to obtain richer spatial and temporal information from the feature maps obtained from DenseNet201, a Squeeze and Excitation (SE) block to emphasize channel-wise features, and Vision Transformers (ViT) to capture long-range dependencies were integrated into the model. In addition, a Global Average Pooling (GAP) layer was used to preserve important spatial information for classification. The combination of these components enabled high classification performance. The study also examined the often-overlooked role of loss functions in classification performance. Beyond standard functions, hybrid and dynamic structures were designed. A custom function with a penalty term was proposed to improve sensitivity to misclassification. Ensemble approaches combining the strengths of proposed loss functions were implemented. These loss functions were systematically analyzed and tested with various models, demonstrating architecture-independent success. To evaluate the performance and generalization ability of the proposed model and loss functions, a comprehensive dataset was created by combining clinical images from Başkent University Ankara Hospital with open-access datasets. This dataset was divided into subsets containing 7, 8, 9, 10, 12, 14, and 15 classes, and extensive testing was conducted on each subset. Results showed that the proposed method outperforms many existing approaches in the literature, achieving superior accuracy, F1-score, and AUC. The model’s consistent performance in various scenarios demonstrated strong generalization. In conclusion, this thesis presents a novel deep learning model and original loss functions that produce high-performance and reproducible results for the automatic classification of CXRsItem Elektrik güç sistemlerinde harmonik analizi algoritmaları geliştirme(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2015) Germeç, Kadir Egemen; Erdem, HamitElektrik güç sistemlerinde, enerji kalitesinin artırılması ve kayıpların azaltılması açısından harmonik bileĢenlerin hızlı ve doğru olarak belirlenmesi önem taĢımaktadır. Bu amaçla yapılan tez çalıĢmasında, elektrik güç sistemlerinde zamanla değiĢen sinyaller için, ADALINE ( Uyarlamalı Doğrusal Eleman ) tabanlı algoritmalar kullanılarak, temel frekans tespiti ile harmonik ve ara harmonik bileĢenlerin genlik ve faz açılarının kestirimini kapsayan çok iĢlevli bir sistem yapısı geliĢtirilmiĢtir. Bu algoritmalardan FADALINE (Fourier ADALINE) tabanlı algoritmalar sadece harmonik ve ara harmonik bileĢenlerini kestirirken, geliĢtirilen GADALINE (GeniĢletilmiĢ ADALINE) algoritması ile sistemde olası temel frekans değiĢiklikleri de kestirebilmektedir. ÇalıĢmada, geliĢtirilen bu algoritmaların matematiksel çözümlemesi yapılmıĢ ve baĢarımı, benzetim çalıĢmalarıyla ara harmonikli ve temel frekansı değiĢen gürültü içeren sinyaller uygulanarak denenmiĢtir. MATLAB programı ile benzetim ortamında yapılan bu çalıĢmalar sistemin, akım ve gerilim dalga Ģekillerinin harmonik analizinde kullanıĢlı, etkin sonuçlar verdiğini göstermektedir. Elde edilen çıktılar, harmonik ve ara-harmonik bileĢenlerin genlik ve faz açılarının hangi değerlere sahip oldukları bilgisine ek olarak, bu bileĢenlerin hangi zaman aralığında ve ne oranda etkin oldukları bilgisini de sunmaktadır. Böylece, zamanla değiĢen harmonik ve ara harmoniklerin bireysel etkilerinin, zaman-harmonik uzayında 3 boyutlu olarak izlenebilmesine olanak sağlanarak analiz yönteminin etkinliği artırılmaktadır. Ayrıca sistem, parametrelerinin dahil edildiği ortama uygun olarak seçilebilmesinden dolayı, uyarlanabilir özellik taĢımaktadır. In Electrical Power Systems, a rapid and accurate estimation of harmonic components in terms of reducing losses and increasing the quality of energy is an important concern. In this study, a multifunctional system structure which includes fundamental frequency detection, phase angle and amplitude estimation of harmonic and inter harmonic components is developed by using ADALINE (Adaptive Linear Element) based algorithms for time varying signals. Among these algorithms, FADALINE (Fourier ADALINE) estimates only harmonic and inter harmonic components, whereas EADALINE (Extended ADALINE) estimates probable values of the fundamental frequency variances. In this study, these algorithms are analyzed mathematically and the performance of these improved algorithms is tested in simulations by applying noisy signals including variable fundamental frequency and inter harmonic components. The results of the experimental studies which are obtained by using MATLAB simulation environment demonstrate that this system is convenient and effective for the harmonic analysis of the current and voltage waveforms. In addition to the information of amplitude and phase angle values of harmonic and inter harmonic components, the results also provide information regarding in which time interval and at what ratio these components are efficient. Thus, the individual effects of this time-variant harmonic and inter harmonic components can be instantly detected in the 3D time-harmonic space, then the efficiency of the evaluation method can be increased. Moreover, the system is adaptive because its parameters can be chosen appropriate to the environment where it was integrated.Item Elektrik şebekelerinde dağıtık üretim tabanlı genişleme tasarımı için yeni modeller(Başkent Üniversitesi Fen Bilimler Enstitüsü, 2022) Yurtsever, AyşenurTeknolojik gelişmeler, dünya nüfusunun artması ve elektrifikasyon çalışmalarına bağlı olarak elektrik enerjisine olan talep artmaktadır. Artan talebin kesintisiz bir şekilde karşılanması elektrik dağıtımından sorumlu kurumların karşılaştığı temel zorluklardan biridir. Bu zorlukla başa çıkabilmek için mevcut şebekenin uygun yatırım planıyla düzenli olarak genişletilmesi ve kapasitesinin artırılması gerekir. Burada en uygun yatırım planının bulunması stratejik bir tasarım problemi olarak karşımıza çıkmaktadır. Tasarlanan dağıtım şebekelerinin artan talebi karşılamasının yanı sıra güvenilir, maliyet etkin ve temiz enerji kullanan şebekeler olması da beklenmektedir. Bu amaçlara ulaşabilmek için şebekenin dağıtık üretim (DÜ) yapısında planlanması son yıllarda ön plana çıkmaktadır. DÜ, güneş, rüzgâr türbinleri, hidroelektrik santraller, jeotermal enerji ve kombine ısı ve güç sistemleri gibi, kullanılacağı yerde veya yakınında elektrik üreten bir sistemi tanımlar. Bu tez çalışması kapsamında, dağıtık üretim içeren elektrik dağıtım şebekesi genişleme problemi (DŞGP_DÜ) ele alınmıştır. DŞGP_DÜ, temelde mevcut şebekenin güçlendirilmesini ya da hat, trafo merkezi, dağıtık üretim kaynağı gibi yeni şebeke bileşenlerinin eklenmesini içerir. Elektrik dağıtım şebekelerinde genellikle radyal yapılar kullanılmaktadır. Çok kullanılan bir şebeke türüdür ve şekli bir ağacın dallarına benzediği için bu tür şebekeye dallı şebeke de denilmektedir. Bu çalışmada, DŞGP_DÜ probleminin çok dönemli genişleme planını yapmak üzere aşağıda tanımlı ilgili alanlar için üç adet model önerilmiştir: i) Yatırım, bakım, üretim ve emisyon maliyetlerinden oluşan toplam maliyetin en küçüklendiği en iyi şebeke tasarımı için karma-tamsayılı yeni bir matematiksel model önerilmiştir. Modelde radyal yapıyı oluşturacak gerekli kısıt yayılan ağaç alt tur eleme kısıtlarına dayalı olarak geliştirilmiştir. Deneysel hesaplama analizi sonucunda alan yazındaki mevcut kısıt yapısı yerine bu tezde önerilen radyallik kısıtlarını içeren yeni modelin ilgili problemin çözüm zamanını azalttığı gösterilmiştir. ii) Bu modelin bir uzantısı olarak tüketicilerin kullandığı elektriğin yenilenebilir kaynaklardan üretildiğini garanti eden, yenilenebilir enerji kaynak garanti (YEK-G) sistemini dikkate alan DŞGP_DÜ için yeni bir matematiksel model geliştirilmiştir. Bu model ile yenilenebilir enerji kullanmak isteyen müşterilerin taleplerini karşılamayı garanti eden en uygun genişleme planının yapılması amaçlanmaktadır. iii) Son olarak, radyal şebekelerin güvenilirliği düşük olduğundan tasarlanan şebekenin güvenilirliğine odaklanılmıştır. Elektrik dağıtım şebekelerinde güvenilirlik, müşteriye kesintisiz hizmet verebilme yeteneği olarak tanımlanmakta olup sürdürülebilir hizmetin sağlanması için önemlidir. Kesinti maliyetleri ve kesintinin etkisi düşünüldüğünde, tüketici özelinde, farklı güvenilirlik düzeylerinin dikkate alınması gerekmektedir. Örneğin hastanelerin bulunduğu bir bölgeye hizmet veren trafonun güvenilirliğinin sadece yerleşim bölgesine hizmet veren bir trafoya göre daha yüksek olması beklenmektedir. Bu nedenle bu tezde önerilen üçüncü model, her bir tüketicinin gereksinimiyle bağlantılı bir güvenilirlik düzeyinde hizmet almasını garanti etmektedir. Dolayısıyla dağıtık üretimi ve güvenilirliği dikkate alan, şebeke genişleme problemi için doğrusal olmayan karma tamsayılı matematiksel bir model geliştirilmiştir. Önerilen matematiksel modeller 14 düğümlü örnek bir test şebekesi için uygulanmış ve elde edilen şebeke genişleme tasarımı üç dönem için verilmiştir. Ayrıca, modellerin hesaplamalı analiz sonuçları 9, 14, 24, 30 ve 40 düğümlü test problemleri üzerinde gösterilmiştir. Geliştirilen modeller ile makul sürelerde en iyi sonuca ulaşıldığı görülmüştür. Bu tez kapsamında geliştirilen matematiksel modeller ile yenilenebilir enerji kaynaklarının entegrasyonunu dikkate alan en iyi dağıtım şebekesi genişleme tasarımının oluşturulması amaçlanmıştır. The demand for electrical energy is increasing due to technological developments, the increase in the world population, and electrification studies. Meeting the increasing demand without interruption is one of the main challenges faced by institutions responsible for electricity distribution. In order to cope with this challenge, it is necessary to regularly expand the current network with an appropriate investment plan and increase its capacity. Finding the most appropriate investment plan is a strategic design problem. The designed distribution networks are expected to be reliable, cost-effective, and clean energy-using networks in addition to meeting the increasing demand. In order to achieve these goals, planning the network in a distributed generation (DG) structure has become common in recent years. DG refers to a system that generates electricity at or near the place it will be used such as solar panels, wind turbines, hydroelectric power plants, geothermal energy, and combined heat and power systems. Within the scope of this thesis study, the expansion problem of electric distribution network containing distributed generation (DNEP_DG) is addressed. DNEP_DG basically involves strengthening the current network or adding new network components such as line, substation, and distributed generation source. Radial structures are often used in electric distribution networks. It is a widely used type of network, and it is also called a branched network since its shape resembles the branches of a tree. In this study, three models were proposed for the related fields defined below to make a multi-period expansion plan of the DNEP_DG problem: i) A new mixed-integer mathematical model was proposed for the best network design in which the total cost consisting of investment, maintenance, production, and emission costs is minimized. The necessary constraint that would form the radial structure in the model was developed based on the spanning tree subtour elimination constraints. As a result of the experimental calculation analysis, it was shown that the new model containing the radiality constraints proposed in this thesis instead of the existing constraint structure in the literature shortened the solution time of the related problem. ii) A new mathematical model was developed for DNEP_DG as an extension of this model, which considers the renewable energy source guarantee system (RES-G) and guarantees that the electricity used by consumers is generated from renewable sources. It was aimed to make the most appropriate expansion plan with this model that guarantees to meet the demands of customers who want to use renewable energy. iii) Lastly, the reliability of the designed network was focused on since the reliability of radial networks was low. Reliability in electric distribution networks is defined as the ability to provide uninterrupted service to the customer and is important for ensuring sustainable service. Considering the costs and impact of interruption, it is necessary to consider different levels of reliability for the consumer. For example, the reliability of a substation serving an area where hospitals are located is expected to be higher than that of a substation serving only a residential area. Therefore, the third model proposed in this thesis guarantees that each consumer receives services at a level of reliability in accordance with their needs. Therefore, a nonlinear mixed integer mathematical model that considers distributed generation and reliability was developed for the network expansion problem. The proposed mathematical models were applied for a sample 14-node test network, and the resulting network expansion design was given for three periods. In addition, the results of the computational analysis of the models were shown on 9, 14, 24, 30 and 40 node test problems. It was seen that the best result was achieved in reasonable times with the developed models. With the mathematical models developed within the scope of this thesis, it was aimed to create the best distribution network expansion design that considers the integration of renewable energy sources.Item Encryption and multi-share-based seganography methods on images with low spectral resolution(Başkent Üniversitesi Fen Bilimler Enstitüsü, 2023) Çiftçi, Efe; Sumer, EmreSteganography is the name given to secret communication methods that third parties cannot detect. This secret communication is performed by hiding the secret information to be transmitted on a carrier medium so that the carrier does not raise any suspicions. Steganography science, of which many examples can be presented from the past to the present, has gained new application areas with the development of digital technologies. This thesis aims to develop new steganography methods that hide secret messages in plain text format on binary images, which have a lower spectral resolution when compared to color or grayscale images, used in digital devices as carriers. It has been observed that all implemented methods can successfully hide considerable lengths of plaintext payloads on binary images generated by both thresholding and halftoning methods, and this finding has been reinforced with conducted objective and subjective evaluations. Steganografi, üçüncü şahıslar tarafından tespit edilmeyecek şekilde gizli iletişim kurma yöntemlerine verilen isimdir. Bu gizli iletişim, iletilmek istenen gizli bilginin şüphe uyandırmayacak bir şekilde bir taşıyıcı ortamın üzerine gizlenmesiyle gerçekleşir. Geçmişten günümüze bir çok örneği sunulabilen steganografi bilimi, dijital teknolojilerin gelişmesiyle yeni uygulama alanları kazanmıştır. Bu tezin amacı, düz metin biçimindeki gizli mesajları, taşıyıcı olarak dijital cihazlarda kullanılan renkli veya gri tonlu görüntülere kıyasla daha düşük spektral çözünürlüğe sahip ikili görüntüler üzerine gizleyecek olan yeni steganografi yöntemlerinin geliştirilmesidir. Geliştirilen tüm yöntemlerin hem eşikleme, hem de yarıtonlama yöntemleriyle üretilen ikili görüntülere büyük uzunluklarda düz metin türünde veriyi başarıyla gizleyebildikleri görülmüş ve yapılan objektif ile subjektif değerlendirmelerle de bu bulgu pekiştirilmiştir.Item Evde sağlık hizmetleri çizelgeleme ve rotalama problemi: Matematiksel modeller ve meta-sezgisel algoritmalar(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2021) Dengiz, Asiye Özge; Atalay, Kumru DidemDünyayı etkileyen COVID-19 salgını, sağlık sektörü başta olmak üzere tüm sektörler üzerinde birçok sorun yaratmıştır. Gelişmişlik düzeylerine bakılmaksızın tüm ülkeler, salgının etkilerini azaltmanın yanı sıra kronik hastalığı veya bakım gerektiren hastalığı olan vatandaşları için güvenli, sürdürülebilir ve uygulanabilir çözüm arayışına girmiştir. Ortaya çıkan bu ihtiyacı karşılayabilecek nitelikte bir hizmet olan evde sağlık hizmeti (ESH), kişilerin acil olmayan sağlık problemleri için sağlık personelleri tarafından evlerinde ziyaret edilmelerini sağlayan bir sağlık hizmeti olarak tanımlanabilir. ESH'de, bu hizmeti veren ekip ve hizmeti talep eden hastalar olmak üzere iki önemli taraf bulunmaktadır. Özellikle Türkiye gibi sosyal devletlerde, sağlık hizmetlerinin finansal yükü devlet tarafından karşılanmaktadır. Ayrıca, ülkemizde ESH’nin, artan bir şekilde talep görmesi, birçok hastane tarafından verilmesi ve yasal düzenlemelere rağmen hizmetin planlanması aşamasında ortaya çıkan problemler, yeni yaklaşımların geliştirilmesini gerektirmektedir. Bu nedenle ESH’nin verimli bir şekilde planlanması ve sorunsuz şekilde hastalara ulaştırılabilmesi, her iki tarafın tatmin edilmesini gerektiren önemli bir çizelgeleme ve rotalama problemidir. Bu nedenle, ele alınan sistemde, hastane tarafından sağlanan hizmetler, aynı hastanın gün içinde birden fazla ziyaret edilmesinin gerekmesi ve kaynakların sınırlı olması rotaların belirlenmesi problemini, kaynaklardaki Çok Turlu Araç Rotalama Problemi (ÇTARP)'nin özel bir hali olarak ele alınmasını gerektirmiştir. Bu tez çalışması, Tükiye'deki ESH sistemini bu kapsamda tanımlayarak, ele alan ve rotalama problemine çözüm bulmayı amaçlayan ilk çalışmadır. Gerçek hayattaki sistemi anlamak ve gerçek hayat verileri ile çalışmak için, Ankara’daki Gölbaşı Devlet Hastanesi'nin ESH birimi pilot hastane olarak seçilmiştir. ESHÇRP için geliştirilen modelin kısıtları, varsayımları ve amaç fonksiyonu, Türkiye’deki ESH sistemine ve pilot hastanedeki işleyişe özel olarak belirlenmiştir. Bu tezde, hizmet veren ekip sayısının tek/çok ekip olması ve önerilen modeldeki yardımcı karar değişkeninin düğüm/ayrıt tabanlı tanımlanmasına göre dört ayrı, özgün matematiksel model geliştirilmiştir. Ayrıca pilot hastaneden alınan bilgilere göre üretilen test problemleri ile model performansları incelenmiştir. Matematiksel modellerin sınırlı kaldığı büyük boyutlu test problemlerinin çözümü için birinci algoritma Yerel Arama (YA) ikinci algoritma tavlama benzetimi (B-TB) algoritmasına dayalıdır. Üçüncü algoritmada başlangıç çözümü Açgözlü Rassallaştırılmış Uyarlamalı Arama Prosedürü (ARUAP) göre üretilmiş ve algoritma ARUAP-TB olarak adlandırılmıştır. Son algoritma ARUAP-TB-ısıtma olarak kodlanmış ve tez kapsamında toplamda dört meta-sezgisel algoritma geliştirilmiştir. Algoritma performansları belirlenen performans kriterlerine göre istatistiksel analizlerle karşılaştırılmıştır. Sayısal analiz sonuçlarına göre, matematiksel modellerin ancak küçük boyutlu test problemleri için çözümler bulabildiği, hasta sayısının 40 ve daha büyük olduğu test problemleri için önerilen meta-sezgisel algoritmalar ile uygun çözümlerin makul sürelerde elde edildiği görülmüştür. Meta-sezgisel algoritmalar arasından ARUAP-TB algoritması çözüm kalitesi açısından; YA algoritması ise çözüm süresi açısından daha iyi bir performans göstermiştir. Önerilen yaklaşımlar ile elde edilen çözümlere sistematik ve bilimsel bir şekilde çözüm aramanın yanı sıra hastane kaynaklarının verimli bir şekilde kullanılarak hastalara kaliteli hizmet verilmesi amaçlanmıştır. The COVID-19 pandemic, which affects the world, has created many problems in every sector, especially in the health sector. Regardless of their level of development, all countries have searched for safe, sustainable, and viable solutions for their citizens with chronic diseases or diseases that require care, as well as trying to reduce the effects of the epidemic. Home health care (HHC), a service that can meet this emerging need, can be defined as a health service that allows people to be visited at home by healthcare personnel for non-emergency health problems. There are two important parties in the HHC, the healthcare personnel providing this service and the patients requesting the service. Especially in social states like Turkey, the majority of the financial burden of health services is covered by the state. For this reason, efficient planning of services and delivery to patients without any issues is an important problem that needs to grant satisfaction of both parties. In Turkey, the increasing demand and legal regulations for HHC has created a need to develop new approaches for the problems that arise during the planning of the service, as it is delivered by many hospitals. In the system under consideration, the services provided by the hospital, the need to visit the same patient more than once during the day, and determining the routes to provide these services with limited resources required the problem to be considered as a special case of the Multi-Trip Vehicle Routing Problem (MT-VRP) in the literature. This thesis is the first study that aims to find a solution to the routing problem by defining the HHC system in Turkey in this context. To understand the real-life system and work with real-life data, the HHC unit of Gölbaşı State Hospital in Ankara is chosen as the pilot hospital. The constraints, assumptions, and objective function of the model developed for the HHCRSP have been determined specifically for the HHC system in Turkey and the operation in the pilot hospital. In this thesis, four different, unique mathematical models were developed according to the number of serving teams being single or multiple and the node/edge based definition of the auxiliary decision variables in the proposed model. In addition, the model performances are analyzed with test problems produced according to the information received from the pilot hospital. For solving large-scale test problems where mathematical models are unable to provide solutions in practical time, four meta-heuristic algorithms are developed within the scope of the thesis. The first algorithm is based on Local Search (LS) and the second algorithm is based on simulated annealing (B-SA). In the third algorithm, the initial solution is generated according to the Greedy Randomized Adaptive Search Procedure (GRASP) and the algorithm is named GRASP-SA. The last algorithm was coded as GRASP-SA-heating. Algorithm performances are compared with statistical analysis according to the determined performance criteria. According to the numerical analysis results, it is seen that mathematical models can only find solutions for small-sized test problems, and suitable solutions are obtained in reasonable time with the proposed meta-heuristic algorithms for test problems with 40 or more patients. Among the meta-heuristic algorithms, the GRASP-SA algorithm showed better performance in terms of solution quality. The LS algorithm, on the other hand, performed better in terms of solution time. The aim of the proposed models is to provide quality service to patients by using hospital resources efficiently in addition to provide a systematic and scientific method to seek solutions for the HHC planning problem.Item Experiment Retrieval in Genomic Databases(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2019) Dede Şener, Duygu; Oğul, HasanGenomic data can be found in different formats such as experimental measurements, sequences, networks. Due to the rapid growth of such data in genomic repositories, retrieving relevant experiments has become an important issue to be addressed by researchers. To search an experiment through the databases, users generally use textual meta-data such as organism name, description, author, but this type of search is insufficient to represent the overall content of the experiment. Content-based search strategy has become an alternative solution for retrieving relevant experiments from huge data collections. This thesis study aims to develop retrieval models for different data types to find relevant experiments in genomic databases. The study has two main parts: time-series experiment retrieval framework and whole-metagenome sequencing sample retrieval framework. In the first part, different fingerprinting techniques and comparison metrics were used to retrieve relevant time-series experiments. The originality of this part consists in its attempt for taking gene expression profiles over the entire time points as a query and retrieving relevant samples from the data repository. The second part consists of developing a content-based retrieval framework for whole-metagenome sequencing samples. The framework involves different fingerprinting, feature selection methods and similarity measurements for a given data set. The main contribution of the study is extracting fingerprints based on two text mining methods. The experimental results showed that the proposed models have been successful in finding relevant experiments for genomic data in different formats. Experimental results also encourage the use of the proposed models in current database implementations. Genomik veri; deneysel ölçüm, sekans verileri, ağ yapıları gibi farklı formatlarda saklanmaktadır. Genomik veri tabanlarında saklanan bu tür verilerin son yıllardaki hızlı artışı, deneylerin geri getirimi konusundaki ihtiyaçları gündeme getirmektedir. Kullanıcılar, veri tabanında bir deneyi ararken genellikle metin-tabanlı arama tekniğini kullanmaktadırlar. Fakat bu teknik, deney içeriğini temsil etmede yetersiz kaldığı için yeni yöntemlere ihtiyaç duyulmaktadır. Bu ihtiyaç doğrultusunda, içerik tabanlı arama yöntemleri benzer deneylerin geri getiriminde kullanılan alternatif yöntem olmuştur. Bu tez, farklı türlerde olan genomik verilerin veritabanlarında aranabilmesini sağlayan geri getirim modellerinin tasarımını amaçlayan bir çalışmadır. Çalışma, zaman serisi deney geri getirimi, bütün metagenom sekanslama örneklemlerinin geri getirimi olmak üzere iki temel kısımdan oluşmaktadır. Birinci kısım, zaman serisi deneylerin geri getirimi için farklı imza yöntemlerinin ve uygun benzerlik metriklerinin uygulanmasını içermektedir. Bu çalışma zaman serisi deneyinin tümünü sorgu olarak alan ve arama yapan ilk çalışma olma özelliğini taşımaktadır. İkinci kısımda ise, tüm metagenom sekanslama deneylerinin geri getirimi için farklı imza yöntemlerini, özellik seçim algoritmalarını ve benzerlik metriklerini içeren bir içerik tabanlı arama altyapısı geliştirilmiştir. Çalışmanın temel katkısı, deney imzalarını oluşturmada iki farklı veri madenciliği yönteminin kullanılmasıdır. Deneysel sonuçlar, geliştirilen modellerin benzer deneyleri bulmada başarılı olduklarını göstermektedir. Ayrıca, sonuçlar geliştirilen bu modellerin mevcut veri tabanı uygulamalarında kullanımları konusunda umut vaat etmektedir.Item Faz değiştiren malzemelerin parabolik güneş kollektörlerine entegrasyonu ve etkileri(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2024) Gülden, Adıyaman; Levent, ÇolakBu tez çalışmasında, parabolik oluk kollektörler için kullanılabilecek kaviteli, faz değiştiren malzemeli ve yalıtımlı yeni bir güneş alıcısı tasarlanmıştır. Çalışmanın ilk aşamasında, bir kollektör sisteminin genel verimliliğini ilk ölçüde etkileyen optik verimlilik üzerine çalışılmıştır. Optik verimliliği etkileyen en önemli parametre, güneş ışınımının yoğunlaştığı alıcı tarafından emilen net ısı miktarıdır. Bu bağlamda, optimizasyon parametreleri olarak üç farklı geometri (üçgen, dikdörtgen ve çokgen), üç farklı açıklık genişliği ve yüksekliği ve kavite alıcısının parabolik yansıtıcı yüzeye ilişkin üç farklı konumu alınmıştır. Bu parametrelerin etkilerini değerlendirmek ve aynı zamanda alıcı tarafından absorbe edilen radyasyon miktarı üzerindeki etkilerini incelemek için bir deney tasarımı yaklaşımı kapsamında Yanıt Yüzey Metodu kullanılmıştır. Optik analiz için, bu parametrelerin etkilerini araştırmak üzere Monte Carlo Işın İzleme yöntemiyle birlikte açık kaynaklı sayısal ışın izleme yazılımı SolTrace kullanılmıştır. Sonuçlar, optimum boşluk geometrisinin çokgen olduğunu ve boşluk derinliğinin ve açıklığının her ikisinin de 0,05 m'ye eşit olduğunu göstermektedir. Ayrıca en etkili parametrenin alıcının konumu olduğu ve optimum konumun parabolik yoğunlaştırıcının odak noktası olduğu bulunmuştur. Optimum boşluklu alıcı tasarımı için sistemin optik verimliliği %81,05 olarak bulunmuştur. Yeni alıcı tasarımında, yeni modelin Hesaplamalı Akışkanlar Dinamiği (HAD) ile doğrulama çalışmaları yapılmıştır. Yeni alıcı tasarımında, ilk olarak yeni modelin Hesaplamalı Akışkanlar Dinamiği ile doğrulama çalışmaları yapılmıştır. Bu kapsamda literatürden iki aşamalı doğrulama yapılmıştır. İlk olarak borulu bir güneş alıcısında unifor olmayan ışınım haritası entegre edilerek ısıl analizler deneysel bir çalışma doğrulanmıştır. Daha sonra Faz Değiştiren Malzeme (FDM) erime analizleri literatürdeki deneysel bir çalışma ile doğrulanmıştır. Doğrulama çalışmalarından sonra, FDM entegreli, kendinden yalıtımlıi kaviteli alıcı modellenmiş ve HAD analizleri yapılarak sonuçlar değerlendirilmiştir. FDM olarak erime ve donma sıcaklıkları sırasıyla 130 ve 120°C olan yüksek yoğunluklu polietilen (YYPE) kullanılmıştır. HAD sonuçlarına göre, FDM 13.dakikada erimeye başlamıştır. Tamamen erime süresi 31.dakikadır. Buna FDM depolama süresi de denilebilir. FDM tamamen eriyene kadar geçen sürede suyun çıkış sıcaklığı 437,52K olmuştur. Bu aşamadan sonra, güneş ışınımının kesildiği durum için kavite duvarlarındaki ışınım haritası kaldırılmış olup analizler yine zamana bağlı devam etmiştir. Bu analizlerde görülmüştür ki FDM 5.dakikadan itibaren katılaşmaya başlayıp 21. dakikada tamamen katı haldedir. FDM entegreli kendinden yalıtımlı kavitel igüneş alıcı, aynı sınır koşullarında FDM entegresiz yalıtım olmayan kaviteli alıcı ile karşılaştırılmıştır. FDMnin katılaşma süresince (16 dakika) su çıkış sıcaklığındaki dalgalanma yalnızca 17,5°C iken FDM entegresiz alıcıda bu değer 58°C olmuştur. Güneş alıcısına FDM entegresi özellikle gün içinde bulut geçişleri sırasında dakika boyunca düşük su çıkış sıcaklığı dalgalanmaları ile sistemin daha stabil çalışmasına olanak sağlamıştır. Ayrıca güneşin tamamen kesildiği akşam saatlerinde de FDM entegreli alıcıdan bir süre daha sıcak su veya buhar eldesinin devam edebileceğini göstermiştir. In this thesis, a new solar receiver with cavity, phase change material and insulation that can be used for parabolic trough collectors has been designed. In the first stage of the study, optical efficiency was studied, which primarily affects the overall efficiency of a collector system. The most important parameter affecting optical efficiency is the net amount of heat absorbed by the receiver where solar radiation is concentrated. In this context, three different geometries (triangle, rectangle and polygon), three different aperture width and height, and three different positions of the cavity receiver relative to the parabolic reflecting surface were taken as optimization parameters. The Response Surface Method was used within a design-of-experiment approach to evaluate the effects of these parameters and also to examine their impact on the radiative heat rate absorbed by the receiver. For optical analysis open-source numerical ray-tracing software SolTrace, accompanied with the Monte Carlo Ray Tracing method, was used to investigate the effects of these parameters. The results showed that the optimum cavity geometry was polygonal and the cavity depth and span are both equal to 0.05m. Moreover, it is found that the most effective parameter is the position of the cavity receiver and the optimum position was at the focal line of the parabolic concentrator. For the optimum cavity receiver design, the optical efficiency of the system was found to be 81.05%. In the new receiver design, verification studies of the new model were carried out with Computational Fluid Dynamics (CFD). In this context, two-stage validation was performed from the literature. Firstly, the non-uniform radiation map was integrated in a tubular solar receiver and thermal analyses were verified with an experimental study. Then, the Phase Change Material (PCM) melting analyses were verified with an experimental study in the literature. After the validation studies, the PCM integrated, self-insulating cavity receiver was modeled and the results were evaluated by performing CFD analyses. High density polyethylene (HDPE) with melting and freezing temperatures of 130 and 120°C, respectively, was used as PCM. According to the CFD results, PCM started to melt in the 13th minute. The complete melting time was 31st minute. This can also be called PCM storage time. The exit temperature of the water was 437.52K during the period until PCM was completely melted. After this stage, the radiation map on the cavity walls was removed for the case where solar radiation was cut off and the analyses continued again depending on time. In these analyses, it was seen that FDM started to solidify from the 5th minute and was completely solid at the 21st minute. FDM integrated self-insulating cavity solar receiver was compared with FDM integrated non-insulating cavity receiver under the same boundary conditions. While the fluctuation in water outlet temperature was only 17.5°C during the solidification period of FDM (16 minutes), this value was 58°C in the receiver without FDM integration. FDM integration to the solar receiver allowed the system to work more stably, especially during cloud transitions during the day, with low water outlet temperature fluctuations for minutes. It was also shown that hot water or steam could continue to be obtained from the FDM integrated receiver for a while longer in the evening hours when the sun completely stopped.Item Francis türbinleri için bir vorteks önleyici bileşen tasarımı ve türbin performansının incelenmesi(Başkent Üniversitesi Fen Bilimler Enstitüsü, 2022) Sermenci, Deniz Sarper; Yavuz, TahirBu tez çalışması kapsamında, Francis türbinlerinin emme borusunda meydana gelen ani basınç dalgalanmaları ve buna bağlı oluşabilen vorteks halatı olayının önüne geçebilmek adına yeni bir bileşen tasarlanmıştır. Çalışma kapsamında performans analizlerinin gerçekleştirilmesinde Hesaplamalı Akışkanlar Dinamiği analizleri kullanılmış, kullanılan model daha önce bir çalışmada elde edilen deneysel verilerle doğrulanmıştır. Vorteks Önleyici Bileşen kademe sayısı, Vorteks Önleyici Bileşen yüksekliği ve ayar kanatları açısı parametreleri seçilerek bir optimizasyon çalışması gerçekleştirilmiştir. Parametreler arası doğrusal ilişki olmaması ve deney sayısının azlığı sebebiyle Box-Behnken deney tasarımı metodu ile Hesaplamalı Akışkanlar Dinamiği analizleri eş zamanlı yürütülmüş ve çalışmanın sonucunda regresyon denklemi elde edilmiştir. Buna göre, türbin performansına en çok etki eden parametrenin ayar kanatları açısı olduğu, sonraki etkin parametrenin ise ayar kanatları ve Vorteks Önleyici Bileşen kademe sayısı interaksiyon ilişkisi olduğu gözlemlenmiştir. Ayrıca, Vorteks Önleyici Bileşenin tek kademeli olarak tasarımda kullanıldığı durumda, emme borusunda meydana gelen vorteks halatını emme borusu çeperlerine dağıttığı ve türbin veriminde yaklaşık %1’lik bir artışa sebebiyet verdiği gözlemlenmiştir. In this study, a new design is made to prevent vortex rope phenomena which may be occur due to instant pressure fluctuations at the draft tube of Francis turbines. In this study, Computational Fluid Dynamics (CFD) analyses are used to obtain the turbine performance and the data is verified with experimental results extracted from a previous study. Stage number of Vortex Preventing Element, the height of Vortex Preventing Element and guide vanes angle of Francis turbine is selected as factors to carry out an optimization study. Box-Behnken experimental design is selected due to lower experiment number and the non-linear relationship between the specified parameters. Optimization and CFD studies are carried out simultaneously and as a consequence, a regression equation is obtained. Accordingly, the most effective parameter on turbine performance is observed as guide vanes angle, and the second one is the relation between guide vanes angle and stage number of Vortex Preventing Element. Besides, if the single-staged Vortex Preventing Element is used in Francis turbine design, it is seen that the component shreds the vortex rope through the draft tube wall. Also, the VPE forges an %1 additional increment on turbine efficiency.Item Gen ifade tahmini için veri bütünleştirme(Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2019) Bayrak, Tuncay; Oğul, HasanCanlı formunun sürdürülebilirliğinin temelinde protein sentezi yer almaktadır. Protein sentezinde, insan genomundaki kodlayıcı genleri düzenleyen küçük nükleotid dizilerinin (mikro RNA) ve diğer yönetici genlerin (Transkripsiyon Faktör, TF) önemli görevleri vardır. Bu çalışmanın amacı, mikro RNA ve TF’lerin düzenleme bilgisinin protein kodlayıcı genlerin ifade tam değerlerinin kestirim performansına etkisini araştırmaktır. Gen ifade tam değerini tahmin etmek için regresyon tabanlı modelleri içeren sistematik yaklaşımlar ortaya konulmuştur. Öncelikle, gen ifade ölçümlerinde yaygın olarak karşılaşılan kayıp veri (missing data) problemini çözmek için doğrusal, k-NN ve İlişkisel Vektör Makinesi (RVM) regresyon modelleri uygulanmıştır. Regresyon modelinin eğitiminde genellikle aynı genin farklı deneylere ait ifade değerlerinden oluşan vektörler kullanılmaktadır. Daha sonra, bu ifade vektörlerine aynı deneye ait farklı gen ifade değerlerinin dâhil edilmesinin gen ifade tahminine etkisi araştırılmıştır. Bunun için İki Yönlü İşbirlikçi Filtreleme (Two-way collaborative filtering) yöntemi kullanılarak gen ifade değerlerinden oluşan tek yönlü veri matrisi iki yönlü veri matrisine dönüştürülmüş ve regresyon modeli bu yeni veri matrisi ile oluşturulmuştur. Gen ifade tahmini için ilk defa kullanılan bu yeni öznitelik sunum tekniği ile kestirim performansının artırıldığı görülmüştür. Ayrıca farklı kanser türlerine ait gen ifade verilerinin bütünleştirilmesinin gen ifade tahminine etkisi de araştırılmıştır. Burada, prostat kanserine ait gen ifade değerlerinin tahmin edilmesinde kolon kanseri verisinin model öğrenmede kullanılmasının kestirim performansını artırdığı görülmüştür. Literatürde gen ifade değerleri kullanılarak gen düzenleyici moleküller ile genler arasındaki ilişkinin tespit edilmesine yönelik çok sayıda çalışma bulunmaktadır. Ancak hücrede meydana gelen bu etkileşimler kullanılarak gen ifade tam değerinin tespitine yönelik çalışmalar oldukça kısıtlıdır. Son olarak, farklı veri yapısındaki miRNA-gen ve TF-gen regülasyon bilgileri ile gen ifade değerleri bütünleştirilmiş olup doğrusal ve RVM regresyon modelleri kullanılarak kestirim performansına etkisi araştırılmıştır. Veri bütünleştirme yaklaşımlarında Öklid, Affine Dönüşüm ve Bhattacharya uzaklık ölçütleri kullanılmıştır. Gen ifade matrisleri; Gene Expression Omnibus veritabanından, TF-gen regülasyon bilgisi TRANSFAC veritabanından ve miRNA-gen regülasyon bilgisi ise mirDB, mirTarbase ve mirConnX veri tabanlarından alınmıştır. Kestirim performansının değerlendirilmesinde Spearman benzerlik katsayısı, Pearson benzerlik katsayısı ve Hata Kareleri Ortalamasının Karekökü (RMSE) ölçütleri kullanılmıştır. miRNA-gen regülasyon bilgisinin bütünleştirilmesi ile gen ifade tahmini performansının artırıldığı görülmüştür. Protein synthesis is the basis of the sustainability of the living form. Small nucleotide sequences (micro-RNA) and other executive genes (Transcription Factor, TF) that regulate coding genes play an important role in the protein synthesis. The aim of this study was to investigate the effect of regulation information of micro-RNA and TFs on the performance of predicting the exact value of expressions of protein coding genes. In order to predict the exact value of gene expression, systematic approaches that includes regression-based models are introduced. First, linear, k-NN and Relational Vector Machine (RVM) regression models were applied to solve the common problem of missing data in gene expression measurements. The expression vectors used in the training phase of the regression model are generally composed of the expression values of the same gene that belongs to different experiments. After that, the effect of the inclusion of different gene expression values of the same experiment on these expression vectors was investigated. For this, the one-way data matrix, consisting of gene expression values, was transformed into a two-way data matrix using Two-way Collaborative Filtering method and the regression model was built with this new data matrix. It is observed that this new feature representation technique that is first used in this study for gene expression predicting increases the performance of predicting. In addition, the effect of integrating gene expression values of different cancer types on gene expression predicting is also investigated. Here, it is observed that the use of colon cancer data in model learning to predict the gene expression of prostate cancer increases prediction performance. There are many studies in the literature to determine the relationship between regulating molecules and genes using gene expression values. However, there are very limited studies based on predicting the exact value of gene expression by using these relations in the cell. Finally, miRNA-gene and TF-gene interaction information and gene expression values were integrated and the prediction performance outcomes obtained by using linear and RVM regression models were discussed. Euclidean, Affine Transformation and Bhattacharya distance measures were used in data integration approaches. Gene expression matrices from Gene Expression Omnibus; TF-gene regulation information from TRANSFAC; miRNA-gene regulation information from mirDB, mirTarbase and mirConnX were used. Spearman similarity coefficient, Pearson similarity coefficient and Root Mean Squared Error (RMSE) were used to evaluate the performance of predicting. It is observed that the performance of predicting gene expression is increased by integrating of miRNA-gene regulation information.
- «
- 1 (current)
- 2
- 3
- »