Enstitüler / Institutes

Permanent URI for this communityhttps://hdl.handle.net/11727/1390

Browse

Search Results

Now showing 1 - 4 of 4
  • Item
    Encryption and multi-share-based seganography methods on images with low spectral resolution
    (Başkent Üniversitesi Fen Bilimler Enstitüsü, 2023) Çiftçi, Efe; Sumer, Emre
    Steganography is the name given to secret communication methods that third parties cannot detect. This secret communication is performed by hiding the secret information to be transmitted on a carrier medium so that the carrier does not raise any suspicions. Steganography science, of which many examples can be presented from the past to the present, has gained new application areas with the development of digital technologies. This thesis aims to develop new steganography methods that hide secret messages in plain text format on binary images, which have a lower spectral resolution when compared to color or grayscale images, used in digital devices as carriers. It has been observed that all implemented methods can successfully hide considerable lengths of plaintext payloads on binary images generated by both thresholding and halftoning methods, and this finding has been reinforced with conducted objective and subjective evaluations. Steganografi, üçüncü şahıslar tarafından tespit edilmeyecek şekilde gizli iletişim kurma yöntemlerine verilen isimdir. Bu gizli iletişim, iletilmek istenen gizli bilginin şüphe uyandırmayacak bir şekilde bir taşıyıcı ortamın üzerine gizlenmesiyle gerçekleşir. Geçmişten günümüze bir çok örneği sunulabilen steganografi bilimi, dijital teknolojilerin gelişmesiyle yeni uygulama alanları kazanmıştır. Bu tezin amacı, düz metin biçimindeki gizli mesajları, taşıyıcı olarak dijital cihazlarda kullanılan renkli veya gri tonlu görüntülere kıyasla daha düşük spektral çözünürlüğe sahip ikili görüntüler üzerine gizleyecek olan yeni steganografi yöntemlerinin geliştirilmesidir. Geliştirilen tüm yöntemlerin hem eşikleme, hem de yarıtonlama yöntemleriyle üretilen ikili görüntülere büyük uzunluklarda düz metin türünde veriyi başarıyla gizleyebildikleri görülmüş ve yapılan objektif ile subjektif değerlendirmelerle de bu bulgu pekiştirilmiştir.
  • Item
    Videolarda insan eylemlerini tanımada poligon tabanlı öznitelik çıkarımı
    (Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2023) Gocmen, Ogul; Akata, Murat Emin
    Videolardaki insan eylemlerinin tanınması ve sınıflandırılması için, silüet tabanlı yeni bir öznitelik çıkarma yöntemi önerilmiştir. Bu amaçla, “Hareket Geçmişi Görüntüsü (HGG)” ve “Poli-Siluet (PoS)” adı verilen yeni görüntü şekilleri, yeni bir “Poligonlaştırma Algoritması (PoG)” ve yeni bir “Poligon Kodlama Algoritması (PoC)” geliştirilmiştir. Önerilen yöntem, “Silüet Videolarından (SiVi)” , HGG’lerin elde edilmesi, daha az köşeye indirgenerek poligon formuna dönüştürülmesi ve kodlanmasına dayanmaktadır. Geleneksel siluet oluşturma yöntemleri siluetlerin gövde bütünlüğünü tek başlarına karşılayamadıklarından, bu sorunu aşmak için, görüntü ve videolarda yer alan insan ve nesneler üzerinde örnek bölütlemesi yapabilen Yolact++’ın kodları değiştirilerek, modelin ürettiği insan maskeleri ile SiVi’ler oluşturulmuştur. Hareketi daha iyi tanımlayan HGG’ler, ardışık olmayan SiVi karelerindeki silüetleri ağırlık merkezlerine göre toplanması ile elde edilir. Poligonlaştırma işlemi, HGG görüntülerine uygulanır. PoG, eğri şekilleri ve görüntülerin poligonlaştırılmasına dayansa da, çalışması tam olarak bunlara benzemez. PoG, HGG’nin kontur koordinatlarını hızlı bir şekilde istenilen boyuta indirger. Elde edilen poligonlaştırılmış HGG görüntülerine PoS adı verilir. PoC algoritması, PoS görüntüsünü parametre olarak alır ve içerisindeki şeklin sol üst köşe koordinatından başlayarak, saat yönünün tersinde dolanırken, üzerinden geçilen her bir kenar ile bir vektör oluşturur. Bu esnada vektörün, çalışmada belirlenen sekiz adet açısal alandan hangisine iz düşümü olduğunu hesaplayarak, ilgili vektörün kodunu belirler. Bir PoS’un tüm kenar vektörlerinin kodları, dolaşılma sırasıyla dizi içine kaydedildiğinde, o vektörler ile oluşan PoS için poligon kodu elde edilir.Uzun poligon kodları ile kolay işlem yapılabilmek ve farklı uzunlukta vektörler oluşturulabilmek için, genetik algoritmada kullanılan k-mer gruplandırma tekniği benzeri bir yaklaşım çalışmada geliştirilmiştir. Düşünülen işlem poligon kodunun normalizasyonunu sağlamakla kalmamış, aynı zamanda poligon kodunun adaptif bir çekirdeğe göre uyarlanmasını doğurarak çalışmada önceden düşünülmeyen, farklı bir boyuta bu çalışmayı taşındığı görülmüştür. Gruplama k boyu olarak farklı uzunluklar seçilmiş ve poligon kod grupları, k boyuna göre oluşabilecek en büyük kodlara bölünerek normalize edilmiştir. Önerilen öznitelik çıkarma yöntemi, herhangi bir aksiyon videosunun karelerinden elde edilmiş PoS üzerinde eşit uzunlukta öznitelik vektörlerinin üretilmesini garanti eder, bu durum, boyut sorununun üstesinden gelmek için ekstra boyut indirgeme algoritmalarının kullanımına ihtiyacı ortadan kaldırır. Farklı k-mer uzunlukları, çalışmada kullanılan veri setleri üzerinden elde edilen öznitelik vektörlerinde denenerek “işlem hızı” ile “sınıflandırma doğruluğu” karşılaştırmaları yapılmıştır. Yöntem, HMDB51 ve UCF101 veri setleri üzerinde denenmiş en iyi performans veren k-mer boyu ve sınıflandırma doğruluk sonuçları, diğer çalışmalarla karşılaştırılmış ve daha başarılı sonuçların elde edildiği görülmüştür. Ayrıca, çalışmaya özgü hazırlanan Yoga veri seti üzerinde HGG görüntülerinin farklı formları ile ek olarak derin ağ uygulamaları da gerçekleştirilmiş ve kayda değer cesaretlendirici sonuçlar alınmıştır. A new silhouette-based feature extraction method for the recognition and classification of human actions in videos is proposed. For this purpose, new image forms called “Motion History Image (HGG)” and “Poly-Silhouette (PoS)”, a new “Polygonization Algorithm (PoG)” and a new “Polygon Encoding Algorithm (PoC)” have been developed. The proposed method is based on obtaining HGGs from “Silhouette Videos (SiVi)”, converting them to polygon form with fewer corners and encoding them. Since traditional silhouette creation methods cannot meet the body integrity, to overcome this problem, the codes of Yolact++ were changed and human masks produced by the model is saved as SiVis. HGGs that better describe motion have been obtained by summing the silhouettes in non-consecutive SiVi frames according to bounding box centroids. The polygonization process has been applied to the HGG images. PoG quickly reduces the contour coordinates of the HGG to the desired size. The resulting polygonized HGG images are called PoS. The PoC algorithm takes the PoS image as a parameter and creates a vector with each edge, starting from the upper left corner coordinate, while tracing in counterclockwise direction. It calculates the related vector code by projecting the vector on to the area that are presented in the study. When the codes of all edge vectors of a PoS are recorded, the polygon code for the PoS is formed. An approach similar to the k-mer grouping technique in genetic algorithms has been developed in order to be able to process with long polygon codes and to create feature vectors of different lengths. This idea not only provided for the normalization of the code, but also for the adaptation of the code according to an adaptive kernel. Different lengths were chosen as k and groups were normalized by dividing them into the largest codes according to the k length. The proposed feature extraction method guarantees the generation of feature vectors of equal length on PoS, eliminating the need for the use of extra dimension reduction algorithms to overcome the size problem. Different k-mer lengths were tested on HMDB51 and UCF101 datasets and comparisons of "processing speed" and "classification accuracy" were made. The results of best k-mer and classification accuracy were compared with studies and it was found that more successful results were obtained. In addition, extra deep network applications were performed out on the yoga dataset created specifically for the study, and remarkable encouraging results were obtained.
  • Item
    Automated Audio Captioning with Acoustic and Semantic Feature Representation
    (Başkent Üniversitesi Fen Bilimleri Enstitüsü, 2023) Ozkaya Eren, Aysegul
    Today, audio data is increasing rapidly with the developing technology and the increasing amount of data. Therefore, there is a need for understanding and interpretation of the content of audio data by human-like systems. Generally, audio processing studies have focused on speech recognition, audio event/scene, and tagging to process audio data. Speech recognition aims to translate a spoken language into text. Audio event/scene and tagging studies make single or few-word explanations of an audio recording. Unlike the previous studies, automatic audio captioning aims to explain an environmental audio record with a natural language sentence. This thesis explores the importance of using semantic information to improve audio captioning performance after a detailed literature study on audio processing, image/video, and audio captioning. In this context, computational models have been developed using linguistic knowledge (subject-verbs), topic model, knowledge graphs, and acoustic events for audio captioning. As a methodology, the contributions of different features, word embedding methods, deep learning architectures and datasets, and the contribution of semantic information to audio captioning were examined. Within the scope of the studies, two publicly open audio captioning datasets were used. The success of the models proposed in the thesis was compared with the studies using the same datasets. The results show that the proposed methods improve AAC performance and give results comparable to the literature. Günümüzde gelişen teknoloji ve artan veri miktarı ile birlikte ses verileri de hızla artmaktadır. Bu nedenle, ses verilerinin içeriğinin insan benzeri sistemler tarafından anlaşılmasına ve yorumlanmasına ihtiyaç duyulmaktadır. Genel olarak ses işleme çalışmaları konuşma tanıma, ses olay/sahne tanıma ve ses etiketlemeye odaklanmıştır. Konuşma tanıma, konuşulan bir dili metne çevirmeyi amaçlar. Ses olay/sahne tanıma ve etiketleme sistemleri, bir ses kaydına tek veya birkaç kelimelik açıklamalar yapar. Otomatik ses başlıklandırma ise önceki çalışmalardan farklı olarak çevresel bir ses kaydını doğal bir dil cümlesi ile açıklamayı amaçlar. Bu tez, ses işleme, görüntü/video ve ses başlıklandırma üzerine ayrıntılı bir literatür çalışmasının ardından ses başlıklandırma performansını iyileştirmek için anlamsal bilgileri kullanmanın önemini araştırmaktadır. Bu bağlamda, otomatik ses başlıklandırma için dilbilimsel (özne-fiiller), konu modeli, bilgi çizgesi ve akustik olaylar kullanılarak sayısal modeller geliştirilmiştir. Metodoloji olarak, farklı özniteliklerin, kelime gömme yöntemlerinin, derin öğrenme mimarilerinin ve veri kümelerinin katkıları ve semantik bilginin ses başlıklandırmaya katkısı incelenmiştir. Çalışmalar kapsamında iki adet ses başlıklandırma veri seti kullanılmıştır. Tezde önerilen modellerin başarısı, aynı veri setlerini kullanan çalışmalarla karşılaştırılmıştır. Sonuçlar, önerilen yöntemlerin otomatik ses başlıklandırma performansını iyileştirdiğini ve literatürle karşılaştırılabilir sonuçlar verdiğini göstermektedir.
  • Item
    Validity and Reliability Evidence of Professional Obsolescence Scale According to Different Test Theories
    (2021) Altun, Sedagul Akbaba; Buyukorturk, Sener; Seheryeli, Merve Yildirim
    This study aims to develop a scale that will determine the factors causing professional obsolescence in the field of education. In this context, the Professional Obsolescence Scale (POS) has been developed to determine the professional and organizational obsolescence of primary, secondary and high school administrators. In this scale development process, steps were followed in line with the suggestions of Crocker and Algina (2006) and Cronbach (1984). Firstly, 63 items were prepared and 991 school principals participated the study. R (version 4.0.1) software was used to analyze the data. Item and test parameters and information functions have been estimated using Samejima's Graded Response Model based on Item Response Theory. Principal Axis Analysis was performed for the construct validity of the scale, and four-dimensions structure with 47 items has been obtained. These dimensions are named as "Being Open to Professional Development", "Job-Ability Harmony in Profession", "Organizational Support in Professional Development", "Professional Burnout". The scores obtained from each dimension are evaluated within themselves. It has been observed that each dimension fulfills the conditions of unidimensionality, local independence, model-data fit and parameter invariance. According to the Classical Test Theory, Cronbach Alpha coefficients are between 0.807 and 0.945. The Stratified Alpha coefficient calculated for the whole scale is 0.94. According to the Item Response Theory, the marginal reliability coefficients were between 0.857 and 0.936 and the empirical reliability coefficients were found between 0.854 and 0.938.