Open Access

Üretken Çekişmeli Ağ Kullanarak Eski Görüntüleri Renklendirme ve İyileştirme

Arda Cem Bilecan1*, Simay Hoşmeyve2, Bahadır Karasulu3
1Çanakkale Onsekiz Mart Üniversitesi, Bilgisayar Mühendisliği Bölümü, Çanakkale, Türkiye
2Çanakkale Onsekiz Mart Üniversitesi, Bilgisayar Mühendisliği Bölümü, Çanakkale, Türkiye
3Çanakkale Onsekiz Mart Üniversitesi, Bilgisayar Mühendisliği Bölümü, Çanakkale, Türkiye
* Corresponding author: ardacembilecan@gmail.com

Presented at the 5th International Symposium on Innovative Approaches in Smart Technologies (ISAS2022), Online, Turkey, May 28, 2022

SETSCI Conference Proceedings, 2022, 13, Page (s): 38-43 , https://doi.org/10.36287/setsci.5.1.008

Published Date: 01 June 2022

Günümüzde derin öğrenme alanı için veri, çalışma sonuçlarının başarı oranı için büyük önem taşımaktadır. Bu ihtiyaca yönelik olarak görüntü işleme konusunda yapabileceğimiz iyileştirmeler ile daha kaliteli ve eksiksiz görüntüler elde etmek ve eski verilerde karşılaştığımız sorunlardan biri olabilen siyah beyaz görüntülerin renkli görüntüye çevrilmesi ve eksik piksellerin tamamlanması bu çalışmadaki amacı oluşturmaktadır. Çalışmada geliştirilen kullanıcı arayüzü sayesinde hem kullanıcıların kişisel görüntüleri düzenlemelerine hem diğer çalışmalarda destekleyici bir araç olarak kullanılmasına hizmet etmektedir. Yöntem olarak ön işleme, derin öğrenme modeli ile eğitim ve rötuş işlemleri sırasıyla kullanılmıştır. Mimari olarak kullandığımız Üretken Çekişmeli Ağ (GAN) çeşitlerinden bir tanesi olan Pix2pix modeli sayesinde kaynak görüntüden hedef görüntüye dönüşüm yapan bir yöntem geliştirilmiştir. Bu bakış açısıyla Pix2pix modeli görüntü iyileştirme ve dönüşümlerimizde ideal bir ağ olmuştur. Deneylerde elde edilen en yüksek başarım sonucu %82 doğruluk oranıyla iç mekân ve dış mekân sınıflandırması için elde edilmiştir. Ayrıca iç mekan renklendirmesi, dış meķan renklendirmesi, insan yüz renklendirmesi, görüntü onarma ve görüntü kalitesini artırma için yapılan deneylerdeki ortalama değerler göz önüne alındığında en yüksek Yapısal Benzerlik Endeks Ölçüsü (SSIM) değeri 0,9256 ve en düşük Tepe Sinyal Gürültü Oranı (PSNR) değeri ise 65,11 dB olmuştur. Çalışmamızda bilimsel bulgulara dayanan tartışma ve değerlendirmelere yer verilmektedir.

Keywords - Derin Öğrenme, Üretken Çekişme Ağlar, Görüntü İyileştirme, Sınıflandırma, Kullanıcı Grafik Arayüzü

[1] I. J. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, Y. Bengio, “Generative Adversarial Nets”, 2014, arXiv Preprint: arXiv:1406.2661 [stat.ML] https://doi.org/10.48550/arXiv.1406.2661

[2] M. Mirza, S. Osindero, “Conditional Generative Adversarial Nets”, 2014, arXiv Preprint: arXiv:1411.1784 [cs.LG] https://doi.org/10.48550/arXiv.1411.1784

[3] E. Learned-Miller, G. B. Huang, A. RoyChowdhury, H. Li, and G. Hua, “Labeled Faces in the Wild: A Survey”. In Advances in Face Detection and Facial Image Analysis, Editörler: M. Kawulok, M. E. Celebi ve B. Smolka, Springer, pp. 189-248, 2016, ISBN: 978-3-319-25958-1

[4] Labeled Faces in the Wild [Online]: http://viswww.cs.umass.edu/lfw/

[5] A. Quattoni, A. Torralba, "Recognizing indoor scenes," 2009 IEEE Conference on Computer Vision and Pattern Recognition, 20-25 June 2009, pp. 413-420, doi: 10.1109/CVPR.2009.5206537.

[6] Kaggle İnternet sitesi [Online]: https://www.kaggle.com

[7] House Rooms Dataset İnternet sitesi [Online]: https://www.kaggle.com/datasets/robinreni/house-rooms-imagedataset

[8] Places2 Dataset İnternet sitesi [Online]: http://places2.csail.mit.edu/download.html

[9] M. Caron, I. Misra, J. Mairal, P. Goyal, P. Bojanowski, A. Joulin, “Unsupervised Learning of Visual Features by Contrasting Cluster Assignments”, 2021: arXiv Preprint arXiv: 2006.09882[cs.CV] https://doi.org/10.48550/arXiv.2006.09882

[10] O. Ronneberger, P. Fischer, T. Brox, “U-Net: Convolutional Networks for Biomedical Image Segmentation”, 2015, arXiv Preprint: arXiv:1505.04597 [cs.CV],
https://doi.org/10.48550/arXiv.1505.04597

[11] Y. Ho, S. Wookey, “The Real-World-Weight Cross-Entropy Loss Function: Modeling the Costs of Mislabeling”, arXiv Preprint: arXiv:2001.00570 [cs.LG],
https://doi.org/10.48550/arXiv.2001.00570

[12] S. Ruder, “An overview of gradient descent optimization algorithms”, 2017, arXiv Preprint : arXiv:1609.04747 [cs.LG] https://doi.org/10.48550/arXiv.1609.04747

[13] A. Farhadi, J. Redmon, “YOLOv3: An Incremental Improvement”, 2018, arXiv Preprint: arXiv:1804.02767 [cs.CV], https://doi.org/10.48550/arXiv.1804.02767

[14] YOLOv3 in PyTorch, Github İnternet Sitesi: https://github.com/ultralytics/yolov3

[15] G. E. Hinton, A. Krizhevsky, I. Sutskever, “ImageNet Classification with Deep Convolutional Neural Networks”, Advances in Neural Information Processing Systems, Editörler: F. Pereira and C.J. Burges and L. Bottou and K.Q. Weinberger, Curran Associates, Inc., Vol. 25, 2012. [Online] : https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf

[16] E. S. Gedraite, M. Hadad, "Investigation on the effect of a Gaussian Blur in image filtering and segmentation," Proceedings ELMAR-2011, 14-16 Sept. 2011, pp. 393-396. ISBN: 978-1-61284-949-2

[17] Gradio Internet sitesi [Online]: https://gradio.app

[18] Hugging Face Internet sitesi [Online]: https://huggingface.co

[19] ImgCERO Project İnternet Sitesi: https://huggingface.co/spaces/simayhosmeyve/Image_Enhancement

[20] T. A. Möller, J. Nilsson, “Understanding SSIM”, 2020: arXiv Preprint: arXiv:2006.13846 [eess.IV] https://doi.org/10.48550/arXiv.2006.13846

[21] O. Keleş, M. A. Yılmaz, A. M. Tekalp, C. Korkmaz, Z. Doğan, “On the Computation of PSNR for a Set of Images or Video”, 2021: arXiv Preprint : arXiv:2104.14868 [eess.IV] https://doi.org/10.48550/arXiv.2104.14868

[22] A. Horé and D. Ziou, "Image Quality Metrics: PSNR vs. SSIM," 2010 20th International Conference on Pattern Recognition, 2010, pp. 2366- 2369, doi: 10.1109/ICPR.2010.579.

[23] E. van der Knaap, A. Ralescu, B. Ramsay, S. Visa, “Confusion Matrixbased Feature Selection”, MAICS , volume 710 of CEUR Workshop Proceedings, page 120-127.: http://ceur-ws.org/Vol-710/paper37.pdf

[24] T. Nguyen, “Deep learning-based Face detection using the YOLOv3 algorithm” İnternet Sitesi [Online]: https://github.com/sthanhng/yoloface

0
Citations (Crossref)
256
Total Views
16
Total Downloads

Licence Creative Commons This is an Open Access article distributed under the terms of the Creative Commons Attribution License 4.0, which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.
SETSCI 2025
info@set-science.com
Copyright © 2025 SETECH
Tokat Technology Development Zone Gaziosmanpaşa University Taşlıçiftlik Campus, 60240 TOKAT-TÜRKİYE