Journals Books 2687-5527 doi.org/10.36287/setsci
Latest Issue Archive Future Issues About Us
Conference Proceedings

SETSCI - Volume 5(1) (2022)
ISAS2022 - 5th International Symposium on Innovative Approaches in Smart Technologies, Online, Turkey, May 28, 2022

Üretken Çekişmeli Ağ Kullanarak Eski Görüntüleri Renklendirme ve İyileştirme
Arda Cem Bilecan1*, Simay Hoşmeyve2, Bahadır Karasulu3
1Çanakkale Onsekiz Mart Üniversitesi, Bilgisayar Mühendisliği Bölümü, Çanakkale, Türkiye
2Çanakkale Onsekiz Mart Üniversitesi, Bilgisayar Mühendisliği Bölümü, Çanakkale, Türkiye
3Çanakkale Onsekiz Mart Üniversitesi, Bilgisayar Mühendisliği Bölümü, Çanakkale, Türkiye
* Corresponding author: ardacembilecan@gmail.com
Published Date: 2022-06-01   |   Page (s): 38-43   |    387     43
https://doi.org/10.36287/setsci.5.1.008

ABSTRACT Günümüzde derin öğrenme alanı için veri, çalışma sonuçlarının başarı oranı için büyük önem taşımaktadır. Bu ihtiyaca yönelik olarak görüntü işleme konusunda yapabileceğimiz iyileştirmeler ile daha kaliteli ve eksiksiz görüntüler elde etmek ve eski verilerde karşılaştığımız sorunlardan biri olabilen siyah beyaz görüntülerin renkli görüntüye çevrilmesi ve eksik piksellerin tamamlanması bu çalışmadaki amacı oluşturmaktadır. Çalışmada geliştirilen kullanıcı arayüzü sayesinde hem kullanıcıların kişisel görüntüleri düzenlemelerine hem diğer çalışmalarda destekleyici bir araç olarak kullanılmasına hizmet etmektedir. Yöntem olarak ön işleme, derin öğrenme modeli ile eğitim ve rötuş işlemleri sırasıyla kullanılmıştır. Mimari olarak kullandığımız Üretken Çekişmeli Ağ (GAN) çeşitlerinden bir tanesi olan Pix2pix modeli sayesinde kaynak görüntüden hedef görüntüye dönüşüm yapan bir yöntem geliştirilmiştir. Bu bakış açısıyla Pix2pix modeli görüntü iyileştirme ve dönüşümlerimizde ideal bir ağ olmuştur. Deneylerde elde edilen en yüksek başarım sonucu %82 doğruluk oranıyla iç mekân ve dış mekân sınıflandırması için elde edilmiştir. Ayrıca iç mekan renklendirmesi, dış meķan renklendirmesi, insan yüz renklendirmesi, görüntü onarma ve görüntü kalitesini artırma için yapılan deneylerdeki ortalama değerler göz önüne alındığında en yüksek Yapısal Benzerlik Endeks Ölçüsü (SSIM) değeri 0,9256 ve en düşük Tepe Sinyal Gürültü Oranı (PSNR) değeri ise 65,11 dB olmuştur. Çalışmamızda bilimsel bulgulara dayanan tartışma ve değerlendirmelere yer verilmektedir.
KEYWORDS Derin Öğrenme, Üretken Çekişme Ağlar, Görüntü İyileştirme, Sınıflandırma, Kullanıcı Grafik Arayüzü
REFERENCES [1] I. J. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, Y. Bengio, “Generative Adversarial Nets”, 2014, arXiv Preprint: arXiv:1406.2661 [stat.ML] https://doi.org/10.48550/arXiv.1406.2661

[2] M. Mirza, S. Osindero, “Conditional Generative Adversarial Nets”, 2014, arXiv Preprint: arXiv:1411.1784 [cs.LG] https://doi.org/10.48550/arXiv.1411.1784

[3] E. Learned-Miller, G. B. Huang, A. RoyChowdhury, H. Li, and G. Hua, “Labeled Faces in the Wild: A Survey”. In Advances in Face Detection and Facial Image Analysis, Editörler: M. Kawulok, M. E. Celebi ve B. Smolka, Springer, pp. 189-248, 2016, ISBN: 978-3-319-25958-1

[4] Labeled Faces in the Wild [Online]: http://viswww.cs.umass.edu/lfw/

[5] A. Quattoni, A. Torralba, "Recognizing indoor scenes," 2009 IEEE Conference on Computer Vision and Pattern Recognition, 20-25 June 2009, pp. 413-420, doi: 10.1109/CVPR.2009.5206537.

[6] Kaggle İnternet sitesi [Online]: https://www.kaggle.com

[7] House Rooms Dataset İnternet sitesi [Online]: https://www.kaggle.com/datasets/robinreni/house-rooms-imagedataset

[8] Places2 Dataset İnternet sitesi [Online]: http://places2.csail.mit.edu/download.html

[9] M. Caron, I. Misra, J. Mairal, P. Goyal, P. Bojanowski, A. Joulin, “Unsupervised Learning of Visual Features by Contrasting Cluster Assignments”, 2021: arXiv Preprint arXiv: 2006.09882[cs.CV] https://doi.org/10.48550/arXiv.2006.09882

[10] O. Ronneberger, P. Fischer, T. Brox, “U-Net: Convolutional Networks for Biomedical Image Segmentation”, 2015, arXiv Preprint: arXiv:1505.04597 [cs.CV],
https://doi.org/10.48550/arXiv.1505.04597

[11] Y. Ho, S. Wookey, “The Real-World-Weight Cross-Entropy Loss Function: Modeling the Costs of Mislabeling”, arXiv Preprint: arXiv:2001.00570 [cs.LG],
https://doi.org/10.48550/arXiv.2001.00570

[12] S. Ruder, “An overview of gradient descent optimization algorithms”, 2017, arXiv Preprint : arXiv:1609.04747 [cs.LG] https://doi.org/10.48550/arXiv.1609.04747

[13] A. Farhadi, J. Redmon, “YOLOv3: An Incremental Improvement”, 2018, arXiv Preprint: arXiv:1804.02767 [cs.CV], https://doi.org/10.48550/arXiv.1804.02767

[14] YOLOv3 in PyTorch, Github İnternet Sitesi: https://github.com/ultralytics/yolov3

[15] G. E. Hinton, A. Krizhevsky, I. Sutskever, “ImageNet Classification with Deep Convolutional Neural Networks”, Advances in Neural Information Processing Systems, Editörler: F. Pereira and C.J. Burges and L. Bottou and K.Q. Weinberger, Curran Associates, Inc., Vol. 25, 2012. [Online] : https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf

[16] E. S. Gedraite, M. Hadad, "Investigation on the effect of a Gaussian Blur in image filtering and segmentation," Proceedings ELMAR-2011, 14-16 Sept. 2011, pp. 393-396. ISBN: 978-1-61284-949-2

[17] Gradio Internet sitesi [Online]: https://gradio.app

[18] Hugging Face Internet sitesi [Online]: https://huggingface.co

[19] ImgCERO Project İnternet Sitesi: https://huggingface.co/spaces/simayhosmeyve/Image_Enhancement

[20] T. A. Möller, J. Nilsson, “Understanding SSIM”, 2020: arXiv Preprint: arXiv:2006.13846 [eess.IV] https://doi.org/10.48550/arXiv.2006.13846

[21] O. Keleş, M. A. Yılmaz, A. M. Tekalp, C. Korkmaz, Z. Doğan, “On the Computation of PSNR for a Set of Images or Video”, 2021: arXiv Preprint : arXiv:2104.14868 [eess.IV] https://doi.org/10.48550/arXiv.2104.14868

[22] A. Horé and D. Ziou, "Image Quality Metrics: PSNR vs. SSIM," 2010 20th International Conference on Pattern Recognition, 2010, pp. 2366- 2369, doi: 10.1109/ICPR.2010.579.

[23] E. van der Knaap, A. Ralescu, B. Ramsay, S. Visa, “Confusion Matrixbased Feature Selection”, MAICS , volume 710 of CEUR Workshop Proceedings, page 120-127.: http://ceur-ws.org/Vol-710/paper37.pdf

[24] T. Nguyen, “Deep learning-based Face detection using the YOLOv3 algorithm” İnternet Sitesi [Online]: https://github.com/sthanhng/yoloface


SET Technology - Turkey

eISSN  : 2687-5527    
DOI : doi.org/10.36287/setsci

E-mail : info@set-science.com
+90 533 2245325

Tokat Technology Development Zone Gaziosmanpaşa University Taşlıçiftlik Campus, 60240 TOKAT-TURKEY
©2018 SET Technology