1. Home
  2. Browse by Author

Browsing by Author "Akan, Erhan"

Filter results by typing the first few letters
Now showing 1 - 2 of 2
  • Results Per Page
  • Sort Options
  • Loading...
    Thumbnail Image
    Master Thesis
    El Hareketleri için Bir Veri Toplama Sistemi Tasarımı
    (2019) Akan, Erhan; Uslu, İbrahim Baran; Akagündüz, Erdem; Department of Electrical & Electronics Engineering; 15. Graduate School of Natural and Applied Sciences; 01. Atılım University
    Bu çalışmada, bir akıllı eldiven tasarımının yapılması, eldiven üzerindeki farklı ataletsel sensörler ve EMG sensörden veri toplanması, bu verilerin ön işlemeye tabi tutulması ve bu farklı sensör verilerinin kaynaştırılması yoluyla bir insan-makine etkileşimi uygulamasının geliştirilmesi amaçlanmaktadır. Böylelikle görüntü işleme temelli yaklaşımların kusurlu olduğu noktalarda çözümler sunulması hedeflenmektedir. Akıllı eldivende, manyetometre ve jiroskop tarafından üretilecek olan dördey bazlı oryantasyon verileri ile ivmeölçer tarafından üretilecek olan ivme verilerinin ve EMG Sensor tarafından üretilen analog verilerin, toplanması ve daha sonradan farklı uygulamalarca kullanılmasına hazırlık konusunda bir çalışma yapılmıştır.
  • Loading...
    Thumbnail Image
    Conference Object
    Citation - WoS: 7
    Hand Gesture Classification Using Inertial Based Sensors Via a Neural Network
    (Ieee, 2017) Akan, Erhan; Tora, Hakan; Uslu, Baran; Airframe and Powerplant Maintenance; Department of Electrical & Electronics Engineering; 15. Graduate School of Natural and Applied Sciences; 13. School of Civil Aviation (4-Year); 01. Atılım University
    In this study, a mobile phone equipped with four types of sensors namely, accelerometer, gyroscope, magnetometer and orientation, is used for gesture classification. Without feature selection, the raw data from the sensor outputs are processed and fed into a Multi-Layer Perceptron classifier for recognition. The user independent, single user dependent and multiple user dependent cases are all examined. Accuracy values of 91.66% for single user dependent case, 87.48% for multiple user dependent case and 60% for the user independent case are obtained. In addition, performance of each sensor is assessed separately and the highest performance is achieved with the orientation sensor.