Şimdi Ara

Otonom Görüntü İşlemeli Robot

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
1 Misafir - 1 Masaüstü
5 sn
9
Cevap
0
Favori
1.731
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
0 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • Merhaba Arkadaşlar
    Bilgisayar mühendisliği 4. sınıf öğrencisiyim bitirme projesi olarak görüntü işleme ile otonom bir araç yapmaya çalışıyorum. Raspberry pi geliştirme kartı kullanıyorum. Şu an basit olarak raspberry pi kamera modulünden çektiğim resmi işleterek bazı şekilleri tanıtabiliyorum. Programlama dili olarak java kullandım. Herhangi bir görüntü işleme kütüphanesi kullanmadan yapmayı planlıyorum.
    Görüntü işleme konusunda epeyce bi teorik bilgiye sahibim programlama konusunda da pek sıkıntı yaşamıyorum fakat pratikte bazı eksiklerim var. Bu konuyu açma sebebim ise daha önce benzer projeler yapmış veya bana bazı tavsiyede bulunabilecek siz değerli arkadaşlarım ve büyüklerimden tavsiye almak.

    1- Görüntü işleme kütüphanesi kullanmalımıyım, kullanmazsam çokmu yavaş işlerim görüntüyü?
    2- Aracı yönlendirmek için gerekli komutları c dili ve wring pi kütüphanesi kullanarak yaptım(pek yaptım sayılmaz aslında hala çok eksiği var).Görüntü işleme işlemini ise javada yaptığım için bu iki programı haperleştirmek için javadan txt ye yazdığım bazı karakterleri diğer programdan okuyarak aracı yönlendirmeye çalışıyorum.Bunun daha farklı bir yolu varmı varsa nasıl olabilir?

    Temelde iki sorunum var diyebilirim birincisi görüntü işleme adımlarının hızlı ve stabil olması ikincisi ise iki farklı programı stabil bir şekilde haberleştirmek .







  • seyfi84 S kullanıcısına yanıt
    Wring pi yi hiç duymamış olmandan dolayı böyle bir cevep yazmış olduğunu düşünüyorum.Sadece araştımakla kalmayıp Java da wring pi küyüphanesini kullandım ama benim mikrosaniyeler ile çalışmam gerekiyor ama java jvm üzerinde çalıştığı için bu süre bir hayli uzuyor ve birkaç milisaniyeye kadar bile çıkabiliyor. Milisaniyeler kabul edilemez hatalar meydana getirebiliyor. Buraya eleştiri almak için değil sadece birkaç yararlı bilgi alabilmek için konuyu açtım. Bu konularda yeni değilim daha intelin 8051 komut setini kullanarak assembly diliyle benzer projeler geliştirdim.
    Buraya gelip böyle ezici konuşmadan önce 2 dk. dan fazla araştırma yap bence
  • görüntü işleme için opencv kullanmalısın c&c++ seni daha çok hızlandırır.
  • txt ile veri aktarımı olmaz. Aşırı yavaş olacağı gibi kısa sürede sd card ın ömrünü tüketir.

    Görüntü işlemede c/c++ tan başka şansın yok. Java ile hem daha zor hem daha yavaş olur . Fakat opencv kullanıp kullanmamak sana kalmış, becerebiliyorsan kullanmadan yap.

    Robotu yönlendirmek için görüntü işlerken çok hızlı olman gerekmez. 5-10 kare/sn arası rahat rahat yeter ki bu her kare için en az 100ms demek. Görüntüyü ayrı bir thread ile hallettiğin sürece sıkıntı olmaz.

    Daha önce rpi ile motor sürmediysen dikkatli ol. Motor ani fren yaptığında, ya da aniden geriye döndüğünde yüklenen ters akım anında kartı yakabilir. O yüzden robota direkt bağlantı yapayım deme.
  • Teşekkürler hocam . Motoru sürmek için motor sürücü karti kullaniyorum yinede diyot felan kullanmama gerek varmi acaba yoksa motor surucu devre koruyabilirmi raspberryi? Bide bi sorum daha olacak daha once raspberry pi de ultrasonik sensor kullandinizmi(ben hc-sr04 kullaniyorum )
    Olçum işlemi yaparken tam stabil çalışmiyor bunun nedeni raspberryde zamani sistem saatini alip birbirinden cikararak hesaplamam mi? Cunku goruntu işleme işlemini baslattigim zaman sensor hata yapmaya başlıyor .
    Ayrica verdiginiz bilgiler için teşşekkürler.

    < Bu ileti mini sürüm kullanılarak atıldı >
  • Merhaba benim bitirme projem bu konu üzerineydi. Raspberry Pi yerine PcDuino kullanmıştım. Kameradan nesne öğretip, öğrettiğim nesneyi oda için arıyordum. Nesne bulununca android telefona aktarılan görüntüde bulunan obje çerveveye alınıyordu. Görüntü işleme kısmını ikiye bölmüştüm. Temel feature işlerini ham veriyi aktarmadan önce pcduino üzerinde yapıyordum. Böylece telefona gereksiz data aktarmıyordum. Öğrenme kısmı yani yapay sinir ağları android telefonda bulunuyordu. Gelen featurelara göre eğitim yapıyodum. Yapay sinir ağlarında kullandığım algoritma EBPTA(Error Back Propagation Training Algorithm). Araç üzerinde ise temel görüntüden feature çıkarma işlerini yapıyorum. Ekstra bir kütüphane kullanmadım. Merak ettiğin şeyler olursa elimden geldiğince yardım edebilirim. Eğer telefona görüntü aktaracaksan en az 25 fps'i yakalamalısın. Yoksa slow motion görünür. Aktardığım görüntü boyutu 320x240tı benim. Yaklaşık 30-35 fps ile aktardım. Kamera ise 640x480 ile çekim yapıyor.




  • quote:

    Orijinalden alıntı: freeloki

    Merhaba benim bitirme projem bu konu üzerineydi. Raspberry Pi yerine PcDuino kullanmıştım. Kameradan nesne öğretip, öğrettiğim nesneyi oda için arıyordum. Nesne bulununca android telefona aktarılan görüntüde bulunan obje çerveveye alınıyordu. Görüntü işleme kısmını ikiye bölmüştüm. Temel feature işlerini ham veriyi aktarmadan önce pcduino üzerinde yapıyordum. Böylece telefona gereksiz data aktarmıyordum. Öğrenme kısmı yani yapay sinir ağları android telefonda bulunuyordu. Gelen featurelara göre eğitim yapıyodum. Yapay sinir ağlarında kullandığım algoritma EBPTA(Error Back Propagation Training Algorithm). Araç üzerinde ise temel görüntüden feature çıkarma işlerini yapıyorum. Ekstra bir kütüphane kullanmadım. Merak ettiğin şeyler olursa elimden geldiğince yardım edebilirim. Eğer telefona görüntü aktaracaksan en az 25 fps'i yakalamalısın. Yoksa slow motion görünür. Aktardığım görüntü boyutu 320x240tı benim. Yaklaşık 30-35 fps ile aktardım. Kamera ise 640x480 ile çekim yapıyor.
    hocam telefona görüntüyü nasıl aktardınız acaba?




  • metehanm4 M kullanıcısına yanıt
    Hocam merhaba, bende benzer bi proje yapmıştım görüntü işleme olmadan. HCSR04 ü kullanmıştım sizin gibi. Yardımcı olabilirim isterseniz.@metehanm4
  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.