目标跟踪技术

简介: Boofcv研究:动态目标追踪public class RemovalMoving { public static void main(String[] args) { String fileName = UtilIO.

Boofcv研究:动态目标追踪

public class RemovalMoving {
    public static void main(String[] args) {
        String fileName = UtilIO.pathExample("D:\\JavaProject\\Boofcv\\example\\tracking\\chipmunk.mjpeg");
        ImageType imageType = ImageType.single(GrayF32.class);      
        //ImageType imageType = ImageType.il(3, InterleavedF32.class);
        //ImageType imageType = ImageType.il(3, InterleavedU8.class);

        ConfigGeneralDetector confDetector = new ConfigGeneralDetector();
        confDetector.threshold = 10;
        confDetector.maxFeatures = 300;
        confDetector.radius = 6;

        //  KLT tracker
        PointTracker tracker = FactoryPointTracker.klt(new int[]{1, 2, 4, 8}, confDetector, 3,
                GrayF32.class, null);

        // This estimates the 2D image motion
        ImageMotion2D<GrayF32,Homography2D_F64> motion2D =
                FactoryMotion2D.createMotion2D(500, 0.5, 3, 100, 0.6, 0.5, false, tracker, new Homography2D_F64());

        ConfigBackgroundBasic configBasic = new ConfigBackgroundBasic(30, 0.005f);

        // Configuration for Gaussian model.  Note that the threshold changes depending on the number of image bands
        // 12 = gray scale and 40 = color
        ConfigBackgroundGaussian configGaussian = new ConfigBackgroundGaussian(12,0.001f);
        configGaussian.initialVariance = 64;
        configGaussian.minimumDifference = 5;

        // Comment/Uncomment to switch background mode
        BackgroundModelMoving background =
                FactoryBackgroundModel.movingBasic(configBasic, new PointTransformHomography_F32(), imageType);
//              FactoryBackgroundModel.movingGaussian(configGaussian, new PointTransformHomography_F32(), imageType);


        MediaManager media = DefaultMediaManager.INSTANCE;
        SimpleImageSequence video =
                media.openVideo(fileName, background.getImageType());
                media.openCamera(null,640,480,background.getImageType());


        // storage for segmented image.  Background = 0, Foreground = 1
        GrayU8 segmented = new GrayU8(video.getNextWidth(),video.getNextHeight());
        // Grey scale image that's the input for motion estimation
        GrayF32 grey = new GrayF32(segmented.width,segmented.height);

        // coordinate frames
        Homography2D_F32 firstToCurrent32 = new Homography2D_F32();
        Homography2D_F32 homeToWorld = new Homography2D_F32();
        homeToWorld.a13 = grey.width/2;
        homeToWorld.a23 = grey.height/2;

        // Create a background image twice the size of the input image.  Tell it that the home is in the center
        background.initialize(grey.width * 2, grey.height * 2, homeToWorld);

        BufferedImage visualized = new BufferedImage(segmented.width,segmented.height,BufferedImage.TYPE_INT_RGB);
        ImageGridPanel gui = new ImageGridPanel(1,2);
        gui.setImages(visualized, visualized);

        ShowImages.showWindow(gui, "Detections", true);

        double fps = 0;
        double alpha = 0.01; // smoothing factor for FPS

        while( video.hasNext() ) {
            ImageBase input = video.next();

            long before = System.nanoTime();
            GConvertImage.convert(input, grey);

            if( !motion2D.process(grey) ) {
                throw new RuntimeException("Should handle this scenario");
            }

            Homography2D_F64 firstToCurrent64 = motion2D.getFirstToCurrent();
            UtilHomography.convert(firstToCurrent64, firstToCurrent32);

            background.segment(firstToCurrent32, input, segmented);
            background.updateBackground(firstToCurrent32,input);
            long after = System.nanoTime();

            fps = (1.0-alpha)*fps + alpha*(1.0/((after-before)/1e9));

            VisualizeBinaryData.renderBinary(segmented,false,visualized);
            gui.setImage(0, 0, (BufferedImage)video.getGuiImage());
            gui.setImage(0, 1, visualized);
            gui.repaint();

            System.out.println("FPS = "+fps);

            try {Thread.sleep(5);} catch (InterruptedException e) {}
        }
    }
}

这里写图片描述

这里写图片描述

这里写图片描述

目录
相关文章
|
2月前
|
机器学习/深度学习 监控 算法
计算机视觉实战项目(图像分类+目标检测+目标跟踪+姿态识别+车道线识别+车牌识别)
计算机视觉实战项目(图像分类+目标检测+目标跟踪+姿态识别+车道线识别+车牌识别)
50 1
|
9月前
|
机器学习/深度学习 计算机视觉
基于人工神经网络的车牌识别系统的研究(Matlab代码实现)
基于人工神经网络的车牌识别系统的研究(Matlab代码实现)
123 1
基于人工神经网络的车牌识别系统的研究(Matlab代码实现)
|
4月前
|
机器学习/深度学习 算法 决策智能
微美全息开发RPSSC技术在高光谱图像分类领域取得重要突破
随着高光谱遥感技术的发展,对于高光谱图像的更加精准的处理需求逐渐增加。在农业、环境监测、资源管理等领域,对高光谱图像进行准确分类是实现智能决策和资源优化利用的基础。
|
11月前
|
固态存储 算法 数据挖掘
目标检测框架在目标跟踪中的应用
从SiamRPN将跟踪问题定义为one-shot detection任务之后,出现了大量将检测组件由于跟踪的研究。不过Siamese系列一个很大的问题在于其本质仍然是一个模板匹配问题,网络关注的是寻找与target相似的东西,而忽视了区分target和distractor的判别能力,这正是目标检测任务所擅长的。目标检测和目标跟踪的关键差异在于检测是一个class-level的任务,而跟踪是一个instance-level的任务(即检测只关注类间差异而不重视类内差异,跟踪需要关注每一个实例,同时跟踪的类别是不可知的)。
81 0
|
机器学习/深度学习 存储 人工智能
目标跟踪 | 3D目标跟踪高级入门!
在本文中,我将探讨3D跟踪领域,并向您展示如何设计一个3D目标跟踪系统。我们将从平面的2D 开始,然后转移到3D,将看到2D 和3D 跟踪之间的区别。
目标跟踪 | 3D目标跟踪高级入门!
|
机器学习/深度学习 传感器 SQL
领域最全 | 计算机视觉算法在路面坑洼检测中的应用综述(基于2D图像/3D LiDAR/深度学习)(下)
本文首先介绍了用于2D和3D道路数据采集的传感系统,包括摄像机、激光扫描仪和微软Kinect。随后,对 SoTA 计算机视觉算法进行了全面深入的综述,包括: (1)经典的2D图像处理,(2)3D点云建模与分割,(3)机器/深度学习。本文还讨论了基于计算机视觉的路面坑洼检测方法目前面临的挑战和未来的发展趋势: 经典的基于2D图像处理和基于3D点云建模和分割的方法已经成为历史; 卷积神经网络(CNN)已经展示了引人注目的路面坑洼检测结果,并有望在未来的进展中打破瓶颈的自/无监督学习多模态语义分割。作者相信本研究可为下一代道路状况评估系统的发展提供实用的指导。
领域最全 | 计算机视觉算法在路面坑洼检测中的应用综述(基于2D图像/3D LiDAR/深度学习)(下)
|
机器学习/深度学习 传感器 数据采集
领域最全 | 计算机视觉算法在路面坑洼检测中的应用综述(基于2D图像/3D LiDAR/深度学习)(上)
本文首先介绍了用于2D和3D道路数据采集的传感系统,包括摄像机、激光扫描仪和微软Kinect。随后,对 SoTA 计算机视觉算法进行了全面深入的综述,包括: (1)经典的2D图像处理,(2)3D点云建模与分割,(3)机器/深度学习。本文还讨论了基于计算机视觉的路面坑洼检测方法目前面临的挑战和未来的发展趋势: 经典的基于2D图像处理和基于3D点云建模和分割的方法已经成为历史; 卷积神经网络(CNN)已经展示了引人注目的路面坑洼检测结果,并有望在未来的进展中打破瓶颈的自/无监督学习多模态语义分割。作者相信本研究可为下一代道路状况评估系统的发展提供实用的指导。
领域最全 | 计算机视觉算法在路面坑洼检测中的应用综述(基于2D图像/3D LiDAR/深度学习)(上)
|
机器学习/深度学习 编解码 人工智能
90+目标跟踪算法&九大benchmark!基于判别滤波器和孪生网络的视觉目标跟踪:综述与展望(下)
视觉目标跟踪(VOT)是计算机视觉中的一个基本开放问题,任务是估计图像序列中目标的轨迹和状态。VOT具有广泛的应用,包括自动驾驶、机器人、智能视频监控、运动分析和医学成像。给定任意目标对象的初始状态,VOT中的主要挑战是学习在后续帧中搜索目标对象时使用的外观模型。近年来,由于引入了多种跟踪基准,如TrackingNet、VOT2018和GOT-10K,VOT受到了极大的关注。尽管最近取得了进展,VOT仍然是一个开放的研究问题,可能比以往任何时候都更加活跃。
90+目标跟踪算法&九大benchmark!基于判别滤波器和孪生网络的视觉目标跟踪:综述与展望(下)
|
机器学习/深度学习 编解码 人工智能
90+目标跟踪算法&九大benchmark!基于判别滤波器和孪生网络的视觉目标跟踪:综述与展望(上)
视觉目标跟踪(VOT)是计算机视觉中的一个基本开放问题,任务是估计图像序列中目标的轨迹和状态。VOT具有广泛的应用,包括自动驾驶、机器人、智能视频监控、运动分析和医学成像。给定任意目标对象的初始状态,VOT中的主要挑战是学习在后续帧中搜索目标对象时使用的外观模型。近年来,由于引入了多种跟踪基准,如TrackingNet、VOT2018和GOT-10K,VOT受到了极大的关注。尽管最近取得了进展,VOT仍然是一个开放的研究问题,可能比以往任何时候都更加活跃。
90+目标跟踪算法&九大benchmark!基于判别滤波器和孪生网络的视觉目标跟踪:综述与展望(上)
|
机器学习/深度学习 传感器 算法
【目标跟踪】基于扩展卡尔曼滤波器的多机器人定位算法研究附matlab代码
【目标跟踪】基于扩展卡尔曼滤波器的多机器人定位算法研究附matlab代码

热门文章

最新文章