Delphi的DirectShow开发概述

2021-01-30 01:15

阅读:488

标签:func   tst   标示   inf   erer   匹配   编辑   pushd   any   

第一部分:背景知识
 
DirectShow是微软公司提供的一套在Windows平台上进行流媒体处理的开发包,与DirectX开发包一起发布。它经过DirectX 6.0中的DirectX Media发展而来,集成了DirectX家族中的其他成员(DirectDraw、DirectSound等),可以说是一位“集大成者”。            

DirectShow能做些什么? DirectShow为多媒体流的捕捉和回放提供了强有力的支持。运用DirectShow,可以很方便地从支持WDM驱动模型的采集卡上捕获数据,并且进行相应的后期处理乃至存储到文件中。它广泛地支持各种媒体格式,包括Asf、Mpeg、Avi、Dv、Mp3、Wave等等,使得多媒体数据的回放变得轻而易举。另外,DirectShow直接支持DVD的播放,视频的非线性编辑,以及与数字摄像机的数据交换。更值得一提的是,DirectShow提供的是一种开放式的开发环境,每个功能模块都采取COM组件方式,称为Filter,开发者也可以开发自己的功能Filter来扩展DirectShow的应用。按照功能来划分,Filter分为3类:Source Filter, Transform Filter, Rendering Filter。前者负责获取数据,数据源可以是文件、数字摄像机等,然后将数据往下传输;中间者负责数据的格式转换,比如数据流的分离与合成、编码解码等,然后把数据继续往下传输;后者负责数据的去向——给声卡、显卡进行播放或者输出到文件存储。
 
第二部分核心技术
 
DirectShow的开发实际就是Filter的开发,DirectShow自身提供了,下面就是Filter概述。
 
1、DirectShow的 Filter
Filter 一般分为下面几种类型。

  (1)源过滤器(source filter):源过滤器引入数据到过滤器图表中,数据来源可以是文件、网络、照相机等。不同的源过滤器处理不同类型的数据源。

  (2)变换过滤器(transform filter):变换过滤器的工作是获取输入流,处理数据,并生成输出流。变换过滤器对数据的处理包括编解码、格式转换、压缩解压缩等。

  (3)提交过滤器(renderer filter):提交过滤器在过滤器图表里处于最后一级,它们接收数据并把数据提交给外设。

  (4)分割过滤器(splitter filter):分割过滤器把输入流分割成多个输出。例如,AVI分割过滤器把一个AVI格式的字节流分割成视频流和音频流。

  (5)混合过滤器(mux filter):混合过滤器把多个输入组合成一个单独的数据流。例如,AVI混合过滤器把视频流和音频流合成一个AVI格式的字节流。

  过滤器的这些分类并不是绝对的,例如一个ASF读过滤器(ASF Reader filter)既是一个源过滤器又是一个分割过滤器。

2、关于Filter Graph Manager

  Filter Graph Manager也是一个com对象,用来控制Filter graph中的所有的filter,主要有以下的功能:

  1) 用来协调filter之间的状态改变,从而使graph 中的所有的filter的状态的改变应该一致。

  2) 建立一个参考时钟。

  3) 将filter 的消息通知返回给应用程序

  4) 提供用来建立 filter graph的方法。

      简单描述,Graph就是各个Filter组成的一个流程图。
 
      SourceFilter----|-----SpliterFilter-------------(Video-pin)>-----TransFormFilter--->VideoRender
 
                                           |---------------------(Audio-pin)->----ACMWraperFilter--->DirectSoundFilter
 
程序启动过程,先创建各个filter的com对象,然后使用FilterGraph.Addfilter加入到Graph中,然后把每个Filter按照
 
数据流把OutPin和inpuin连接起来。最好启动FilterGraph.play即可。
 

  Directshow是基于模块化,每个功能模块都采取COM组件方式,称为Filter。Directshow提供了一系列的标准的模块可用于应用开发,开发者也可以开发自己的功能Filter来扩展Directshow的应用。下面我们用一个例子来说明如何采取Filter来播放一个AVI的视频文件。

  1) 首先从一个文件中读取AVI数据,形成字节流。(这个工作由源Filter完成)

  2) 检查AVI数据流的头格式,然后通过AVI分割Filter将视频流和音频流分开。

  3) 解码视频流,根据压缩格式的不同,选取不同的decoder filters 。

  4) 通过Renderer Filter重画视频图像。

  5) 音频流送到声卡进行播放,一般采用缺省的 DirectSound Device Filter。
 
 
 
状态改变,Graph中的filter的状态改变应该一致,因此,应用程序并将状态改变的命令直接发给filter,而是将相应的状态改变的命令发送给Filter graph Manager,由manager将命令分发给graph中每一个filter。Seeking也是同样的方式工作,首先由应用程序将seek命令发送到filter graph 管理器,然后由其分发给每个filter。

  参考时钟,graph中的filter都采用的同一个时钟,称为参考时钟(reference clock),参考时钟可以确保所有的数据流同步,视频桢或者音频桢应该被提交的时间称为presentation time.presentation time 是相对于参考时钟来确定的。Filter graph Manager应该选择一个参考时钟,可以选择声卡上的时钟,也可以选择系统时钟。

  Graph事件, Graph 管理器采用事件机制将graph中发生的事件通知给应用程序,这个机制类似于windows的消息循环机制。

  Graph构建的方法,graph管理器给应用程序提供了将filter添加进graph的方法,连接filter的方法,断开filter连接的方法。

  但是,graph 管理器没有提供如何将数据从一个filter发送到另一个filter的方法,这个工作是由filter在内部通过pin来独立完成的。
 
3、媒体类型

  因为Directshow是基于com组件的,就需要有一种方式来描述filter graph每一个点的数据格式,例如,我们还以播放AVI文件为例,数据以RIFF块的形式进入graph中,然后被分割成视频和音频流,视频流有一系列的压缩的视频桢组成,解压后,视频流由一系列的无压缩的位图组成,音频流也要走同样的步骤。
 
媒体类型是一种很普遍的,可以扩展的用来描述数字媒体格式的方法,当两个filter连接的时候,他们会就采用某一种媒体类型达成一致的协议。媒体类型定义了处于源头的filter将要给下游的filter发送什么样的数据,以及数据的physical layout。如果两个filter不能够支持同一种的媒体类型,那么他们就没法连接起来。

  对于大多数的应用来说,也许你不用考虑媒体类型,但是,有些应用程序中,你会直接应用到媒体类型的。

  媒体类型是通过AM_MEDIA_TYPE结构定义的。
 
Filters通过pin的连接来传递数据,数据流是从一个filter的输出pin流向相连的filter的输入pin。输出pin常用的传递数据的方式是调用输入pin上的IMemInputPin::Receive方法。
 
对于filter来说,可以有好几种方式来分配媒体数据使用的内存块,可以在堆上分配,可以在DirectDraw的表面,也可以采用GDI共享内存,还有其他的一些方法,在Directshow中用来进行内存分配任务的是内存分配器(allocator),也是一个COM对象,暴露了一个IMemAllocator接口。

  当两个pin连接的时候,必须有一个pin提供一个allocator,Directshow定义了一系列函数调用用来确定由哪个pin提供allocator,以及buffer的数量和大小。

  在数据流开始之前,allocator会创建一个内存池(pool of buffer),在开始发送数据流以后,源filter就会将数据填充到内存池中一个空闲的buffer中,然后传递给下面的filter。但是,源filter并不是直接将内存buffer的指针直接传递给下游的filter,而是通过一个media samples的COM对象,这个sample是allocator创建的用来管理内存buffer。Media sample暴露了IMediaSample接口,一个sample包含了下面的内容:

  一个指向没有发送的内存的指针。

  一个时间戳

  一些标志

  媒体类型。

  时间戳表明了presentation time,Renderer filter就是根据这个时间来安排render顺序的。标志是用来标示数据是否中断等等,媒体类型提供了中途改变数据格式的一种方法,不过,一般sample没有媒体类型,表明它们的媒体类型一直没有改变。

  当一个filter正在使用buffer,它就会保持一个sample的引用计数,allocator通过sample的引用计数用来确定是否可以重新使用一个buffer。这样就防止了buffer的使用冲突,当所有的filter都释放了对sample的引用,sample才返回到allocator的内存池,供重新使用
 
基于Delphi的DirectShow开发概述2
 
MajorType:主要类型;例如视频,音频,还是位流
subType  :  辅助说明类型,例如视频中的YUV12,还是UYVY等等
formatType: 格式描述,更为细节的结构体。例如,视频大小,频率,帧率等,
            可以使用FORMAT_VIDEOINFO(VIDEOINFOHEADER),FORMAT_WAVEFORMATEX(WAVEFORMATEX)结构体来描述
//PAMMediaType
当使用AM_MEDIA_TYPE数据结构来描述媒体类型的时候,如果MajorType,subType,formatType都指定了GUID,那么
这就是完全媒体类型。
 
***************************************Filter的连接************************************
   Filter的连接实际上就是Pin的连接。连接方向总是由上一级的Filter(UpStream Filter)的输出Pin指向下一级
Filter(DownStream Filter)的输入Pin。
 
1.Filter连接过程
  Pin也是一种COM接口。实现了IPIN的接口。一般通过调用(下面的函数来连接):
  IFilterGraph.ConnectDirect,IGraphBuilder.Connect,IGraphBuilder.Render,IGraphBuilder.RenderFile
 
  { 下面就是个范例,一般Filter是在停止状态下连接的。
 
      //连接  source -> MPEG1Spliter
    Source.FindPin(StringToOLEStr(‘Output‘), OutPin);
    MPEG1Splitter.FindPin(StringToOLEStr(‘Input‘), inPin);
    hr := (FilterGraph1 as IGraphBuilder).Connect(OutPin, InPin);
    if FAILED(hr) then begin
      ShowMessage(‘Failed connect mpg Source -> MPEG1Splitter‘);
      exit;
    end;
   }
 
2.FilterGraph构建的方法
  1)IFilterGraph.AddFilter   该参数提供一个Filter对象,将其加入到FilterGraph中.
  2)IFilterGraph.ConnectDirect  该参数提供输出Pin,输入Pin以及媒体类型,进行直接连接
  3)IGraphBuilder.AddSourceFilter 该参数提供源文件名,自动将一个SourceFilter加载到FilterGraph中
  4)IGraphBuilder.Connect 该参数提供输出Pin,输入Pin以及媒体类型,进行连接,如果失败,自动尝试在中间加入必要的格式转换Filter
  5)IGraphBuilder.Render 该参数提供输出Pin,自动间加入必要的Filter完成剩下的部分FilterGraph的构建(直到连到RenderFilter上)
  6)IGraphBuilder.Render 该参数提供源文件名,自动间加入必要的Filter完成这个文件的回放
 
  {
    //下面范例,表示该FilterGraph中有6个Filter,他们都是由COM对象创建而来。
 var
    Source        : IBaseFilter;
    MPEG1Splitter : IBaseFilter;
    MpegVcodec    : IBaseFilter;
    AviDec        : IBaseFilter;
    AviDest       : IBaseFilter;
    Writer        : IBaseFilter;
    hr            : HRESULT;
    OutPin, InPin : IPin;
    begin
    CoCreateInstance(CLSID_AsyncReader, nil, CLSCTX_INPROC,IID_IBaseFilter, Source); //典型的拉模式
    CoCreateInstance(CLSID_MPEG1Splitter, nil, CLSCTX_INPROC,IID_IBaseFilter, MPEG1Splitter); //MPEG1格式
    CoCreateInstance(CLSID_CMpegVideoCodec, nil, CLSCTX_INPROC,IID_IBaseFilter, MpegVcodec);  //MPEG编码
    CoCreateInstance(CLSID_AVIDec, nil, CLSCTX_INPROC,IID_IBaseFilter, AviDec);    //AVI解码
    CoCreateInstance(CLSID_AviDest, nil, CLSCTX_INPROC, IID_IBaseFilter, AviDest);  //AVI目标
    CoCreateInstance(CLSID_FileWriter, nil, CLSCTX_INPROC,IID_IBaseFilter, Writer);  //写文件
  
     (FilterGraph1 as IFilterGraph).AddFilter(Source, ‘Source‘);
     (FilterGraph1 as IFilterGraph).AddFilter(MPEG1Splitter, ‘MPEG1Splitter‘);
     (FilterGraph1 as IFilterGraph).AddFilter(MpegVcodec, ‘MpegVcodec‘);
     (FilterGraph1 as IFilterGraph).AddFilter(AviDec, ‘AviDec‘);
     (FilterGraph1 as IFilterGraph).AddFilter(AviDest, ‘AviDest‘);
     (FilterGraph1 as IFilterGraph).AddFilter(Writer, ‘Writer‘);
   end;
  } 
 
3. 一般使用GraphEdit可以查看到目前正常安装在系统中的Filter,如果是安装在DirectShow目录下的可以通过指定CLSID
   用CoCreateInstance来创建。在其它目录下的,必须通过系统枚举来创建。
   系统提供了一个CLSID_SystemDeviceEnum,用CoCreateInstance创建,并获取ICreateDevEnum接口。然后
   使用ICreateDevEnum.CreateClassEnumerator为指定的类型目录创建一个枚举器,并获得IEnumMoniker接口。
   使用IEnumMoniker.next方法,媒体该目录下所有可用设备标识(Device Moniker),每个设备标识对象上都实现了Imoniker接口
   调用Imoniker.bindtoStorage之后就可以访问设备标识属性集。比如得到设备的显示名字。
   调用Imoniker.BindToObject可以将设备标识绑定成一个DirecshowFilter,然后调用IFilterGraph.addFilter加入FilterGraph
   参加工作。
  
   DirectShow通常有两个名字:显示名字例如:@device:cm:{33D9A760-90C8-11D0-BD43-00A0C911CE86}\xvid
                             友好名字例如:xvid mpeg4 decoder
   {下面就是调用代码
       
    var
      i, j: integer;
      AMoniker, MyMoniker: IMoniker;
      PropBag: IPropertyBag;
      AVariant: OleVariant;
      CLSID: TGUID;
      Found: boolean;
    begin
      for i := 0 to SysDevEnum.CountCategories - 1 do
        cbCategories.Items.Add(SysDevEnum.Categories[i].FriendlyName); //SysDevEnum:TSysDevEnum;
      Found := false;
      j := 0;
      MyMoniker := Filter.BaseFilter.Moniker;
      if MyMoniker = nil then exit;
      MyMoniker.BindToStorage(nil,nil,IPropertyBag, PropBag);
      if PropBag.Read(‘CLSID‘,AVariant,nil) = S_OK then
           CLSID := StringToGUID(AVariant)
      else CLSID := GUID_NULL;
      for i := 0 to SysDevEnum.CountCategories - 1 do
      begin
        SysDevEnum.SelectIndexCategory(i);
        if SysDevEnum.CountFilters > 0 then
          for j := 0 to SysDevEnum.CountFilters - 1 do
          begin
            if IsEqualGUID(CLSID, SysDevEnum.Filters[j].CLSID) then
              begin
                AMoniker := SysDevEnum.GetMoniker(j);
                Found := AMoniker.IsEqual(MyMoniker) = S_OK;
                AMoniker := nil;
              end;
            if Found then Break;
          end;
        if Found then
        begin
          cbCategories.ItemIndex := i;
          cbCategoriesChange(nil);
          lbFilters.ItemIndex := j;
          lbFiltersClick(nil);
          break;
        end;
      end;
      PropBag := nil;
      MyMoniker := nil;
  
   }
  
  PAMMediaType = ^TAMMediaType;
  _AMMediaType = record
    majortype            : TGUID;
    subtype              : TGUID;
    bFixedSizeSamples    : BOOL;
    bTemporalCompression : BOOL;
    lSampleSize          : ULONG;
    formattype           : TGUID;
    pUnk                 : IUnknown;
    cbFormat             : ULONG;
    pbFormat             : Pointer;
  end;
 
Filter开发基础----基类分析
 1)TBCBaseFilter
  TBCBaseFilter = class(TBCUnknown, IBaseFilter, IAMovieSetup)
  是最基本Filter的基类,使用方法:
  (1)声明一个新类继承自  TBCBaseFilter
  (2)在新类中定义一个Filter上Pin的实例。(Pin从TBCBasePin继承)
  (3)实现纯虚函数TBCBaseFilter.GetPin,用于返回Filter上各个Pin的对象指针
  (4)实现纯虚函数TBCBaseFilter.GetPinCount,用于返回Filter上Pin的数量
  (5)考虑如何处理从输入Pin进来的Sample数据
 
 
  2)TBCBasePin
   TBCBasePin实现了PIn接口,TBCBasePin设计了Pin的整个连接过程。也实现了IQualityControl质量控制接口。
   在TBCBasePin上实现了3个成员函数与Filter状态对应。
    (1) Filter.Stopped   TBCBasePin.Inactive
    (2) Filter.Spaused   TBCBasePin.active
    (3) Filter.Running   TBCBasePin.Run
    在实际开发Filter时,有可能重写该3个函数,用来初始化和释放必要资源。实现方法:
    (1)从TBCBasePin派生一个子类
    (2)实现纯虚函数TBCBasePin.CheckMediaType,进行Pin连接时媒体类型检测
    (3)实现纯虚函数TBCBasePin.GetMediaType,提供Pin上的首先媒体类型
    (4)实现Ipin.BeginFlush和IPin.EndFlush两个函数
    (5)可能需要重写的函数包括。TBCBasePin.Inactive,TBCBasePin.active,TBCBasePin.Run,
         TBCBasePin.CheckConnect(连接的时候检查,如查询对方Pin上是否支持某个特殊接口),
         TBCBasePin.BreakConnect(断开连接,并进行必要的资源释放),
         TBCBasePin.CompleteConnect(完成连接时被调用,可以在这个函数中获得当前连接用的媒体类型等参数),
         TBCBasePin.EndOfStream(当上流数据全部传送完毕后被调用,如果这是个TransformFilter则将继续往下送,
                                如是个RenderFilter,则需要向FilterGraph发送一个EC_COMPLETE事件)
         TBCBasePin.Notify(直接响应质量控制,或者将质量控制消息往上一级Filter发送)
        
  3)TBCBaseInputPin和TBCBaseOutputPin
    TBCBaseInputPin和TBCBaseOutputPin都是从TBCBasePin派生而来,
    TBCBaseInputPin实现了ImeminputPin(用于推模式的数据传送)
    TBCBaseOutputPin主要完成了传送数据所用的Sample管理器(Allocate)的协商,并重写了TBCBasePin.active(用于
    实际的Sample内存分配),TBCBasePin.inactvie(用于Sample内存的释放)。
   
    TBCBaseInputPin使用方法(派生一个子类,并且至少重写如下函数):
    (1) TBCBaseInputPin.BeginFlush
    (1) TBCBaseInputPin.EndFlush
    (1) TBCBaseInputPin.Receive
    (1) TBCBaseInputPin.CheckMediaType(一般在输出Pin上实现该函数)
    (1) TBCBaseInputPin.GetMediaType
   
    TBCBaseOutputPin使用方法(派生一个子类,并且至少重写如下函数):
    (1)重写TBCBasePin.CheckMediaType进行连接时的媒体类型检查
    (2)实现纯虚函数TBCBaseOutputPin.DecideBufferSize,决定Sample内存的大小
    (3)重写纯虚函数TBCBasePin.GetMediaType,提供Pin上的首先媒体类型
   
    4)TBCMediaType
      TBCMediaType用于数据传输的Sample的实现类,TBCMediaType实现了IMediaSample2的接口,TBCMediaType封装了
      一个指向一块内存的指针,通过TBCMediaType.GetPointer得到
 
    5)TBCSourceStream = class(TBCBaseOutputPin)
    提供了“推”(Push)的能力,实现了一个线程(TBCAMThread),Sample数据就是靠这个线程向下一级Filter发送的。
    实现方法:
    (1)从TBCSourceStream派生一个子类作为Pin
    (2)实现纯虚函数TBCSourceStream.CheckMediaType,进行Pin连接时媒体类型检测
    (3)实现纯虚函数TBCSourceStream.GetMediaType,提供Pin上的首先媒体类型
    (4)实现TBCBaseOutputPin.DecideBufferSize,决定Sample内存大小,在Pin连接时会执行
    (5)实现TBCSourceStream.FillBuffer,为即将传送出去的Sample填充数据
    (6)可选地实现TBCSourceStream.OnThreadCreate,
                   TBCSourceStream.OnThreadDestroy,
                   TBCSourceStream.OnThreadStartPlay 等函数,进行适当时机的初始化,资源管理等操作。
         
    6)TBCTransformFilter
    实现了媒体类型的转换,主要实现如下函数:
    (1)TBCTransformFilter.CheckInputType
    (2)TBCTransformFilter.CheckTransForm
    (3)TBCTransformFilter.DecideBufferSize
    (4)TBCTransformFilter.GetMediaType
    (5)TBCTransformFilter.TransForm
   
    7)TBCTransinPlaceFilter
    是一个“就地”处理的转换Filter。
   
    8)TBCVideoTransformFilter
    一个视频质量控制的基类。通过输入Pin上的Receive函数接收Sample时,能够根据质量消息决定是否丢帧,这个类
    主要是为开发AVI解码Filter而设计的。使用方法基本和TBCTransformFilter相同。
   
    9)TBCBaseRenderer
    默认实现使用TBCRenderInutPin类的输入Pin。还实现了IMediaSeeking和IMediaPosition接口。使用方法:
    (1)实现TBCBaseRenderer.CheckMediaType,用于检查输入Pin连接用的媒体类型
    (2)实现TBCBaseRenderer.DoRenderSample,处理当前的Sample
    如果我们不处理Sample,需要写文件,基类可以选择从TBaseFilter,而此时输入Pin最好选择从TBCRenderInputIn
    派生类。
   
    10)TBCBaseVideoRenderer
    实现了VideoFilter基类,其中实现了IQualityControl用于视频质量控制,IQualProp用于在Filter属性页显示一些
    实时性能参数。使用方法与TBCBaseRenderer相同。
 
基于Delphi的DirectShow开发概述3
 
    Delphi设计Directshow其实也是比较简单的,看了前面两个概述,相信你也会明白一些了,问题就是你要有什么杨的需求,然后根据需求来选择合适的Filter基类,从基类(BassFilter)继承下来后,只需要覆盖指定的函数就可以了。
 
   例如我们要设计一个屏幕(Desktop)捕获的的Filter,每秒捕获大概10帧(10副抓屏bitmap),这个明显需要实现Push下推的功能,因此我们可以选择从TBCSourceStream基类派生一个子类,然后实现如下几个函数即可:
 
    //GetMediaType函数是下级Filter在和本Filter连接时在下级InpuPin接口上调用的
 
    function GetMediaType(iPosition: Integer; out MediaType: PAMMediaType): HResult; override;
 

    //实现虚函数CheckMediaType,实现接受8, 16, 24 or 32 RGB位视频格式
    //如果媒体格式不能接受,则返回E_INVALIDARG
    function CheckMediaType(MediaType: PAMMediaType): HResult; override;
 
    //在本Filter的OutPutPin接口和下级InputPin接口协商时调用的,主要用来协商每个Sample的大小
    function DecideBufferSize(Allocator: IMemAllocator;Properties: PAllocatorProperties): HRESULT; override;
 
    //设置视频媒体参数,在初始化Filter时调用
    function SetMediaType(MediaType: PAMMediaType): HRESULT; override;
 
   //以上几个函数是在和下级Filter进行接口连接和协商时调用,FillBuffer函数则是由本Filter内置线程按一定时间
 
   //间隔调用,这里当然是把抓屏的Bitmap数据填充到Sample中,推给下一级。
    function FillBuffer(Sample: IMediaSample): HResult; override;
 

    //实现虚函数,质量控制功能
    function Notify(Filter: IBaseFilter; q: TQuality): HRESULT; override; stdcall;
 
 
 
具体代码分析如下:
 
  CLSID_PushSourceDesktop: TGUID = ‘{570757C1-D2D8-42D1-BA0C-24E1BED3F62F}‘; //PushFilter注册名
 
  //Pin注册类型结构
  TRegPinTypes = record
    clsMajorType: PGUID;
    clsMinorType: PGUID;
  end;
 
  //Setup信息结构
  sudPinTypes: TRegPinTypes =
  (
    //视频流的类型
    clsMajorType: @MEDIATYPE_Video;
    //所用可用类型
    clsMinorType: @MEDIASUBTYPE_NULL
  );
 
  //Filter注册Pin接口信息结构
  TRegFilterPins = record
    strName          : PWideChar;
    bRendered        : BOOL;
    bOutput          : BOOL;
    bZero            : BOOL;
    bMany            : BOOL;
    oFilter          : PGUID;
    strConnectsToPin : PWideChar;
    nMediaTypes      : LongWord;
    lpMediaType      : PRegPinTypes;
  end;
 
  //定义实例
   sudOutputPinDesktop: array[0..0] of TRegFilterPins =
  (
    (
    strName: ‘Output‘; // Pin名称
    bRendered: FALSE;  //是否是Render
    bOutput: TRUE;     //是否是输出接口
    bZero: FALSE;      //是否允许为0
    bMany: FALSE;      //是否有更多
    oFilter: nil;             //连接的Filter
    strConnectsToPin: nil;    //连接的Pin
    nMediaTypes: 1;           //支持类型数量
    lpMediaType: @sudPinTypes // Pin信息
    )
  );
 
  DefaultFrameLength: TReferenceTime = FPS_10; //由参考时钟确定FPS_10=1000000
  PushDesktopName: WideString = ‘_ PushSource Desktop Filter‘; //PushFilter友好名
 
  //Pin接口类封装,继承TBCSourceStream  TBCPushPinDesktop = class(TBCSourceStream)
  protected   
    FFramesWritten  : Integer;  //在播放文件的时候跟踪当前位置   
    FZeroMemory     : Boolean;  //是否必须清零Buffer   
    FSampleTime     : TRefTime; //每个Sample一个时间戳
    FFrameNumber    : Integer;  //已经显示了多少帧了
    FFrameLength    : TReferenceTime; //一帧的耗费时间
    FScreenRect     : TRect;          //包含需要捕获的视频框
    FImageHeight,                     //当前图像高
    FImageWidth,                      //当前图像宽     
    FRepeatTime,                      //每帧之间重复时间 Time in msec between frames     
    FCurrentBitDepth: Integer;        //屏幕色彩位
    FMediaType      : TAMMediaType;   //媒体类型   
    FSharedState    : TBCCritSec;     //临界区在资源共享中实现线程同步
  public
    constructor Create(out hr: HResult; Filter: TBCSource);
    destructor Destroy; override;
    //实现虚函数,提供一个精确的媒体类型
    function GetMediaType(iPosition: Integer; out MediaType: PAMMediaType): HResult; override;
    //实现虚函数,实现接受8, 16, 24 or 32 RGB位视频格式
    //如果媒体格式不能接受,则返回E_INVALIDARG
    function CheckMediaType(MediaType: PAMMediaType): HResult; override;
    function DecideBufferSize(Allocator: IMemAllocator;Properties: PAllocatorProperties): HRESULT; override;
    function SetMediaType(MediaType: PAMMediaType): HRESULT; override;
    function FillBuffer(Sample: IMediaSample): HResult; override;
    //实现虚函数,质量控制功能
    function Notify(Filter: IBaseFilter; q: TQuality): HRESULT; override; stdcall;
  end;
 
  //PushFilter的类封装,继承自TBCSource  //把桌面抓屏图像作为连续视频流
  TBCPushSourceDesktop = class(TBCSource)
  private
    FPin: TBCPushPinDesktop;
  public
    constructor Create(ObjName: string; Unk: IUnKnown; out hr: HRESULT);
    constructor CreateFromFactory(Factory: TBCClassFactory; const Controller: IUnknown); override;
    destructor Destroy; override;
  end;
 
//TBCPushPinDesktop析构函数
constructor TBCPushPinDesktop.Create(out hr: HResult; Filter: TBCSource);
  var
    DC: HDC;
begin
   inherited Create(‘_ Push Source Desktop‘, hr, Filter, ‘Out‘);
   FFramesWritten   := 0;
   FZeroMemory      := False;
   FFrameNumber     := 0;
   FFrameLength     := FPS_5;
   FSharedState     := TBCCritSec.Create;
   FCurrentBitDepth := 32;
 
  //这里关键是显示如何获取DIB图像,使用内存方式,把DIB图像插入到视频流
 
  //为了尽可能保持Samle采样,我们就需要从一个文件中读取图像,把它插入到发送下行接口流中
 
  //获取需要显示设备context上下文
  DC := CreateDC(‘DISPLAY‘, nil, nil, nil);
 
  //获取主桌面窗口的尺寸
  FScreenRect.Left   := 0;
  FScreenRect.Top    := 0;
  FScreenRect.Right  := GetDeviceCaps(DC, HORZRES);
  FScreenRect.Bottom := GetDeviceCaps(DC, VERTRES);
 
  //保持该尺寸,为后面填充Buffer使用
  FImageWidth := FScreenRect.Right - FScreenRect.Left;
  FImageHeight := FScreenRect.Bottom - FScreenRect.Top;
 
  //释放资源
  DeleteDC(DC);
 
  hr := S_OK;
end;
 
destructor TBCPushPinDesktop.Destroy;
begin
{$IFDEF DEBUG}
  DbgLog(self, Format(‘Frames written %d‘, [FFrameNumber]));
{$ENDIF}
  inherited;
end;
 

//参考的视频格式,8, 16 (*2), 24 or 32 bits per pixel
//参考这些类型,选择更高的质量控制
// Therefore, iPosition =
//      0    Return a 32bit mediatype
//      1    Return a 24bit mediatype
//      2    Return 16bit RGB565
//      3    Return a 16bit mediatype (rgb555)
//      4    Return 8 bit palettised format
//      >4   Invalid
{
  PVideoInfo = ^TVideoInfo;
  tagVIDEOINFO = record
    rcSource: TRect;                   // 我们实际需要使用的位(在整个窗口中的Sub窗口)
    rcTarget: TRect;                   // 该视频音频去哪
    dwBitRate: DWORD;                  // 近似位率
    dwBitErrorRate: DWORD;             // 错位率
    AvgTimePerFrame: TReferenceTime;   // 每帧的平均时间(100ns units)
    bmiHeader: TBitmapInfoHeader;      //位图信息头,解码为RGB后可以形成一个Bitmpa图像
    case Integer of
    0: (
      bmiColors: array[0..iPALETTE_COLORS-1] of TRGBQuad //调色板
      );
    1: (
      dwBitMasks: array[0..iMASK_COLORS-1] of DWORD      //真彩色掩码
      );
    2: (
      TrueColorInfo: TTrueColorInfo                      //两者都有
      );
  end;
 
  PAMMediaType = ^TAMMediaType;
  _AMMediaType = record
    majortype            : TGUID;
    subtype              : TGUID;
    bFixedSizeSamples    : BOOL;
    bTemporalCompression : BOOL;
    lSampleSize          : ULONG;
    formattype           : TGUID;
    pUnk                 : IUnknown;
    cbFormat             : ULONG;
    pbFormat             : Pointer;
  end;

function TBCPushPinDesktop.GetMediaType(iPosition: Integer; out MediaType: PAMMediaType): HResult;
var
  pvi: PVIDEOINFO;
  i: Integer;
begin
  FFilter.StateLock.Lock;
  try
    if (MediaType = nil) then
    begin
      Result := E_POINTER;  //指针错误
      Exit;
    end;
 
    if (iPosition     begin
      Result := E_INVALIDARG; //无效的位置
      Exit;
    end;
 
    //是否从类型结束处开始 Have we run off the end of types?
    if (iPosition > 4) then
    begin
      Result := VFW_S_NO_MORE_ITEMS; 
      Exit;
    end;
 
    MediaType.cbFormat := SizeOf(TVideoInfo);  //视频类型
    pvi := CoTaskMemAlloc(MediaType.cbFormat); //为媒体类型结构体分配内存
    if (pvi = nil) then
    begin
      Result := E_OUTOFMEMORY;
      Exit;
    end;
 
    ZeroMemory(pvi, MediaType.cbFormat);
 
    case iPosition of
      0:
        begin
          //返回32位格式的最高质量图像=RGB888
          pvi.bmiHeader.biCompression := BI_RGB; //无压缩RGB格式
          pvi.bmiHeader.biBitCount := 32;
        end;
      1:
        begin
          pvi.bmiHeader.biCompression := BI_RGB;
          pvi.bmiHeader.biBitCount := 24;
        end;
      2:
        begin
          //每像素16位=RGB565,把RGB掩码以DWord类型,放入调色板前三个地方
          for i := 0 to 2 do
            pvi.TrueColorInfo.dwBitMasks[i] := bits565[i];
 
          pvi.bmiHeader.biCompression := BI_BITFIELDS;
          pvi.bmiHeader.biBitCount := 16;
        end;
      3:
        begin
          //每像素16位=RGB555,把RGB掩码以DWord类型,放入调色板前三个地方
          for i := 0 to 2 do
            pvi.TrueColorInfo.dwBitMasks[i] := bits555[i];
 
          pvi.bmiHeader.biCompression := BI_BITFIELDS;
          pvi.bmiHeader.biBitCount := 16;
        end;
      4:
        begin
          //每像素8位,可以不带调色板子
          pvi.bmiHeader.biCompression := BI_RGB;
          pvi.bmiHeader.biBitCount := 8;
          pvi.bmiHeader.biClrUsed := iPALETTE_COLORS;
        end;
    end;
 
    //任何视频格式都必须调整下面参数
    pvi.bmiHeader.biSize := SizeOf(TBitmapInfoHeader);
    pvi.bmiHeader.biWidth := FImageWidth;
    pvi.bmiHeader.biHeight := FImageHeight;
    pvi.bmiHeader.biPlanes := 1;
    pvi.bmiHeader.biSizeImage := GetBitmapSize(@pvi.bmiHeader);
    pvi.bmiHeader.biClrImportant := 0;
 
    //清空源和目标框
    SetRectEmpty(pvi.rcSource);
    SetRectEmpty(pvi.rcTarget);
   
    //设置Majortype相关参数
    MediaType.majortype  := MEDIATYPE_Video;  //主类型为视频格式
    MediaType.formattype := FORMAT_VideoInfo; //格式类型为视频格式
    MediaType.bTemporalCompression := False;
    MediaType.bFixedSizeSamples := True;
 
    // 设置Subtype相关参数
    MediaType.subtype := GetBitmapSubtype(@pvi.bmiHeader);
    MediaType.pbFormat := pvi;
    MediaType.lSampleSize := pvi.bmiHeader.biSizeImage;
 
    Result := S_OK;
 
  finally
    FFilter.StateLock.UnLock;
  end;
end;
 
//检查我们是否支持该媒体类型
function TBCPushPinDesktop.CheckMediaType(MediaType: PAMMediaType): HResult;
var
  pvi: PVIDEOINFO;
  SubType: TGUID;
begin
  //我们仅仅需要输出该视频
  if not (IsEqualGUID(MediaType.majortype, MEDIATYPE_Video)) or
  not (MediaType.bFixedSizeSamples) then
  begin
    Result := E_INVALIDARG;
    Exit;
  end;
 
  //检查我们支持的子类型
  SubType := MediaType.subtype;
  if IsEqualGUID(SubType, GUID_NULL) then
  begin
    Result := E_INVALIDARG;
    Exit;
  end;
 
  if not (
    IsEqualGUID(SubType, MEDIASUBTYPE_RGB8) or
    IsEqualGUID(SubType, MEDIASUBTYPE_RGB565) or
    IsEqualGUID(SubType, MEDIASUBTYPE_RGB555) or
    IsEqualGUID(SubType, MEDIASUBTYPE_RGB24) or
    IsEqualGUID(SubType, MEDIASUBTYPE_RGB32)
    ) then
  begin
    Result := E_INVALIDARG;
    Exit;
  end;
 
  pvi := MediaType.pbFormat;
 
  if (pvi = nil) then
  begin
    Result := E_INVALIDARG;
    Exit;
  end;
 
  //检查图像尺寸是否改变,那么返回错误,以便重新调整图像大小
  if (pvi.bmiHeader.biWidth FImageWidth) or
    (abs(pvi.bmiHeader.biHeight) FImageHeight) then
  begin
    Result := E_INVALIDARG;
    Exit;
  end;
 
  //不接受负高度,超出屏幕外的不支持
  if (pvi.bmiHeader.biHeight   begin
    Result := E_INVALIDARG;
    Exit;
  end;
 
  Result := S_OK; //接受该格式
end;
 
// DecideBufferSize:在视频格式协商好后,每次都必须调用它,确定需要传输的的内存大小
function TBCPushPinDesktop.DecideBufferSize(Allocator: IMemAllocator;Properties: PAllocatorProperties): HRESULT;
var
  pvi: PVIDEOINFOHEADER;
  Actual: ALLOCATOR_PROPERTIES;
begin
  if (Allocator = nil) or (Properties = nil) then
  begin
    Result := E_POINTER;
    Exit;
  end;
 
  FFilter.StateLock.Lock;
  try
    pvi := AMMediaType.pbFormat;  //来自TBasePin接口的AMMediaType
 
    Properties.cBuffers := 1; //内存块数量
    Properties.cbBuffer := pvi.bmiHeader.biSizeImage; //内存块大小
    Assert(Properties.cbBuffer 0); //确保该cbBuffer0,否则会引发异常
 
    //通过allocator分配查询我们需要的Sample内存大小
    Result := Allocator.SetProperties(Properties^, Actual);
    if Failed(Result) then Exit;
 
    //实际需要的分配的内存和属性中定义的不匹配
    if (Actual.cbBuffer     begin
      Result := E_FAIL;
      Exit;
    end;
 
    //确保我们的实际内存块数量为1
    Assert(Actual.cBuffers = 1);
    Result := S_OK;
 
  finally
    FFilter.StateLock.UnLock;
  end;
end;
 
// SetMediaType,在两个Filter之间协商媒体类型时候,调用该函数
function TBCPushPinDesktop.SetMediaType(MediaType: PAMMediaType): HRESULT;
var
  pvi: PVIDEOINFOHEADER;
begin
  FFilter.StateLock.Lock;
  try
    //通过基类传递设置
    Result := inherited SetMediaType(MediaType);
 
    if Succeeded(Result) then
    begin
      pvi := AMMediaType.pbFormat;
 
      if (pvi = nil) then
      begin
        Result := E_UNEXPECTED;
        Exit;
      end;
 
      // 8-bit palettized,
      // RGB565, RGB555,
      // RGB24,
      // RGB32
      if pvi.bmiHeader.biBitCount in [8, 16, 24, 32] then
      begin
        //保存当前设定的媒体参数
        FMediaType := MediaType^;
        FCurrentBitDepth := pvi.bmiHeader.biBitCount;
      end else
      begin
        //除此之外不支持其它媒体类型
        Assert(False);
        Result := E_INVALIDARG;
      end;
    end;
 
  finally
    FFilter.StateLock.UnLock;
  end;
end;
 
//FillBuffer是在每次采集视频数据后调用,把数据写入到Stream中,传递给下一个Filter
//这个函数中为虚抽象函数,所以必须实现代码完成实际的视频数据填充,以便下传
function TBCPushPinDesktop.FillBuffer(Sample: IMediaSample): HResult;
var
  pData: PByte;
  cbData: Longint;
  hDib: HBitmap;
  pvih: PVIDEOINFOHEADER;
  Start, Stop: REFERENCE_TIME;
 
  function min(v1, v2: DWord): DWord;
  begin
    if v1       Result := v1
    else
      Result := v2;
  end;
 
begin
  if (Sample = nil) then
  begin
    Result := E_POINTER;
    Exit;
  end;
 
  FSharedState.Lock;
  try
    //获取Sample中视频数据内存指针(PData获取)
    Sample.GetPointer(pData);
    cbData := Sample.GetSize;
 
    //确认我们将要访问的视频格式,如果不合格将出现异常
    Assert(IsEqualGUID(AMMediaType.formattype, FORMAT_VideoInfo));
 
    pvih := AMMediaType.pbFormat;
 
    //复制DIB位图数据到输出Buffer
    //如果Sample的字节数大于真实图像字节,就限定复制的字节
    pVih.bmiHeader.biSizeImage := min(pVih.bmiHeader.biSizeImage, cbData);
    hDib := CopyScreenToBitmap(FScreenRect, pData, @pVih.bmiHeader);
 
    if (hDib 0) then  DeleteObject(hDib);
 
    //设置时间戳,可以给帧率回调函数使用
    //如果这个是用AVI格式写的,那么我们就需要配置AVI Mux Filter 来设定每帧的平均时间
    //当前时间
    Start := FFrameNumber * FFrameLength;
    Stop := Start + FFrameLength;
 
    Sample.SetTime(@Start, @Stop);
    Inc(FFrameNumber);
 
    //对于没有压缩的帧,都要设置为True,当作关键帧对待
    Sample.SetSyncPoint(True);
 
    Result := S_OK;
 
  finally
    FSharedState.UnLock;
  end;
end;
 
//返回质量控制,由于这时源头,所以可以收到来自render之间的各个Filter的Notify,
//最终反应在Filter(来自哪个),Q质量控制参数,可以通过这两个参数来调整帧率和质量
function TBCPushPinDesktop.Notify(Filter: IBaseFilter; q: TQuality): HRESULT;
begin
  Result := E_FAIL;
end;
 

{
  {$EXTERNALSYM CLSID_CVidCapClassManager} //BaseFilter目录类型
  //CLSID_LegacyAmFilterCategory: TGUID = (D1:$083863F1;D2:$70DE;D3:$11D0;D4:($BD,$40,$00,$A0,$C9,$11,$CE,$86));
}
 
initialization
  TBCClassFactory.CreateFilter(TBCPushSourceDesktop, PushDesktopName,
    CLSID_PushSourceDesktop, CLSID_LegacyAmFilterCategory,
    MERIT_DO_NOT_USE, 1, @sudOutputPinDesktop
    );
   
end.   

//由FillBuffer先填充Sample信息,然后由DecideBufferSize来真实的为视频数据分配内存,供下级Filter使用
//加载顺序由下级Filter的InputPin接口调用本OutPutPin接口的GetMediaType,
//然后调用OutPutPin接口的SetMediaType设定媒体格式,
//调用DecideBufferSize,协商内存大小
//启动后,不断调用FillBuffer填充Sample

Delphi的DirectShow开发概述

标签:func   tst   标示   inf   erer   匹配   编辑   pushd   any   

原文地址:https://www.cnblogs.com/jijm123/p/14339697.html


评论


亲,登录后才可以留言!