Delphi的DirectShow开发概述
2021-01-30 01:15
标签:func tst 标示 inf erer 匹配 编辑 pushd any 第一部分:背景知识 DirectShow能做些什么? DirectShow为多媒体流的捕捉和回放提供了强有力的支持。运用DirectShow,可以很方便地从支持WDM驱动模型的采集卡上捕获数据,并且进行相应的后期处理乃至存储到文件中。它广泛地支持各种媒体格式,包括Asf、Mpeg、Avi、Dv、Mp3、Wave等等,使得多媒体数据的回放变得轻而易举。另外,DirectShow直接支持DVD的播放,视频的非线性编辑,以及与数字摄像机的数据交换。更值得一提的是,DirectShow提供的是一种开放式的开发环境,每个功能模块都采取COM组件方式,称为Filter,开发者也可以开发自己的功能Filter来扩展DirectShow的应用。按照功能来划分,Filter分为3类:Source Filter, Transform Filter, Rendering Filter。前者负责获取数据,数据源可以是文件、数字摄像机等,然后将数据往下传输;中间者负责数据的格式转换,比如数据流的分离与合成、编码解码等,然后把数据继续往下传输;后者负责数据的去向——给声卡、显卡进行播放或者输出到文件存储。 (1)源过滤器(source filter):源过滤器引入数据到过滤器图表中,数据来源可以是文件、网络、照相机等。不同的源过滤器处理不同类型的数据源。 (2)变换过滤器(transform filter):变换过滤器的工作是获取输入流,处理数据,并生成输出流。变换过滤器对数据的处理包括编解码、格式转换、压缩解压缩等。 (3)提交过滤器(renderer filter):提交过滤器在过滤器图表里处于最后一级,它们接收数据并把数据提交给外设。 (4)分割过滤器(splitter filter):分割过滤器把输入流分割成多个输出。例如,AVI分割过滤器把一个AVI格式的字节流分割成视频流和音频流。 (5)混合过滤器(mux filter):混合过滤器把多个输入组合成一个单独的数据流。例如,AVI混合过滤器把视频流和音频流合成一个AVI格式的字节流。 过滤器的这些分类并不是绝对的,例如一个ASF读过滤器(ASF Reader filter)既是一个源过滤器又是一个分割过滤器。 2、关于Filter Graph Manager Filter Graph Manager也是一个com对象,用来控制Filter graph中的所有的filter,主要有以下的功能: 1) 用来协调filter之间的状态改变,从而使graph 中的所有的filter的状态的改变应该一致。 2) 建立一个参考时钟。 3) 将filter 的消息通知返回给应用程序 4) 提供用来建立 filter graph的方法。 简单描述,Graph就是各个Filter组成的一个流程图。 Directshow是基于模块化,每个功能模块都采取COM组件方式,称为Filter。Directshow提供了一系列的标准的模块可用于应用开发,开发者也可以开发自己的功能Filter来扩展Directshow的应用。下面我们用一个例子来说明如何采取Filter来播放一个AVI的视频文件。 1) 首先从一个文件中读取AVI数据,形成字节流。(这个工作由源Filter完成) 2) 检查AVI数据流的头格式,然后通过AVI分割Filter将视频流和音频流分开。 3) 解码视频流,根据压缩格式的不同,选取不同的decoder filters 。 4) 通过Renderer Filter重画视频图像。 5) 音频流送到声卡进行播放,一般采用缺省的 DirectSound Device Filter。 参考时钟,graph中的filter都采用的同一个时钟,称为参考时钟(reference clock),参考时钟可以确保所有的数据流同步,视频桢或者音频桢应该被提交的时间称为presentation time.presentation time 是相对于参考时钟来确定的。Filter graph Manager应该选择一个参考时钟,可以选择声卡上的时钟,也可以选择系统时钟。 Graph事件, Graph 管理器采用事件机制将graph中发生的事件通知给应用程序,这个机制类似于windows的消息循环机制。 Graph构建的方法,graph管理器给应用程序提供了将filter添加进graph的方法,连接filter的方法,断开filter连接的方法。 但是,graph 管理器没有提供如何将数据从一个filter发送到另一个filter的方法,这个工作是由filter在内部通过pin来独立完成的。 因为Directshow是基于com组件的,就需要有一种方式来描述filter graph每一个点的数据格式,例如,我们还以播放AVI文件为例,数据以RIFF块的形式进入graph中,然后被分割成视频和音频流,视频流有一系列的压缩的视频桢组成,解压后,视频流由一系列的无压缩的位图组成,音频流也要走同样的步骤。 对于大多数的应用来说,也许你不用考虑媒体类型,但是,有些应用程序中,你会直接应用到媒体类型的。 媒体类型是通过AM_MEDIA_TYPE结构定义的。 当两个pin连接的时候,必须有一个pin提供一个allocator,Directshow定义了一系列函数调用用来确定由哪个pin提供allocator,以及buffer的数量和大小。 在数据流开始之前,allocator会创建一个内存池(pool of buffer),在开始发送数据流以后,源filter就会将数据填充到内存池中一个空闲的buffer中,然后传递给下面的filter。但是,源filter并不是直接将内存buffer的指针直接传递给下游的filter,而是通过一个media samples的COM对象,这个sample是allocator创建的用来管理内存buffer。Media sample暴露了IMediaSample接口,一个sample包含了下面的内容: 一个指向没有发送的内存的指针。 一个时间戳 一些标志 媒体类型。 时间戳表明了presentation time,Renderer filter就是根据这个时间来安排render顺序的。标志是用来标示数据是否中断等等,媒体类型提供了中途改变数据格式的一种方法,不过,一般sample没有媒体类型,表明它们的媒体类型一直没有改变。 当一个filter正在使用buffer,它就会保持一个sample的引用计数,allocator通过sample的引用计数用来确定是否可以重新使用一个buffer。这样就防止了buffer的使用冲突,当所有的filter都释放了对sample的引用,sample才返回到allocator的内存池,供重新使用 //实现虚函数CheckMediaType,实现接受8, 16, 24 or 32 RGB位视频格式 //实现虚函数,质量控制功能 //参考的视频格式,8, 16 (*2), 24 or 32 bits per pixel { //由FillBuffer先填充Sample信息,然后由DecideBufferSize来真实的为视频数据分配内存,供下级Filter使用 Delphi的DirectShow开发概述 标签:func tst 标示 inf erer 匹配 编辑 pushd any 原文地址:https://www.cnblogs.com/jijm123/p/14339697.html
DirectShow是微软公司提供的一套在Windows平台上进行流媒体处理的开发包,与DirectX开发包一起发布。它经过DirectX 6.0中的DirectX Media发展而来,集成了DirectX家族中的其他成员(DirectDraw、DirectSound等),可以说是一位“集大成者”。
第二部分核心技术
DirectShow的开发实际就是Filter的开发,DirectShow自身提供了,下面就是Filter概述。
1、DirectShow的 Filter
Filter 一般分为下面几种类型。
SourceFilter----|-----SpliterFilter-------------(Video-pin)>-----TransFormFilter--->VideoRender
|---------------------(Audio-pin)->----ACMWraperFilter--->DirectSoundFilter
程序启动过程,先创建各个filter的com对象,然后使用FilterGraph.Addfilter加入到Graph中,然后把每个Filter按照
数据流把OutPin和inpuin连接起来。最好启动FilterGraph.play即可。
状态改变,Graph中的filter的状态改变应该一致,因此,应用程序并将状态改变的命令直接发给filter,而是将相应的状态改变的命令发送给Filter graph Manager,由manager将命令分发给graph中每一个filter。Seeking也是同样的方式工作,首先由应用程序将seek命令发送到filter graph 管理器,然后由其分发给每个filter。
3、媒体类型
媒体类型是一种很普遍的,可以扩展的用来描述数字媒体格式的方法,当两个filter连接的时候,他们会就采用某一种媒体类型达成一致的协议。媒体类型定义了处于源头的filter将要给下游的filter发送什么样的数据,以及数据的physical layout。如果两个filter不能够支持同一种的媒体类型,那么他们就没法连接起来。
Filters通过pin的连接来传递数据,数据流是从一个filter的输出pin流向相连的filter的输入pin。输出pin常用的传递数据的方式是调用输入pin上的IMemInputPin::Receive方法。
对于filter来说,可以有好几种方式来分配媒体数据使用的内存块,可以在堆上分配,可以在DirectDraw的表面,也可以采用GDI共享内存,还有其他的一些方法,在Directshow中用来进行内存分配任务的是内存分配器(allocator),也是一个COM对象,暴露了一个IMemAllocator接口。
基于Delphi的DirectShow开发概述2
MajorType:主要类型;例如视频,音频,还是位流
subType : 辅助说明类型,例如视频中的YUV12,还是UYVY等等
formatType: 格式描述,更为细节的结构体。例如,视频大小,频率,帧率等,
可以使用FORMAT_VIDEOINFO(VIDEOINFOHEADER),FORMAT_WAVEFORMATEX(WAVEFORMATEX)结构体来描述
//PAMMediaType
当使用AM_MEDIA_TYPE数据结构来描述媒体类型的时候,如果MajorType,subType,formatType都指定了GUID,那么
这就是完全媒体类型。
***************************************Filter的连接************************************
Filter的连接实际上就是Pin的连接。连接方向总是由上一级的Filter(UpStream Filter)的输出Pin指向下一级
Filter(DownStream Filter)的输入Pin。
1.Filter连接过程
Pin也是一种COM接口。实现了IPIN的接口。一般通过调用(下面的函数来连接):
IFilterGraph.ConnectDirect,IGraphBuilder.Connect,IGraphBuilder.Render,IGraphBuilder.RenderFile
{ 下面就是个范例,一般Filter是在停止状态下连接的。
//连接 source -> MPEG1Spliter
Source.FindPin(StringToOLEStr(‘Output‘), OutPin);
MPEG1Splitter.FindPin(StringToOLEStr(‘Input‘), inPin);
hr := (FilterGraph1 as IGraphBuilder).Connect(OutPin, InPin);
if FAILED(hr) then begin
ShowMessage(‘Failed connect mpg Source -> MPEG1Splitter‘);
exit;
end;
}
2.FilterGraph构建的方法
1)IFilterGraph.AddFilter 该参数提供一个Filter对象,将其加入到FilterGraph中.
2)IFilterGraph.ConnectDirect 该参数提供输出Pin,输入Pin以及媒体类型,进行直接连接
3)IGraphBuilder.AddSourceFilter 该参数提供源文件名,自动将一个SourceFilter加载到FilterGraph中
4)IGraphBuilder.Connect 该参数提供输出Pin,输入Pin以及媒体类型,进行连接,如果失败,自动尝试在中间加入必要的格式转换Filter
5)IGraphBuilder.Render 该参数提供输出Pin,自动间加入必要的Filter完成剩下的部分FilterGraph的构建(直到连到RenderFilter上)
6)IGraphBuilder.Render 该参数提供源文件名,自动间加入必要的Filter完成这个文件的回放
{
//下面范例,表示该FilterGraph中有6个Filter,他们都是由COM对象创建而来。
var
Source : IBaseFilter;
MPEG1Splitter : IBaseFilter;
MpegVcodec : IBaseFilter;
AviDec : IBaseFilter;
AviDest : IBaseFilter;
Writer : IBaseFilter;
hr : HRESULT;
OutPin, InPin : IPin;
begin
CoCreateInstance(CLSID_AsyncReader, nil, CLSCTX_INPROC,IID_IBaseFilter, Source); //典型的拉模式
CoCreateInstance(CLSID_MPEG1Splitter, nil, CLSCTX_INPROC,IID_IBaseFilter, MPEG1Splitter); //MPEG1格式
CoCreateInstance(CLSID_CMpegVideoCodec, nil, CLSCTX_INPROC,IID_IBaseFilter, MpegVcodec); //MPEG编码
CoCreateInstance(CLSID_AVIDec, nil, CLSCTX_INPROC,IID_IBaseFilter, AviDec); //AVI解码
CoCreateInstance(CLSID_AviDest, nil, CLSCTX_INPROC, IID_IBaseFilter, AviDest); //AVI目标
CoCreateInstance(CLSID_FileWriter, nil, CLSCTX_INPROC,IID_IBaseFilter, Writer); //写文件
(FilterGraph1 as IFilterGraph).AddFilter(Source, ‘Source‘);
(FilterGraph1 as IFilterGraph).AddFilter(MPEG1Splitter, ‘MPEG1Splitter‘);
(FilterGraph1 as IFilterGraph).AddFilter(MpegVcodec, ‘MpegVcodec‘);
(FilterGraph1 as IFilterGraph).AddFilter(AviDec, ‘AviDec‘);
(FilterGraph1 as IFilterGraph).AddFilter(AviDest, ‘AviDest‘);
(FilterGraph1 as IFilterGraph).AddFilter(Writer, ‘Writer‘);
end;
}
3. 一般使用GraphEdit可以查看到目前正常安装在系统中的Filter,如果是安装在DirectShow目录下的可以通过指定CLSID
用CoCreateInstance来创建。在其它目录下的,必须通过系统枚举来创建。
系统提供了一个CLSID_SystemDeviceEnum,用CoCreateInstance创建,并获取ICreateDevEnum接口。然后
使用ICreateDevEnum.CreateClassEnumerator为指定的类型目录创建一个枚举器,并获得IEnumMoniker接口。
使用IEnumMoniker.next方法,媒体该目录下所有可用设备标识(Device Moniker),每个设备标识对象上都实现了Imoniker接口
调用Imoniker.bindtoStorage之后就可以访问设备标识属性集。比如得到设备的显示名字。
调用Imoniker.BindToObject可以将设备标识绑定成一个DirecshowFilter,然后调用IFilterGraph.addFilter加入FilterGraph
参加工作。
DirectShow通常有两个名字:显示名字例如:@device:cm:{33D9A760-90C8-11D0-BD43-00A0C911CE86}\xvid
友好名字例如:xvid mpeg4 decoder
{下面就是调用代码
var
i, j: integer;
AMoniker, MyMoniker: IMoniker;
PropBag: IPropertyBag;
AVariant: OleVariant;
CLSID: TGUID;
Found: boolean;
begin
for i := 0 to SysDevEnum.CountCategories - 1 do
cbCategories.Items.Add(SysDevEnum.Categories[i].FriendlyName); //SysDevEnum:TSysDevEnum;
Found := false;
j := 0;
MyMoniker := Filter.BaseFilter.Moniker;
if MyMoniker = nil then exit;
MyMoniker.BindToStorage(nil,nil,IPropertyBag, PropBag);
if PropBag.Read(‘CLSID‘,AVariant,nil) = S_OK then
CLSID := StringToGUID(AVariant)
else CLSID := GUID_NULL;
for i := 0 to SysDevEnum.CountCategories - 1 do
begin
SysDevEnum.SelectIndexCategory(i);
if SysDevEnum.CountFilters > 0 then
for j := 0 to SysDevEnum.CountFilters - 1 do
begin
if IsEqualGUID(CLSID, SysDevEnum.Filters[j].CLSID) then
begin
AMoniker := SysDevEnum.GetMoniker(j);
Found := AMoniker.IsEqual(MyMoniker) = S_OK;
AMoniker := nil;
end;
if Found then Break;
end;
if Found then
begin
cbCategories.ItemIndex := i;
cbCategoriesChange(nil);
lbFilters.ItemIndex := j;
lbFiltersClick(nil);
break;
end;
end;
PropBag := nil;
MyMoniker := nil;
}
PAMMediaType = ^TAMMediaType;
_AMMediaType = record
majortype : TGUID;
subtype : TGUID;
bFixedSizeSamples : BOOL;
bTemporalCompression : BOOL;
lSampleSize : ULONG;
formattype : TGUID;
pUnk : IUnknown;
cbFormat : ULONG;
pbFormat : Pointer;
end;
Filter开发基础----基类分析
1)TBCBaseFilter
TBCBaseFilter = class(TBCUnknown, IBaseFilter, IAMovieSetup)
是最基本Filter的基类,使用方法:
(1)声明一个新类继承自 TBCBaseFilter
(2)在新类中定义一个Filter上Pin的实例。(Pin从TBCBasePin继承)
(3)实现纯虚函数TBCBaseFilter.GetPin,用于返回Filter上各个Pin的对象指针
(4)实现纯虚函数TBCBaseFilter.GetPinCount,用于返回Filter上Pin的数量
(5)考虑如何处理从输入Pin进来的Sample数据
2)TBCBasePin
TBCBasePin实现了PIn接口,TBCBasePin设计了Pin的整个连接过程。也实现了IQualityControl质量控制接口。
在TBCBasePin上实现了3个成员函数与Filter状态对应。
(1) Filter.Stopped TBCBasePin.Inactive
(2) Filter.Spaused TBCBasePin.active
(3) Filter.Running TBCBasePin.Run
在实际开发Filter时,有可能重写该3个函数,用来初始化和释放必要资源。实现方法:
(1)从TBCBasePin派生一个子类
(2)实现纯虚函数TBCBasePin.CheckMediaType,进行Pin连接时媒体类型检测
(3)实现纯虚函数TBCBasePin.GetMediaType,提供Pin上的首先媒体类型
(4)实现Ipin.BeginFlush和IPin.EndFlush两个函数
(5)可能需要重写的函数包括。TBCBasePin.Inactive,TBCBasePin.active,TBCBasePin.Run,
TBCBasePin.CheckConnect(连接的时候检查,如查询对方Pin上是否支持某个特殊接口),
TBCBasePin.BreakConnect(断开连接,并进行必要的资源释放),
TBCBasePin.CompleteConnect(完成连接时被调用,可以在这个函数中获得当前连接用的媒体类型等参数),
TBCBasePin.EndOfStream(当上流数据全部传送完毕后被调用,如果这是个TransformFilter则将继续往下送,
如是个RenderFilter,则需要向FilterGraph发送一个EC_COMPLETE事件)
TBCBasePin.Notify(直接响应质量控制,或者将质量控制消息往上一级Filter发送)
3)TBCBaseInputPin和TBCBaseOutputPin
TBCBaseInputPin和TBCBaseOutputPin都是从TBCBasePin派生而来,
TBCBaseInputPin实现了ImeminputPin(用于推模式的数据传送)
TBCBaseOutputPin主要完成了传送数据所用的Sample管理器(Allocate)的协商,并重写了TBCBasePin.active(用于
实际的Sample内存分配),TBCBasePin.inactvie(用于Sample内存的释放)。
TBCBaseInputPin使用方法(派生一个子类,并且至少重写如下函数):
(1) TBCBaseInputPin.BeginFlush
(1) TBCBaseInputPin.EndFlush
(1) TBCBaseInputPin.Receive
(1) TBCBaseInputPin.CheckMediaType(一般在输出Pin上实现该函数)
(1) TBCBaseInputPin.GetMediaType
TBCBaseOutputPin使用方法(派生一个子类,并且至少重写如下函数):
(1)重写TBCBasePin.CheckMediaType进行连接时的媒体类型检查
(2)实现纯虚函数TBCBaseOutputPin.DecideBufferSize,决定Sample内存的大小
(3)重写纯虚函数TBCBasePin.GetMediaType,提供Pin上的首先媒体类型
4)TBCMediaType
TBCMediaType用于数据传输的Sample的实现类,TBCMediaType实现了IMediaSample2的接口,TBCMediaType封装了
一个指向一块内存的指针,通过TBCMediaType.GetPointer得到
5)TBCSourceStream = class(TBCBaseOutputPin)
提供了“推”(Push)的能力,实现了一个线程(TBCAMThread),Sample数据就是靠这个线程向下一级Filter发送的。
实现方法:
(1)从TBCSourceStream派生一个子类作为Pin
(2)实现纯虚函数TBCSourceStream.CheckMediaType,进行Pin连接时媒体类型检测
(3)实现纯虚函数TBCSourceStream.GetMediaType,提供Pin上的首先媒体类型
(4)实现TBCBaseOutputPin.DecideBufferSize,决定Sample内存大小,在Pin连接时会执行
(5)实现TBCSourceStream.FillBuffer,为即将传送出去的Sample填充数据
(6)可选地实现TBCSourceStream.OnThreadCreate,
TBCSourceStream.OnThreadDestroy,
TBCSourceStream.OnThreadStartPlay 等函数,进行适当时机的初始化,资源管理等操作。
6)TBCTransformFilter
实现了媒体类型的转换,主要实现如下函数:
(1)TBCTransformFilter.CheckInputType
(2)TBCTransformFilter.CheckTransForm
(3)TBCTransformFilter.DecideBufferSize
(4)TBCTransformFilter.GetMediaType
(5)TBCTransformFilter.TransForm
7)TBCTransinPlaceFilter
是一个“就地”处理的转换Filter。
8)TBCVideoTransformFilter
一个视频质量控制的基类。通过输入Pin上的Receive函数接收Sample时,能够根据质量消息决定是否丢帧,这个类
主要是为开发AVI解码Filter而设计的。使用方法基本和TBCTransformFilter相同。
9)TBCBaseRenderer
默认实现使用TBCRenderInutPin类的输入Pin。还实现了IMediaSeeking和IMediaPosition接口。使用方法:
(1)实现TBCBaseRenderer.CheckMediaType,用于检查输入Pin连接用的媒体类型
(2)实现TBCBaseRenderer.DoRenderSample,处理当前的Sample
如果我们不处理Sample,需要写文件,基类可以选择从TBaseFilter,而此时输入Pin最好选择从TBCRenderInputIn
派生类。
10)TBCBaseVideoRenderer
实现了VideoFilter基类,其中实现了IQualityControl用于视频质量控制,IQualProp用于在Filter属性页显示一些
实时性能参数。使用方法与TBCBaseRenderer相同。
基于Delphi的DirectShow开发概述3
Delphi设计Directshow其实也是比较简单的,看了前面两个概述,相信你也会明白一些了,问题就是你要有什么杨的需求,然后根据需求来选择合适的Filter基类,从基类(BassFilter)继承下来后,只需要覆盖指定的函数就可以了。
例如我们要设计一个屏幕(Desktop)捕获的的Filter,每秒捕获大概10帧(10副抓屏bitmap),这个明显需要实现Push下推的功能,因此我们可以选择从TBCSourceStream基类派生一个子类,然后实现如下几个函数即可:
//GetMediaType函数是下级Filter在和本Filter连接时在下级InpuPin接口上调用的
function GetMediaType(iPosition: Integer; out MediaType: PAMMediaType): HResult; override;
//如果媒体格式不能接受,则返回E_INVALIDARG
function CheckMediaType(MediaType: PAMMediaType): HResult; override;
//在本Filter的OutPutPin接口和下级InputPin接口协商时调用的,主要用来协商每个Sample的大小
function DecideBufferSize(Allocator: IMemAllocator;Properties: PAllocatorProperties): HRESULT; override;
//设置视频媒体参数,在初始化Filter时调用
function SetMediaType(MediaType: PAMMediaType): HRESULT; override;
//以上几个函数是在和下级Filter进行接口连接和协商时调用,FillBuffer函数则是由本Filter内置线程按一定时间
//间隔调用,这里当然是把抓屏的Bitmap数据填充到Sample中,推给下一级。
function FillBuffer(Sample: IMediaSample): HResult; override;
function Notify(Filter: IBaseFilter; q: TQuality): HRESULT; override; stdcall;
具体代码分析如下:
CLSID_PushSourceDesktop: TGUID = ‘{570757C1-D2D8-42D1-BA0C-24E1BED3F62F}‘; //PushFilter注册名
//Pin注册类型结构
TRegPinTypes = record
clsMajorType: PGUID;
clsMinorType: PGUID;
end;
//Setup信息结构
sudPinTypes: TRegPinTypes =
(
//视频流的类型
clsMajorType: @MEDIATYPE_Video;
//所用可用类型
clsMinorType: @MEDIASUBTYPE_NULL
);
//Filter注册Pin接口信息结构
TRegFilterPins = record
strName : PWideChar;
bRendered : BOOL;
bOutput : BOOL;
bZero : BOOL;
bMany : BOOL;
oFilter : PGUID;
strConnectsToPin : PWideChar;
nMediaTypes : LongWord;
lpMediaType : PRegPinTypes;
end;
//定义实例
sudOutputPinDesktop: array[0..0] of TRegFilterPins =
(
(
strName: ‘Output‘; // Pin名称
bRendered: FALSE; //是否是Render
bOutput: TRUE; //是否是输出接口
bZero: FALSE; //是否允许为0
bMany: FALSE; //是否有更多
oFilter: nil; //连接的Filter
strConnectsToPin: nil; //连接的Pin
nMediaTypes: 1; //支持类型数量
lpMediaType: @sudPinTypes // Pin信息
)
);
DefaultFrameLength: TReferenceTime = FPS_10; //由参考时钟确定FPS_10=1000000
PushDesktopName: WideString = ‘_ PushSource Desktop Filter‘; //PushFilter友好名
//Pin接口类封装,继承TBCSourceStream TBCPushPinDesktop = class(TBCSourceStream)
protected
FFramesWritten : Integer; //在播放文件的时候跟踪当前位置
FZeroMemory : Boolean; //是否必须清零Buffer
FSampleTime : TRefTime; //每个Sample一个时间戳
FFrameNumber : Integer; //已经显示了多少帧了
FFrameLength : TReferenceTime; //一帧的耗费时间
FScreenRect : TRect; //包含需要捕获的视频框
FImageHeight, //当前图像高
FImageWidth, //当前图像宽
FRepeatTime, //每帧之间重复时间 Time in msec between frames
FCurrentBitDepth: Integer; //屏幕色彩位
FMediaType : TAMMediaType; //媒体类型
FSharedState : TBCCritSec; //临界区在资源共享中实现线程同步
public
constructor Create(out hr: HResult; Filter: TBCSource);
destructor Destroy; override;
//实现虚函数,提供一个精确的媒体类型
function GetMediaType(iPosition: Integer; out MediaType: PAMMediaType): HResult; override;
//实现虚函数,实现接受8, 16, 24 or 32 RGB位视频格式
//如果媒体格式不能接受,则返回E_INVALIDARG
function CheckMediaType(MediaType: PAMMediaType): HResult; override;
function DecideBufferSize(Allocator: IMemAllocator;Properties: PAllocatorProperties): HRESULT; override;
function SetMediaType(MediaType: PAMMediaType): HRESULT; override;
function FillBuffer(Sample: IMediaSample): HResult; override;
//实现虚函数,质量控制功能
function Notify(Filter: IBaseFilter; q: TQuality): HRESULT; override; stdcall;
end;
//PushFilter的类封装,继承自TBCSource //把桌面抓屏图像作为连续视频流
TBCPushSourceDesktop = class(TBCSource)
private
FPin: TBCPushPinDesktop;
public
constructor Create(ObjName: string; Unk: IUnKnown; out hr: HRESULT);
constructor CreateFromFactory(Factory: TBCClassFactory; const Controller: IUnknown); override;
destructor Destroy; override;
end;
//TBCPushPinDesktop析构函数
constructor TBCPushPinDesktop.Create(out hr: HResult; Filter: TBCSource);
var
DC: HDC;
begin
inherited Create(‘_ Push Source Desktop‘, hr, Filter, ‘Out‘);
FFramesWritten := 0;
FZeroMemory := False;
FFrameNumber := 0;
FFrameLength := FPS_5;
FSharedState := TBCCritSec.Create;
FCurrentBitDepth := 32;
//这里关键是显示如何获取DIB图像,使用内存方式,把DIB图像插入到视频流
//为了尽可能保持Samle采样,我们就需要从一个文件中读取图像,把它插入到发送下行接口流中
//获取需要显示设备context上下文
DC := CreateDC(‘DISPLAY‘, nil, nil, nil);
//获取主桌面窗口的尺寸
FScreenRect.Left := 0;
FScreenRect.Top := 0;
FScreenRect.Right := GetDeviceCaps(DC, HORZRES);
FScreenRect.Bottom := GetDeviceCaps(DC, VERTRES);
//保持该尺寸,为后面填充Buffer使用
FImageWidth := FScreenRect.Right - FScreenRect.Left;
FImageHeight := FScreenRect.Bottom - FScreenRect.Top;
//释放资源
DeleteDC(DC);
hr := S_OK;
end;
destructor TBCPushPinDesktop.Destroy;
begin
{$IFDEF DEBUG}
DbgLog(self, Format(‘Frames written %d‘, [FFrameNumber]));
{$ENDIF}
inherited;
end;
//参考这些类型,选择更高的质量控制
// Therefore, iPosition =
// 0 Return a 32bit mediatype
// 1 Return a 24bit mediatype
// 2 Return 16bit RGB565
// 3 Return a 16bit mediatype (rgb555)
// 4 Return 8 bit palettised format
// >4 Invalid
{
PVideoInfo = ^TVideoInfo;
tagVIDEOINFO = record
rcSource: TRect; // 我们实际需要使用的位(在整个窗口中的Sub窗口)
rcTarget: TRect; // 该视频音频去哪
dwBitRate: DWORD; // 近似位率
dwBitErrorRate: DWORD; // 错位率
AvgTimePerFrame: TReferenceTime; // 每帧的平均时间(100ns units)
bmiHeader: TBitmapInfoHeader; //位图信息头,解码为RGB后可以形成一个Bitmpa图像
case Integer of
0: (
bmiColors: array[0..iPALETTE_COLORS-1] of TRGBQuad //调色板
);
1: (
dwBitMasks: array[0..iMASK_COLORS-1] of DWORD //真彩色掩码
);
2: (
TrueColorInfo: TTrueColorInfo //两者都有
);
end;
PAMMediaType = ^TAMMediaType;
_AMMediaType = record
majortype : TGUID;
subtype : TGUID;
bFixedSizeSamples : BOOL;
bTemporalCompression : BOOL;
lSampleSize : ULONG;
formattype : TGUID;
pUnk : IUnknown;
cbFormat : ULONG;
pbFormat : Pointer;
end;
}
function TBCPushPinDesktop.GetMediaType(iPosition: Integer; out MediaType: PAMMediaType): HResult;
var
pvi: PVIDEOINFO;
i: Integer;
begin
FFilter.StateLock.Lock;
try
if (MediaType = nil) then
begin
Result := E_POINTER; //指针错误
Exit;
end;
if (iPosition begin
Result := E_INVALIDARG; //无效的位置
Exit;
end;
//是否从类型结束处开始 Have we run off the end of types?
if (iPosition > 4) then
begin
Result := VFW_S_NO_MORE_ITEMS;
Exit;
end;
MediaType.cbFormat := SizeOf(TVideoInfo); //视频类型
pvi := CoTaskMemAlloc(MediaType.cbFormat); //为媒体类型结构体分配内存
if (pvi = nil) then
begin
Result := E_OUTOFMEMORY;
Exit;
end;
ZeroMemory(pvi, MediaType.cbFormat);
case iPosition of
0:
begin
//返回32位格式的最高质量图像=RGB888
pvi.bmiHeader.biCompression := BI_RGB; //无压缩RGB格式
pvi.bmiHeader.biBitCount := 32;
end;
1:
begin
pvi.bmiHeader.biCompression := BI_RGB;
pvi.bmiHeader.biBitCount := 24;
end;
2:
begin
//每像素16位=RGB565,把RGB掩码以DWord类型,放入调色板前三个地方
for i := 0 to 2 do
pvi.TrueColorInfo.dwBitMasks[i] := bits565[i];
pvi.bmiHeader.biCompression := BI_BITFIELDS;
pvi.bmiHeader.biBitCount := 16;
end;
3:
begin
//每像素16位=RGB555,把RGB掩码以DWord类型,放入调色板前三个地方
for i := 0 to 2 do
pvi.TrueColorInfo.dwBitMasks[i] := bits555[i];
pvi.bmiHeader.biCompression := BI_BITFIELDS;
pvi.bmiHeader.biBitCount := 16;
end;
4:
begin
//每像素8位,可以不带调色板子
pvi.bmiHeader.biCompression := BI_RGB;
pvi.bmiHeader.biBitCount := 8;
pvi.bmiHeader.biClrUsed := iPALETTE_COLORS;
end;
end;
//任何视频格式都必须调整下面参数
pvi.bmiHeader.biSize := SizeOf(TBitmapInfoHeader);
pvi.bmiHeader.biWidth := FImageWidth;
pvi.bmiHeader.biHeight := FImageHeight;
pvi.bmiHeader.biPlanes := 1;
pvi.bmiHeader.biSizeImage := GetBitmapSize(@pvi.bmiHeader);
pvi.bmiHeader.biClrImportant := 0;
//清空源和目标框
SetRectEmpty(pvi.rcSource);
SetRectEmpty(pvi.rcTarget);
//设置Majortype相关参数
MediaType.majortype := MEDIATYPE_Video; //主类型为视频格式
MediaType.formattype := FORMAT_VideoInfo; //格式类型为视频格式
MediaType.bTemporalCompression := False;
MediaType.bFixedSizeSamples := True;
// 设置Subtype相关参数
MediaType.subtype := GetBitmapSubtype(@pvi.bmiHeader);
MediaType.pbFormat := pvi;
MediaType.lSampleSize := pvi.bmiHeader.biSizeImage;
Result := S_OK;
finally
FFilter.StateLock.UnLock;
end;
end;
//检查我们是否支持该媒体类型
function TBCPushPinDesktop.CheckMediaType(MediaType: PAMMediaType): HResult;
var
pvi: PVIDEOINFO;
SubType: TGUID;
begin
//我们仅仅需要输出该视频
if not (IsEqualGUID(MediaType.majortype, MEDIATYPE_Video)) or
not (MediaType.bFixedSizeSamples) then
begin
Result := E_INVALIDARG;
Exit;
end;
//检查我们支持的子类型
SubType := MediaType.subtype;
if IsEqualGUID(SubType, GUID_NULL) then
begin
Result := E_INVALIDARG;
Exit;
end;
if not (
IsEqualGUID(SubType, MEDIASUBTYPE_RGB8) or
IsEqualGUID(SubType, MEDIASUBTYPE_RGB565) or
IsEqualGUID(SubType, MEDIASUBTYPE_RGB555) or
IsEqualGUID(SubType, MEDIASUBTYPE_RGB24) or
IsEqualGUID(SubType, MEDIASUBTYPE_RGB32)
) then
begin
Result := E_INVALIDARG;
Exit;
end;
pvi := MediaType.pbFormat;
if (pvi = nil) then
begin
Result := E_INVALIDARG;
Exit;
end;
//检查图像尺寸是否改变,那么返回错误,以便重新调整图像大小
if (pvi.bmiHeader.biWidth FImageWidth) or
(abs(pvi.bmiHeader.biHeight) FImageHeight) then
begin
Result := E_INVALIDARG;
Exit;
end;
//不接受负高度,超出屏幕外的不支持
if (pvi.bmiHeader.biHeight begin
Result := E_INVALIDARG;
Exit;
end;
Result := S_OK; //接受该格式
end;
// DecideBufferSize:在视频格式协商好后,每次都必须调用它,确定需要传输的的内存大小
function TBCPushPinDesktop.DecideBufferSize(Allocator: IMemAllocator;Properties: PAllocatorProperties): HRESULT;
var
pvi: PVIDEOINFOHEADER;
Actual: ALLOCATOR_PROPERTIES;
begin
if (Allocator = nil) or (Properties = nil) then
begin
Result := E_POINTER;
Exit;
end;
FFilter.StateLock.Lock;
try
pvi := AMMediaType.pbFormat; //来自TBasePin接口的AMMediaType
Properties.cBuffers := 1; //内存块数量
Properties.cbBuffer := pvi.bmiHeader.biSizeImage; //内存块大小
Assert(Properties.cbBuffer 0); //确保该cbBuffer0,否则会引发异常
//通过allocator分配查询我们需要的Sample内存大小
Result := Allocator.SetProperties(Properties^, Actual);
if Failed(Result) then Exit;
//实际需要的分配的内存和属性中定义的不匹配
if (Actual.cbBuffer begin
Result := E_FAIL;
Exit;
end;
//确保我们的实际内存块数量为1
Assert(Actual.cBuffers = 1);
Result := S_OK;
finally
FFilter.StateLock.UnLock;
end;
end;
// SetMediaType,在两个Filter之间协商媒体类型时候,调用该函数
function TBCPushPinDesktop.SetMediaType(MediaType: PAMMediaType): HRESULT;
var
pvi: PVIDEOINFOHEADER;
begin
FFilter.StateLock.Lock;
try
//通过基类传递设置
Result := inherited SetMediaType(MediaType);
if Succeeded(Result) then
begin
pvi := AMMediaType.pbFormat;
if (pvi = nil) then
begin
Result := E_UNEXPECTED;
Exit;
end;
// 8-bit palettized,
// RGB565, RGB555,
// RGB24,
// RGB32
if pvi.bmiHeader.biBitCount in [8, 16, 24, 32] then
begin
//保存当前设定的媒体参数
FMediaType := MediaType^;
FCurrentBitDepth := pvi.bmiHeader.biBitCount;
end else
begin
//除此之外不支持其它媒体类型
Assert(False);
Result := E_INVALIDARG;
end;
end;
finally
FFilter.StateLock.UnLock;
end;
end;
//FillBuffer是在每次采集视频数据后调用,把数据写入到Stream中,传递给下一个Filter
//这个函数中为虚抽象函数,所以必须实现代码完成实际的视频数据填充,以便下传
function TBCPushPinDesktop.FillBuffer(Sample: IMediaSample): HResult;
var
pData: PByte;
cbData: Longint;
hDib: HBitmap;
pvih: PVIDEOINFOHEADER;
Start, Stop: REFERENCE_TIME;
function min(v1, v2: DWord): DWord;
begin
if v1 Result := v1
else
Result := v2;
end;
begin
if (Sample = nil) then
begin
Result := E_POINTER;
Exit;
end;
FSharedState.Lock;
try
//获取Sample中视频数据内存指针(PData获取)
Sample.GetPointer(pData);
cbData := Sample.GetSize;
//确认我们将要访问的视频格式,如果不合格将出现异常
Assert(IsEqualGUID(AMMediaType.formattype, FORMAT_VideoInfo));
pvih := AMMediaType.pbFormat;
//复制DIB位图数据到输出Buffer
//如果Sample的字节数大于真实图像字节,就限定复制的字节
pVih.bmiHeader.biSizeImage := min(pVih.bmiHeader.biSizeImage, cbData);
hDib := CopyScreenToBitmap(FScreenRect, pData, @pVih.bmiHeader);
if (hDib 0) then DeleteObject(hDib);
//设置时间戳,可以给帧率回调函数使用
//如果这个是用AVI格式写的,那么我们就需要配置AVI Mux Filter 来设定每帧的平均时间
//当前时间
Start := FFrameNumber * FFrameLength;
Stop := Start + FFrameLength;
Sample.SetTime(@Start, @Stop);
Inc(FFrameNumber);
//对于没有压缩的帧,都要设置为True,当作关键帧对待
Sample.SetSyncPoint(True);
Result := S_OK;
finally
FSharedState.UnLock;
end;
end;
//返回质量控制,由于这时源头,所以可以收到来自render之间的各个Filter的Notify,
//最终反应在Filter(来自哪个),Q质量控制参数,可以通过这两个参数来调整帧率和质量
function TBCPushPinDesktop.Notify(Filter: IBaseFilter; q: TQuality): HRESULT;
begin
Result := E_FAIL;
end;
{$EXTERNALSYM CLSID_CVidCapClassManager} //BaseFilter目录类型
//CLSID_LegacyAmFilterCategory: TGUID = (D1:$083863F1;D2:$70DE;D3:$11D0;D4:($BD,$40,$00,$A0,$C9,$11,$CE,$86));
}
initialization
TBCClassFactory.CreateFilter(TBCPushSourceDesktop, PushDesktopName,
CLSID_PushSourceDesktop, CLSID_LegacyAmFilterCategory,
MERIT_DO_NOT_USE, 1, @sudOutputPinDesktop
);
end.
//加载顺序由下级Filter的InputPin接口调用本OutPutPin接口的GetMediaType,
//然后调用OutPutPin接口的SetMediaType设定媒体格式,
//调用DecideBufferSize,协商内存大小
//启动后,不断调用FillBuffer填充Sample
上一篇:C# 格式化输出时间
文章标题:Delphi的DirectShow开发概述
文章链接:http://soscw.com/index.php/essay/48936.html