控制信号由接收机的通道进入信号调制芯片,获得直流偏置电压。它内部有一个基准电路,产生周期为20ms,宽度为1.5ms的基准信号,将获得的直流偏置电压与电位器的电压比较,获得电压差输出。最后,电压差的正负输出到电机驱动芯片决定电机的正反转。当电机转速一定时,通过级联减速齿轮带动电位器旋转,使得电压差为0,电机停止转动。
舵机的控制一般需要一个20ms左右的时基脉冲,该脉冲的高电平部分一般为0.5ms-2.5ms范围内的角度控制脉冲部分,总间隔为2ms。以180度角度伺服为例,那么对应的控制关系是这样的:
0.5ms--------------0度;
1.0ms------------45度;
1.5ms------------90度;
2.0ms-----------135度;
2.5ms-----------180度;
假设现在舵机稳定在A点,这时候CPU发出一个PWM信号,舵机全速由A点转向B点,在这个过程中需要一段时间,舵机才能运动到B点。
保持时间为Tw
当Tw≥△T时,舵机能够到达目标,并有剩余时间;
当Tw≤△T时,舵机不能到达目标;
理论上:当Tw=△T时,系统最连贯,而且舵机运动的最快。
实际过程中w不尽相同,连贯运动时的极限△T比较难以计算出来。
假如我们的舵机1DIV =8us,当PWM信号以最小变化量即(1DIV=8us)依次变化时,舵机的分辨率最高,但是速度会减慢。
我的简单程序:
#include <reg51.h>
#define uchar unsigned char
#define uint unsigned int
sbit p10=P1^0;
uint aa;
//延时函数
void delay (uint z)
{
unsigned int x,a;
for(x=z;x>0;x--)
for(a=250;a>0;a--);
}
//定时器1中断处理
void timer0()interrupt 1
{
TH0=(65536-100)/256;
TL0=(65536-100)%256;
//高电平为1.5ms,舵机会转到90度
if(aa<15)
{
p10=1;
}
else{
p10=0;
}
//0.1ms定时,20ms一个周期
aa++;
if(aa>200)aa=0;
}
//定时器初始化0.1ms
void init()
{
aa=0;
a=0;
p10=0;
TMOD=0x11;
TH0=(65536-100)/256;
TL0=(65536-100)%256;
EA=1;
ET0=1;
}
//主函数
void main()
{
init(); //定时器初始化
TR0=1; //打开定时器计时
p10=1;
while(1)
{
//控制在定时器中作处理
}
}