ラインパトカー
ビデオ チュートリアル 20 - ライン パトカー: https://singtown.com/learn/50037/
この例は、OpenMV Cam の get_regression() メソッドを使用した ROI の線形回帰を示しています。この方法を使用すると、一般的に同じ方向を指すすべての線をロボットに追跡させることが簡単になります。
このルーチンはロボットのライン巡回に使用でき、非常に効果があります。
ボールを追いかける車
ビデオ チュートリアル 9 - ボールを追いかけるカー: https://singtown.com/learn/49239/
材料を準備する
OpenMVボードx1:\
3D プリントされた車の床:
- 3.7Vリチウム電池×1:
- TB6612 モータードライバーボード x1:
- ブルズアイホイール x2:
- N20 DC モーター x2 (固定ベースを含む、タイヤを含む):
- M3*20 ネジナット x2:
- M2*4 タッピンねじ x2
回路を接続してモーターをテストする
車のモジュールを書く
まず最初に、なぜモジュールを作成する必要があるのかということに答える必要があります。モーターを直接駆動することは難しくありません。 – この方法ではコードが最も再利用可能であるため、制御ロジックは自動車の構造から独立しています。 さまざまな車に対応するには、車のモジュールを変更するだけです。
car.py
from pyb import Pin, Timer
inverse_left=False #change it to True to inverse left wheel
inverse_right=False #change it to True to inverse right wheel
ain1 = Pin('P0', Pin.OUT_PP)
ain2 = Pin('P1', Pin.OUT_PP)
bin1 = Pin('P2', Pin.OUT_PP)
bin2 = Pin('P3', Pin.OUT_PP)
ain1.low()
ain2.low()
bin1.low()
bin2.low()
pwma = Pin('P7')
pwmb = Pin('P8')
tim = Timer(4, freq=1000)
ch1 = tim.channel(1, Timer.PWM, pin=pwma)
ch2 = tim.channel(2, Timer.PWM, pin=pwmb)
ch1.pulse_width_percent(0)
ch2.pulse_width_percent(0)
def run(left_speed, right_speed):
if inverse_left==True:
left_speed=(-left_speed)
if inverse_right==True:
right_speed=(-right_speed)
if left_speed < 0:
ain1.low()
ain2.high()
else:
ain1.high()
ain2.low()
ch1.pulse_width_percent(int(abs(left_speed)))
if right_speed < 0:
bin1.low()
bin2.high()
else:
bin1.high()
bin2.low()
ch2.pulse_width_percent(int(abs(right_speed)))
上記ファイルを car.py として保存します。 モジュールの使用方法 に従って、car.py を OpenMV に保存します。
IDE でコードをテストします。\ main.py
import car
while True:
car.run(100,100)
車が前に進んでいるかどうかを確認してください。そうでない場合は、2 番目と 3 番目の行の inverse_left と inverse_right を変更して左右の車輪を逆転させ、車が前進していることを確認します。
PIDアルゴリズムの実装
pidアルゴリズムは制御に広く使われているアルゴリズムで、インターネット上に多くの原理が公開されています。\ https://zh.wikipedia.org/wiki/PID コントローラー\ http://baike.baidu.com/link?url=-obQq78Ur4bTeqA10bIniO6y0euQFcWL9WW18vq2hA3fyHN3rt32o79F2WPE7cK0Di9M6904rlHD9ttvVTySIK\ コードはまだ非常に単純ですが、フライト コントロールのソース コードを直接コピーしました。\ https://github.com/wagnerc4/flight_controller/blob/master/pid.py\ ArduPilotのコピーです\ https://github.com/ArduPilot/ardupilot
pid.py
from pyb import millis
from math import pi, isnan
class PID:
_kp = _ki = _kd = _integrator = _imax = 0
_last_error = _last_derivative = _last_t = 0
_RC = 1/(2 * pi * 20)
def __init__(self, p=0, i=0, d=0, imax=0):
self._kp = float(p)
self._ki = float(i)
self._kd = float(d)
self._imax = abs(imax)
self._last_derivative = float('nan')
def get_pid(self, error, scaler):
tnow = millis()
dt = tnow - self._last_t
output = 0
if self._last_t == 0 or dt > 1000:
dt = 0
self.reset_I()
self._last_t = tnow
delta_time = float(dt) / float(1000)
output += error * self._kp
if abs(self._kd) > 0 and dt > 0:
if isnan(self._last_derivative):
derivative = 0
self._last_derivative = 0
else:
derivative = (error - self._last_error) / delta_time
derivative = self._last_derivative + \
((delta_time / (self._RC + delta_time)) * \
(derivative - self._last_derivative))
self._last_error = error
self._last_derivative = derivative
output += self._kd * derivative
output *= scaler
if abs(self._ki) > 0 and dt > 0:
self._integrator += (error * self._ki) * scaler * delta_time
if self._integrator < -self._imax: self._integrator = -self._imax
elif self._integrator > self._imax: self._integrator = self._imax
output += self._integrator
return output
def reset_I(self):
self._integrator = 0
self._last_derivative = float('nan')
また、モジュールの使用法 に従って、pid.py を OpenMV に保存します。
以下を実現するためにパラメータを調整します
主なことは、PI の 2 つのパラメータを調整することです http://blog.csdn.net/zyboy2000/article/details/9418257
THRESHOLD = (5, 70, -23, 15, -57, 0) # Grayscale threshold for dark things...
import sensor, image, time
from pyb import LED
import car
from pid import PID
rho_pid = PID(p=0.4, i=0)
theta_pid = PID(p=0.001, i=0)
LED(1).on()
LED(2).on()
LED(3).on()
sensor.reset()
sensor.set_vflip(True)
sensor.set_hmirror(True)
sensor.set_pixformat(sensor.RGB565)
sensor.set_framesize(sensor.QQQVGA) # 80x60 (4,800 pixels) - O(N^2) max = 2,3040,000.
#sensor.set_windowing([0,20,80,40])
sensor.skip_frames(time = 2000) # WARNING: If you use QQVGA it may take seconds
clock = time.clock() # to process a frame sometimes.
while(True):
clock.tick()
img = sensor.snapshot().binary([THRESHOLD])
line = img.get_regression([(100,100)], robust = True)
if (line):
rho_err = abs(line.rho())-img.width()/2
if line.theta()>90:
theta_err = line.theta()-180
else:
theta_err = line.theta()
img.draw_line(line.line(), color = 127)
print(rho_err,line.magnitude(),rho_err)
if line.magnitude()>8:
#if -40<b_err<40 and -30<t_err<30:
rho_output = rho_pid.get_pid(rho_err,1)
theta_output = theta_pid.get_pid(theta_err,1)
output = rho_output+theta_output
car.run(50+output, 50-output)
else:
car.run(0,0)
else:
car.run(50,-50)
pass
#print(clock.fps())
ライン追従車を作りたい場合は、このプログラムで得られたラインオブジェクトのtheta戻り値とrho(thetaは返された線分の角度を表し、rhoはオフセット距離を表します)を使用するだけで済みます。 theta と rho で車の角度を制御します。
rho の方が重要です。theta を使用しない場合は、rho を使用できます。
操作のレンダリング: