# Подглава 11.2.4 Отслеживание объектов на реальном роботе

Теперь мы готовы опробовать систему отслеживания объектов на реальном роботе. Поскольку робот будет вращаться только влево и вправо, вам не придется беспокоиться о том, что он наткнется на что-нибудь, но все равно переместите его в свободную зону.

Если вы используете TurtleBot с фиксированным расположением камеры, вам, возможно, придется встать на четвереньки, чтобы осуществить отслеживание лица. Кроме того, вы можете запустить трекер CamShift и удерживать цветной объект от робота, чтобы проверить отслеживание. Чтобы все это получилось, выполните следующие действия.

Сначала завершите все launch-файлы, которые вы могли бы запустить из предыдущего раздела. Затем запустите launch-файлы вашего робота. Для настоящего TurtleBot мы запустим следующее:

`$ roslaunch rbx1_bringup turtlebot_minimal_create.launch`

Если у вашего робота есть Microsoft Kinect, запустите его:

`$ roslaunch freenect_launch freenect-registered-xyzrgb.launch`

В противном случае, для камер Asus Xtion, Xtion Pro или Primesense 1.08/1.09 используйте:

`$ roslaunch openni2_launch openni2.launch depth_registration:=true`

Следующими командами запустите либо трекер CamShift, либо face tracker (трекер лица):

`$ roslaunch rbx1_vision camshift.launch`

Или

`$ roslaunch rbx1_vision face_tracker2.launch`

Наконец, откройте узел трекера объектов:

`$ roslaunch rbx1_apps object_tracker.launch`

Если вы запустили трекер Camshift, переместите ярко окрашенный объект перед камерой, выделите его мышью и отрегулируйте параметры, чтобы получить четкое выделение цели в окне backprojection. Теперь переместите объект влево или вправо, и робот должен вращаться, чтобы удерживать объект в центре кадра изображения.

Если же вы используете трекер face tracker, переместитесь перед камерой вашего робота так, чтобы ваше лицо было в поле зрения, дождитесь, пока ваше лицо будет обнаружено, а затем переместитесь влево или вправо. Робот должен вращаться, чтобы держать ваше лицо в центре кадра изображения.

Попробуйте настроить параметры в файле object\_tracker.launch, чтобы получить желаемую чувствительность реакции.


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://artem-hachatryan.gitbook.io/ros-translation/glava-11.-sovmeshenie-zreniya-i-bazovogo-upravleniya/11.2-otslezhivanie-obektov/11.2.4-otslezhivanie-obektov-na-realnom-robote.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
