Многие приложения для здоровья в России перестали нормально работать. Omron — одно из них. А давление мерить надо каждый день. Поэтому я решил сделать своё iOS-приложение, которое через камеру считывает показания с любого тонометра, сохраняет их и строит графики динамики.
Я Senior CV-инженер — компьютерное зрение моя основная работа. Так что OCR с дисплея тонометра технически не должен был стать проблемой. Но как iOS-разработчик я — полный ноль. Xcode открыл впервые. Swift видел мельком. Это честный рассказ о том, как это выглядит изнутри.
И да, я делаю open source приложение за свободу здоровья от политики — и при этом только под iOS. Ирония не ускользнула. Но это open source — найдётся кто-нибудь с Android-девайсом и свободным вечером 🙂
Постановка задачи
Приложение должно:
-
Считывать показания (систола / диастола / пульс) с дисплея тонометра через камеру
-
Сохранять историю локально — никакого облака, никаких аккаунтов
-
Показывать график динамики давления за неделю
-
Работать без интернета и без зависимости от внешних сервисов
Последний пункт принципиален: если приложение зависит от чьего-то сервера — оно снова может перестать работать в любой момент.
Выбор стека: почему не React Native
Первый инстинкт — взять React Native, есть небольшой опыт с React. Но после честного разбора вариантов выбор стал очевиден:
|
SwiftUI + Vision |
Flutter |
React Native |
|
|---|---|---|---|
|
OCR качество |
⭐⭐⭐⭐⭐ нативный Vision |
⭐⭐⭐ плагины |
⭐⭐⭐ ML Kit |
|
Камера |
AVFoundation, прямой доступ |
Хорошая |
Средняя |
|
Core ML (своя модель) |
Нативно |
Platform channel |
Нативный модуль |
Flutter и React Native — кроссплатформенные фреймворки. Но мне нужен только iOS, то есть их главное преимущество просто не нужно. А проигрывают они нативному стеку по самому важному пункту — качеству OCR и доступу к камере.
Итоговый стек:
-
SwiftUI — декларативный UI (оказался очень похож на React концептуально)
-
SwiftData — локальная БД, аналог ORM, никакого SQL
-
Apple Vision framework — on-device OCR через
VNRecognizeTextRequest -
Swift Charts — встроенная визуализация, iOS 16+
-
AVFoundation — прямой доступ к камере (во второй части)
Ноль внешних зависимостей. Ничего не заблокируется.
Архитектура проекта
Модель данных
@Model — это как декоратор в Python. Говоришь SwiftData: «сохраняй объекты этого класса в локальную БД автоматически». Никакого SQL, никаких миграций руками.Главный экран
Концепция простая: по центру — график за последние 7 дней, внизу — карточка с последним измерением, и большая кнопка + для нового считывания.
OCR: валидация важнее распознавания
VNRecognizeTextRequest — готовая Apple-модель, аналог pretrained YOLO. Запускаешь inference, получаешь текст. Но главная проблема OCR на LCD-дисплеях — не распознавание, а ложные срабатывания. Фон, блики, соседние надписи — всё это попадает в результат.
Решение то же, что и в детекции объектов: post-processing с жёсткими ограничениями:
За один вечер с нуля на незнакомом языке получили:
-
✅ Работающая локальная база данных
-
✅ График систолы и диастолы с линией нормы
-
✅ Карточка последнего измерения с цветовым индикатором
-
✅ Весь OCR-сервис с валидацией
А вот так выглядит первая версия интерфейса Код на GitHub: Alexandr-Shklyaev/bp-tracker
В следующей части подключаем камеру через AVFoundation, строим real-time OCR пайплайн и учим приложение находить ROI с дисплеем тонометра на кадре.
Автор: Alexandr-Shklyaev
