title

text

Никита Глухов
Никита Глухов Postgres Professional Старший разработчик
Олег Бартунов
Олег Бартунов Postgres Professional генеральный директор
15:45 26 октября
45 мин

Элегантный поиск ближайших соседей в PostgreSQL

С необходимостью эффективного поиска ближайших соседей можно встретиться в разных задачах, например, поиск ближайших к заданной точке объектов на карте. Задача, на непрограммистский взгляд кажущаяся тривиальной (действительно, человек довольно легко справляется с ней глядя на карту) , на самом деле не имеет общего и доступного решения, что приводит к головной боли разработчиков, которые придумывают ad hoc решения (вставляют костыли). Эти решения, обычно некрасивые, портят настроение творческой натуры программиста, которому требуется посещение пивной, чтобы пережить когнитивный диссонанс :)

Действительно, если у человека есть карта, у которой есть определенный масштаб, и характерный размер поля зрения, то у программиста есть только координаты заданной точки и множество точек, которых может быть очень много (миллиарды звезд !), и к которому может идти большое количество конкурентных запросов, причем не только на чтение. Язык SQL позволяет очень красиво записать запрос, но реальный план его выполнения удручает - требуется прочитать всю таблицу, вычислить все расстояния от заданной точки, отсортировать по убыванию и оставить требуемое количество записей. Наличие индексов не спасает, а только приводит к полному обходу поискового дерева и чтения всей таблицы в случайном порядке, что гораздо медленнее простого чтения таблицы.

В действительности, класс задач, в которых требуется эффективный поиск ближайших соседей, гораздо шире задач пространственного поиска, например, задачи классификации, задачи поиска очепяток, кластеризации, дедупликации данных. Все они могут сильно выиграть от поддержки эффективного поиска ближайших соседей в СУБД, которые являются в настоящее время де-факто стандартом хранения данных. Эффективный поиск означает быстрый, конкурентный, масштабируемый поиск и поддержку различных типов данных (возможно, нестандартных), что и было реализовано 11 лет назад в PostgreSQL. Я расскажу про его реализацию, современное состояние и примеры использования.

Слайды

Видео

Видео доступно участникам мероприятия, выполнившим вход в личный кабинет

Другие доклады

  • Владимир Слинько
    Владимир Слинько Intel менеджер по развитию проектов
    22 мин

    Обзор новых аппаратных возможностей платформы Intel

    Кратко о релевантных технологиях Intel: развитие CPU и в т.ч. возможностей для алгоритмов ИИ, Пирамида памяти скорость/объём > место PMEM, развитие шифрования, Программные инструменты для повышения производительности параллельных вычислений. Пара кейсов внедрения крупных проектов на PG + Intel

  • В
    Виталий Богданов АО «Байкал Электроникс» Директор по развитию
    22 мин
  • Руслан Усманов
    Руслан Усманов Федеральное казначейство Заместитель начальника управления
    45 мин

    ПУР КС - подсистема “Электронного бюджета” Федерального казначейства РФ, реализованная на полностью импортозамещённом ПО

    Создание полностью импортозамещенной компоненты государственной информационной системы на примере ПУР КС - подсистемы "Электронного бюджета", ключевой государственной интегрированной информационной системе управления общественными финансами. В презентации представлена архитектура подсистемы, история оптимизации производительности и описание мониторинга. Докладчик расскажет о плюсах и сложностях использования импортозамещённой системы для госсектора, а также о нюансах, которые стоит учесть ведомствам при внедрении open source решений и решений российских разработчиков.

  • Сергей Ридер
    Сергей Ридер DBeaver Corp Технический директор
    Татьяна Крупеня
    Татьяна Крупеня DBeaver Corp CEO
    22 мин

    Как ускорить загрузку данных в 10 000 раз?

    Что может быть важнее скорости в вопросе загрузки данных в базу? Миграция данных одна из самых востребованных функций в DBeaver, поэтому вопрос производительности стоял для нас очень остро, причем не только в применении для PostgreSQL, но и для Greenplum, Redshift и других баз, основанных на Postgres. Мы готовы поделиться маленькими секретами, как ускорить загрузку данных в 10, 100, 1000 и даже 10 000 раз без всякой магии.