Какие Инструменты в Microsoft Excel Можно Использовать Для Анализа Информации • Power view

Финансы в Excel

Главная Надстройки Статьи Формулы Обработка больших объемов данных. Часть 1. Формулы

Обработка больших объемов данных. Часть 1. Формулы

Методы переноса данных в Excel могут быть различны:

  • Копирование-вставка результатов запросов
  • Использование стандартных процедур импорта (например, Microsoft Query) для формирования данных на рабочих листах
  • Использование программных средств для доступа к базам данных с последующим переносом информации в диапазоны ячеек
  • Непосредственный доступ к данным без копирования информации на рабочие листы
  • Подключение к OLAP-кубам

Данные, полученные из учетных систем, обычно характеризуются большим объемом – количество строк может составлять десятки тысяч, количество столбцов при этом часто невелико, так как языки запросов к базам данным сами имеют ограничение на одновременно выводимое количество полей.

Обработка этих данных в Excel может вестись различными методами. Выделим основные способы работы:

  1. Обработка данных стандартными средствами интерфейса Excel
  2. Анализ данных при помощи сводных таблиц и диаграмм
  3. Консолидация данных при помощи формул рабочего листа
  4. Выборка данных и заполнение шаблонов для получения отчета
  5. Программная обработка данных

Правильность выбора способа работы с данными зависит от конкретной задачи. У каждого метода есть свои преимущества и недостатки.

В данной статье будут рассмотрены способы консолидации и выборки данных при помощи стандартных формул Excel.

Описание примеров

Примеры к статье построены на основе демонстрационной базы данных, которую можно скачать с сайта Microsoft

Выгруженный из этой базы данных набор записей сформирован при помощи Microsoft Query.

Данные не несут специальной смысловой нагрузки и используются только в качества произвольного набора записей, имеющих несколько ключевых полей.

Файл nwdata_sums.xls используется для версий Excel 2000-2003

Файл nwdata_sums.xlsx имеет некоторые отличия и используется для версий Excel 2007-2010.

Первый лист data содержит исходные данные, остальные – примеры различных формул для обработки информации.

Ячейки, окрашенные в серый цвет, содержат служебные формулы. Ячейки желтого цвета содержат ключевые значения, которые могут быть изменены.

Применение метода

Очевидно, самым простым и удобным методом обработки больших объемов данных с точки зрения пользователя являются сводные таблицы. Этот интерфейс специально создавался для подобного рода задач, способен работать с различными источниками данных, поддерживает интерфейсные методы фильтрации, группировки, сортировки, а также автоматической агрегации данных различными способами.

Суммирование по одному ключевому полю

Таблицы с формулами на листе SUM показывают вариант решения задачи консолидации данных по одному ключевому значению.

Две верхние таблицы на листе демонстрируют возможности стандартной функции SUMIF, которая как раз и предназначена для суммирования с проверкой одного критерия.

Нижние таблицы показывают возможности другой редко используемой функции DSUM

Первый параметр определяет рабочий диапазон данных. Причем верхняя строка диапазона должна содержать заголовки полей. Второй параметр указывает наименование поля (столбца) для суммирования. Третий параметр ссылается на диапазон условий суммирования. Этот диапазон должен состоять как минимум из двух строк, верхняя строка – поле критерия, вторая и последующие — условия.

В другом варианте указания условий именем поля в этом диапазоне можно пренебречь, задав его прямо в тексте условия:

Здесь data!Z2 означает ссылку на текущую строку данных, а не на конкретную ячейку, так как используется относительная ссылка. К сожалению, нельзя указать в третьем параметры ссылку на одну ячейку – строка заголовка полей все равно требуется, хотя и может быть пустой.

Суммирование по нескольким критериям

Таблицы с формулами на листе SUM2 показывают вариант суммирования по нескольким критериям.

Первый вариант решения использует дополнительно подготовленный столбец обработанных исходных данных. В реальных задачах логичнее добавлять такой столбец с формулами непосредственно на лист данных.

Пример: Есть, если два поля с перечнем слов. Пары слов «СТОЛ»-«ОСЬ» и «СТО»-«ЛОСЬ» дают одинаковый ключ «СТОЛОСЬ». Что соответственно даст неверный результат при консолидации данных. При использовании служебного символа комбинации ключей будут уникальны «СТОЛ;ОСЬ» и «СТО;ЛОСЬ», что обеспечит корректность вычислений.

Использовать подобную методику создания уникального ключа можно не только для строковых, но и для числовых целочисленных полей.

Второй пример – это популярный вариант использования функции SUMPRODUCT с проверкой условий в виде логического выражения:

Обрабатываются все ячейки диапазона (data!$M$2:$M$3000), но для тех ячеек, где условия не выполняются, в суммирование попадает нулевое значение (логическая константа FALSE приводится к числу «0»). Такое использование этой функции близко по смыслу к формулам обработки массива, но не требует ввода через Ctrl+Shift+Enter.

Третий пример аналогичен, описанному использованию функций DSUM для листа SUM, но в нем для диапазона условий использовано несколько полей.

Четвертый пример – это использование функций обработки массивов.

Обработка массивов является самым гибким вариантом проверки условий. Но имеет очень сложную запись, трудно воспринимается пользователем и работает медленнее стандартных функций.

Пятый пример содержится только в файле формата Excel 2007 (xlsx). Он показывает возможности новой стандартной функции

Поиск по одному критерию

Таблицы с формулами на листе SEARCH предназначены для поиска по ключевому полю с выборкой другого поля в качестве результата.

Первый вариант – это использование популярной функции VLOOKUP.

Во втором вариант использовать VLOOKUP нельзя, так как результирующее поле находится слева от искомого. В данном случае используется сочетание функций MATCH+OFFSET.

Первая функция ищет нужную строку, вторая возвращает нужное значение через вычисляемую адресацию.

Поиск по нескольким критериям

Таблицы с формулами на листе SEARCH2 предназначены для поиска по нескольким ключевым полям.

В первом варианте используется техника использования служебного столбца, описанная в примере к листу SUM2:

Второй вариант работы сложнее. Используется обработка массива, который образуется при помощи функций вычисляемой адресации:

Четвертый и пятый параметр в функции OFFSET используется для образования массива и определяет его размерность в строках и столбцах.

Выборка по одному критерию

Таблица на листе SELECT показывает вариант фильтрации данных через формулы.

Предварительно определяется количество строк в выборке:

Служебный столбец содержит формулы для определения номеров строк для фильтра. Первая строка ищется через простую функцию:

Вторая и последующие строки ищутся в вычисляемом диапазоне с отступом от предыдущей найденной строки:

Результат выдается через функцию вычисляемой адресации:

Вместо функции проверки наличия ошибки ISNA можно сравнивать текущую строку с максимальным количеством, так как это сделано в столбце A.

Для организации выборок при помощи формул необходимо знать максимально возможное количество строк в фильтре, чтобы создать в них формулы.

Выборка вариантов

Самый сложный вариант выборки по ключевому полю представлен на листе SELECT2. Формулы сами определяют все доступные ключевые значения второго критерия.

Первый служебный столбец содержит сцепленные строки ключевых полей. Второй столбец проверяет соответствие первому ключу и оставляет значение второго ключевого поля:

Третий служебный столбец проверяет значение второго ключа на уникальность:

Результирующий столбец второго ключа ProductName ищет уникальные значения в служебном столбце C:

Столбец Quantity просто суммирует данные по двум критериям, используя технику, описанную на листе SUM2.

Заключение

Комментарии

Какой компьютер оптимальный для выше перечисленной работы с большим объемом данных методом построения для анализа возобновляемых сводных?
Какие основные преимущества этого компьютера должны быть над другими?
Я обычный пользователь, который в этом ничего не понимает. Но я не работаю а скорее мучаюсь. Компьютер постоянно висит. Своднные обновляются по 15-30минут.

К вашему перечню методов добавил бы п. 5.1. Обработка данных при помощи ADO & SQL. Получаю с (кошмарного) клиента данные в формате Excel 97-2000 в сатанинском виде. Но, оказывается, как коллеги с СКЛ.ру подсказали, даже такой ужас может обрабатываться при помощи SQL jet. До подсказки гонял эти десятки тысяч строк в цикле — жесть как она есть, сами понимаете))) На обработку уходили минуты.

Знайка, самый умный эксперт в Цветочном городе
Мнение эксперта
Знайка, самый умный эксперт в Цветочном городе
Если у вас есть вопросы, задавайте их мне!
Задать вопрос эксперту
С помощью функций даты и времени можно решить практически любые задачи, связанные с учетом даты или времени например, определить возраст, вычислить стаж работы, определить число рабочих дней на любом промежутке времени. Если же вы хотите что-то уточнить, я с радостью помогу!
Скобки позволяют Excel определить, где начинается и где заканчивается список аргументов. Внутри скобок должны располагаться аргументы.
В качестве аргументов можно использовать числа, текст, логические значения, массивы, значения ошибок или ссылки. Аргументы могут быть как константами, так и формулами.

Применение Excel в лабораториях при обработке данных.

  • Копирование-вставка результатов запросов
  • Использование стандартных процедур импорта (например, Microsoft Query) для формирования данных на рабочих листах
  • Использование программных средств для доступа к базам данных с последующим переносом информации в диапазоны ячеек
  • Непосредственный доступ к данным без копирования информации на рабочие листы
  • Подключение к OLAP-кубам

Данные, полученные из учетных систем, обычно характеризуются большим объемом – количество строк может составлять десятки тысяч, количество столбцов при этом часто невелико, так как языки запросов к базам данным сами имеют ограничение на одновременно выводимое количество полей.

Как упростить работу с цифрами: 5 инструментов Excel

Евгений Довженко о том, как можно эффективно работать даже с огромными массивами данных.

Любой сотрудник компании, работающий в отделе продаж, финансов, маркетинга, логистики, сталкивается с необходимостью работать с данными, анализировать их.

Евгений Довженко о том, как можно эффективно работать даже с огромными массивами данных. 0

Excel — незаменимый помощник для достижения этих целей. Мы импортируем информацию, «подтягиваем» ее, систематизируем. На ее основе строим диаграммы, сводные таблицы, планируем, прогнозируем.

Однако в Excel до недавнего времени было 2 важных ограничения:

Мы не могли разместить на рабочем листе Excel более миллиона строк (а наши данные о продажах за 2 года занимают, например, 10 млн строк).

Мы знали, как создать и настроить интерактивные и обновляемые отчеты, но это отнимало много времени.

Единственный инструмент в Excel — сводные таблицы — позволял быстро обрабатывать наши данные.

С другой стороны, есть категория пользователей, которые работают со сложными BI-системами. Это системы бизнес-аналитики (business intelligence), которые дают возможность быстро визуализировать, «крутить» данные и извлекать из них ценную информацию (data mining). Однако внедрение и поддержка таких систем требует значительного участия IT-специалистов и больших финансовых вложений.

До Excel 2010 было четкое разделение на анализ малого и большого объема данных: Excel с одной стороны и сложные BI-системы — с другой.

Power Query

Чтобы работать с данными, к ним нужно подключиться, отобрать, преобразовать или, другими словами, привести их к нужному виду.

Для этого и необходим Power Query. До версии Excel 2013 включительно этот инструмент был в виде надстройки, которую можно было установить бесплатно с сайта Microsoft.

В версии 2016 это уже встроенный в программу инструментарий, находящийся на вкладке «Данные» (Data) в разделе «Скачать и преобразовать» (Get and Transform).

Какие Инструменты в Microsoft Excel Можно Использовать Для Анализа Информации • Power view

Какие Инструменты в Microsoft Excel Можно Использовать Для Анализа Информации • Power view

Перечень источников информации, к которым можно подключаться — огромный: от баз данных (их в последней версии 10) до Facebook и Google таблиц (рис. 1).

Евгений Довженко о том, как можно эффективно работать даже с огромными массивами данных. 1

Вот некоторые возможности Power Query по подготовке и преобразованию данных:

отбор строк и столбцов, создание пользовательских (вычисляемых) столбцов

преобразование данных с помощью числовых, текстовых функций, функций даты и времени

транспонирование таблицы, разворачивание по столбцам (Pivot) и наоборот — сворачивание данных, организованных по столбцам, в построчный вид (Unpivot)

объединение нескольких таблиц: как вниз — одну под другую, так и связывание по общей колонке (единому ключу)

Евгений Довженко о том, как можно эффективно работать даже с огромными массивами данных. 2

Ну и конечно, после выгрузки подготовленных данных в Excel они будут автоматически обновляться, если в источнике данных появятся новые строки.

Компания в своей аналитике использует текущие курсы трех валют, которые ежедневно обновляются на сайте Национального банка.

Таблица на сайте непригодна для прямого использования (рисунок 2-1):

в колонке «Курс» в качестве разделителя целой и дробной частей используется точка (в наших региональных настройках — запятая)

в колонке «Курс» отображается показатель за разное количество единиц валюты: за 100, за 1000 и т. д. (указано в отдельной колонке «Количество единиц»)

Евгений Довженко о том, как можно эффективно работать даже с огромными массивами данных. 3

Рис. 2-1. Так выглядит таблица с курсами валют на сайте Нацбанка.

С помощью Power Query мы подключаемся к таблице текущих курсов валют на сайте НБУ и в этом редакторе готовим запрос на извлечение данных:

В колонке «Курс» меняем точку на запятую (инструмент «Замена значений»).

Создаем вычисляемый столбец, в котором курсы валют в колонке «Курс» делятся на количество единиц валюты из колонки «Количество единиц».

Удаляем лишние столбцы и оставляем только строки валют, с которыми работаем.

Выгружаем полученную таблицу на рабочий лист Excel.

Рис. 2-2. Так выглядит результирующая таблица в нашем Excel файле.

Курсы валют на сайте Нацбанка меняются каждый день. Но при обновлении данных в документе Excel наш, один раз подготовленный, запрос пройдет через все шаги, и результирующая таблица всегда будет в нужном виде, но уже с актуальными курсами.

У вас данные находятся в разрозненных источниках? Некоторые таблицы содержат больше 1 млн строк? Вам нужно все это объединить в одну модель данных и анализировать с помощью, например, сводной таблицы Excel? Здесь понадобится Power Pivot — надстройка Excel, которая по умолчанию включена в версии Pro Plus и выше (начиная с версии 2010).

Евгений Довженко о том, как можно эффективно работать даже с огромными массивами данных. 5

Евгений Довженко о том, как можно эффективно работать даже с огромными массивами данных. 6

Вот некоторые возможности Power Pivot, помимо описанных выше:

добавлять вычисляемые столбцы и поля (меры), в том числе основанные на расчетах из нескольких таблиц

создавать и мониторить в сводной таблице ключевые показатели эффективности (KPI)

создавать иерархические структуры (например, по географическому признаку — регион, область, город, район)

И обрабатывать все это с помощью сводной таблицы Excel, построенной на модели данных.

Пример. У предприятия в базе данных (или отдельных файлах Excel) в 5 таблицах хранится информация о продажах, клиентах, товаре и его классификации, менеджерах по продажам и закупочных ценах продукции. Необходимо провести анализ по объемам продаж и маржинальности по менеджерам.

в таблице «Продажи» создаем вычисляемый столбец «Продажи в закупочных ценах», умножив количество штук из таблицы «Продажи» на закупочную цену из таблицы «Цена закупки»

с помощью инструмента «Ключевые показатели эффективности» устанавливаем цель по маржинальности и настраиваем визуализацию — как выполнение цели будет визуализироваться в сводной таблице

Теперь можно «крутить» эти данные в сводной таблице или в отчете Power View (следующий инструмент) и анализировать маржинальность по товарам, менеджерам, регионам, клиентам.

Power View

Иногда сводная таблица — не лучший вариант визуализации данных. В таком случае можно создавать отчеты Power View. Как и Power Pivot, Power View — это надстройка Excel, которая по умолчанию включена в версии Pro Plus и выше (начиная с версии 2010).

В отличие от сводной таблицы, в отчет Power View можно добавлять диаграммы и другие визуальные объекты. Здесь нет такого количества настроек, как в диаграммах Excel. Но в том то и сила инструмента — мы не тратим время на настройку, а быстро создаем отчет, визуализирующий данные в определенном разрезе.

Вот некоторые возможности Power View:

— быстро добавлять в отчет таблицы, диаграммы (без необходимости настройки)

Евгений Довженко о том, как можно эффективно работать даже с огромными массивами данных. 7

Даже самые внушительные массивы данных можно систематизировать и визуализировать — главное не ограничиваться поверхностными возможностями Excel, а брать из его функций все возможное.

Знайка, самый умный эксперт в Цветочном городе
Мнение эксперта
Знайка, самый умный эксперт в Цветочном городе
Если у вас есть вопросы, задавайте их мне!
Задать вопрос эксперту
Возник он не от хорошей жизни, а потому, что всё происходящее на рынке давно и явно указывает, что спрос на разработчиков во много раз превосходит предложение. Если же вы хотите что-то уточнить, я с радостью помогу!
В конце так же как и вы сошлюсь на Gartner. Согласно их прогнозам в 2024 году более 65% корпоративных приложений будет создаваться при помощи low code инструментов. Это не много, а очень много. В переводе на русский это означает, что ВСЁ что можно реализовать при помощи low code будет реализовано на нем.

Из бизнес-пользователя в аналитики: какую систему для анализа данных выбрать — Сервисы на vc. ru

Excel – это фантастический инструмент для обработки данных – даже в испытательной лаборатории (хотя он специально не предназначен для этого) – но в лаборатории нужна осознанная стратегия, чтобы получить максимальную отдачу от его использования эффективным, надежным и безопасным способом.

Из бизнес-пользователя в аналитики: какую систему для анализа данных выбрать

Хотите начать самостоятельно анализировать данные и не знаете, какой аналитический инструмент подойдёт? Где приручать питонов, а где ограничиться Excel? Мы подготовили обзор различных подходов к анализу данных, их преимуществ и недостатков.

Под начинающим аналитиком в этой статье мы в большей степени подразумеваем специалиста с техническим или экономическим образованием, но не исключаем и другую непрофильную специализацию.

Однако в большинстве компаний весь анализ данных завязан на IT-отделе. Из-за этого возникает ряд проблем:

  • «Хотелок» у бизнеса много, IT-ресурсов мало, рынок меняется быстро. Возникает боль всех заказчиков — очередь к IT-специалистам. Из-за этого ожидание реализации задачи может длиться месяцами.
  • Эксперты понимают бизнес, но не понимают язык программистов. Программисты, наоборот, не знают тонкостей бизнеса. Из-за разницы в толковании и терминологии, объяснении постановки задач и обсуждении технического задания срок реализации растягивается.

У бизнес-пользователей всё чаще появляется необходимость анализировать данные собственными силами, проверять гипотезы на практике и получать работающие прототипы систем, быстро решать свои задачи, не дожидаясь разработчиков. Это стремление привело к появлению новой роли в аналитике — гражданский специалист по работе с данными (Сitizen data scientist).

Какой инструмент для анализа данных выбрать начинающему аналитику? Давайте рассмотрим популярные классы систем для анализа данных и их особенности.

Бытует теорема о полноте Excel: любой бизнес-процесс можно описать достаточно «жирным» excel-файлом. Действительно, этот табличный редактор — настольный и универсальный инструмент любого специалиста по работе с данными. До сих пор ни один инструмент аналитика не может превзойти Excel по популярности.

Производительность Excel — недостаток программы, который особенно ощущается при росте объёма данных до одного миллиона строк: система начинает медленно производить вычисления. Иногда из-за этих трудностей с Excel-таблицами становится невозможно работать.

➕ : Excel знаком каждому, поэтому подойдёт всем начинающим аналитикам. Сфера применения: для быстрого индивидуального исследования гипотез на небольшом объёме структурированных данных.

➖ : Когда танцы с бубном над подготовкой данных и сводными отчётами начинают занимать до нескольких часов в сутки, данных становится много, информационная модель усложняется, с отчётами работает несколько человек, появляется необходимость в изменении бизнес-процессов и переходе на другой инструмент.

Традиционные системы Business Intelligence — удобные инструменты представления и визуализации информации. К ним относятся Power BI, Tableau и другие.

➕ : Для бизнес-пользователей погружение в BI-приложения осуществляется легко и просто, оно не требует специальных знаний. С помощью BI-систем можно строить красивые отчёты для руководителей и проводить визуальную оценку для поиска инсайтов.

➖ : Если в компании не существует единого хранилища данных и не налажены процессы управления качеством информации, то придётся порядком попотеть совместно с IT-шниками над получением достоверных результатов. Для возможностей, связанных с углублённой аналитикой данных, надо использовать другие инструменты.

Порог вхождения в языки программирования самый высокий по сравнению с другими инструментами, так как нужны специальные знания в области IT и статистики, а также умение писать код. Нельзя просто прочитать инструкцию для «чайников» и пойти программировать работающие системы. Ведь между копированием библиотеки и полноценным решением огромная разница.

➕ : Если предыдущие инструменты не решают ваших задач, то переходите на новый уровень прокачки своих аналитических умений — изучайте языки программирования. С помощью них вы сможете настроить весь процесс анализа данных и использовать, в том числе, продвинутые алгоритмы машинного обучения в своей работе.

➖ : Для начинающего аналитика этот порог входа самый высокий. Помимо знаний в Data Science необходимы умения в области программирования. Будьте готовы, что на довольно плотное обучение уйдёт минимум полгода. Ведь бизнес-пользователь должен освоить новую, достаточно сложную, специальность.

Здесь речь пойдёт не про все аналитические платформы, а только те, которые работают по принципу low-code. Эти инструменты визуального проектирования были разработаны специально для аналитиков, не обладающих навыками программирования, и оснащены всеми необходимыми инструментами для простой работы с данными. Примеры таких решений: Loginom, Alteryx и т.д.

Аналитические платформы, которые базируются на принципе low-code, представляют собой конструкторы с набором готовых «кубиков». Решения, которые ранее разрабатывались программистами, теперь могут собираться самими аналитиками, «мышкой», в короткие сроки. Системы показывают высокую производительность при работе с большими массивами данных.

Для продвинутой аналитики платформы содержат инструменты Machine Learning. Наличие упрощённых мастеров настройки алгоритмов анализа данных с уточняющей документацией максимально упрощает вход в профессию аналитика.

Для применения алгоритмов продвинутой аналитики всё-таки понадобится изучение теории по анализу данных и математической статистике. Не требуется становиться 100% Data Scientist’ом, но должно быть понимание, для чего нужен определённый алгоритм анализа данных, как правильно подготовить данные для него и интерпретировать результаты.

Минусом аналитических платформ также является ограниченное количество компонентов. При нехватке функционала придётся использовать встроенные языки программирования и просить помощи у своих IT-шников. Low-code не исключает написание кода, а сводит его к минимуму.

➕ : Визуальное проектирование понятно всем, кто работает в Excel. Для получения первых результатов непрофессиональным разработчикам достаточно пары дней. На базе аналитической платформы начинающие аналитики смогут реализовать бОльшую часть своих ежедневных задач: от подготовки данных до машинного обучения и моделирования.

➖ : Для использования продвинутой аналитики придётся погуглить про алгоритмы анализа данных, изучить, что это такое и как может быть применено к вашим данным. В случае выхода за рамки low-code идеологии требуется написание кода или помощь IT-отдела.

Анализ данных расширяет возможности компании, позволяя бизнесу получать инсайты. Ключевая роль в этом процессе теперь отводится бизнес-экспертам как основным «носителям» знаний. Бизнес-пользователю нужен лишь подходящий инструмент.

Развивайте свои аналитические навыки, пробуйте и выбирайте подходящий для вас инструмент для работы с данными. Ищите то решение, которое быстро и эффективно реализует вашу задачу, а главное, поможет избежать ежедневных рутинных операций.

«Среди аналитиков популярны языки программирования Python и R»

Вы забыли еще один минус использования ЯП для аналитики: как правило, Data Scientist’ы редко хорошо владеют навыками хорошего проектирования, поддержания стиля кода и др., которые повышают понятность и простоту модификации кода.

В результате быстро встает проблема масштабирования при увеличении количества сотрудников на проекте. Каждый пишет в своем стиле, и каждый следующий начинает работу со слов: «кто написал этот ужасный код, проще все выбросить и переписать заново».

Очень точно. Обычно код пишут быстро под требования бизнеса, через 6 месяцев сам автор с трудом может объяснить, что написал.

Основная проблема разработчиков – это, все-таки, непонимание предметной области. Программисты не то, что не знают, а знать не хотят нюансы бизнеса. Видимо, одна из причин связана с тем, что как только начинаешь разбираться, то выясняется, что этому надо посвятить всё время, я бы даже сказал всю жизнь. 🙂

Пока не погружаешься в предметную область всё кажется понятным. Руки так и чешутся взять побольше алгоритмов, желательно со словами «искусственный интеллект» влить какие попало данные и ждать чуда. Если не сработал один алгоритм, то попробовать другие.

Но когда пообщаешься с бизнес-экспертом выясняется, что проблемы совсем не там, где хотелось бы их иметь. Например, взять типичную задачу – анализ клиентов. Казалось бы, что тут не понятного? Сегментируем клиентов, определим предпочтения, адресные предложения… В общем, как все рассказывают.

Надо глубоко знать предметную область. Без этого никуда. Хорошо, если бизнес-эксперт, а не разработчик как можно больше сделает своими руками. Поэтому BI-системы так популярны, а low-code все более распространяется.

Никто не пугает сложностью изучения языков программирования. Это факт, который надо признать. Лично я разработчик и тоже быстро изучил не один, я много языков программирования, но при этом не считаю, что любому это даётся так же легко.

Если человек выучил язык программирования — отлично. Пусть им пользуется. Только считать дебилами людей, которые это сделать не смогли странно.

Кстати, пример, который вы привели — типичная когнитивная ошибка. Берём один пример и считаем, его за правило. «Мой знакомый за год выучил английский, если кто-то не может это сделать так же, значит он дебил». Вместо слово «английский» можете поставить что угодно.

Специалист по анализу данных таких ошибок допускать не должен. Далеко идущие выводы можно делать на основе большой выборки, а не тех, с кем вы лично знакомы. Для этого лучше всего посмотреть, что происходит на рынке в целом.

А вот тут все факты явно указываются, что программирование, причем любое, штука сложная. Кривая обучения слишком крутая, поэтому способных её пойти мало. Спрос на разработчиков большой, куча предложений, большие зарплаты. И ситуация такова уже не один десяток лет.

На свободном рынке, а рынок труда достаточно свободный, люди выбирают ту работу, которая приносит максимальную выгоду. Если можно за 3 недели изучить специальность и получать в 2-3 раза больше, чем есть на текущий момент, то спрос на разработчиков был бы удовлетворен за год-два, но, зайдя на любой сайт вакансий, можно легко убедиться, что это не так.

В конце так же как и вы сошлюсь на Gartner. Согласно их прогнозам в 2024 году более 65% корпоративных приложений будет создаваться при помощи low code инструментов. Это не много, а очень много. В переводе на русский это означает, что ВСЁ что можно реализовать при помощи low code будет реализовано на нем.

Low code это не временное увлечение, а фундаментальный тренд. Возник он не от хорошей жизни, а потому, что всё происходящее на рынке давно и явно указывает, что спрос на разработчиков во много раз превосходит предложение. Причем удовлетворить его не получается именно потому, что это сложно.

В подобной ситуации можно, конечно, считать всех неспособных изучить язык программирования дебилам, но есть более правильный путь — предложить инструмент у которого кривая обучения была бы не такой крутой.

Я не считаю, что R или Python это плохо. Как раз наоборот — это хорошо. Low code системы поддерживают ЯП, т.к. не всё укладывается в парагдиму визуального конструирования. Просто большинство людей могут получить такой же результат, но намного проще и прибегать к кодированию в редких случаях.

Кстати, посмотрел статью на Хабре, что вы указали. Всё что там реализовано на R можно получить в любом BI инструменте, не то, что не изучая язык программирования, а практически не прикасаясь к клавиатуре. Причем будет лучше чем на R по всем показателям: проще, красивее, быстрее, гибче. И парсинг json в low code продуктах тоже не проблема.

Выбирайте тот продукт, который больше нравится, но большинство пользователей выберут более простой инструмент. Это же просто здравый смысл. Как говорится, «если результат такой же, зачем платить больше?»

Знайка, самый умный эксперт в Цветочном городе
Мнение эксперта
Знайка, самый умный эксперт в Цветочном городе
Если у вас есть вопросы, задавайте их мне!
Задать вопрос эксперту
Если возникает потребность в сборе большего числа обращений, подойдет платный тариф Google Analytics 360 либо другой инструмент. Если же вы хотите что-то уточнить, я с радостью помогу!
Чтобы решить вышеописанную проблему, специалист должен устранить саму возможность ее появления. Воспользовавшись специальными инструментами анализа данных, специалист в принципе исключает возможность человеческой ошибки, т.к. автоматизирует процесс. А также значительно экономит время и гарантирует получение точной информации.

Эксель пакет анализ данных –

  • «Хотелок» у бизнеса много, IT-ресурсов мало, рынок меняется быстро. Возникает боль всех заказчиков — очередь к IT-специалистам. Из-за этого ожидание реализации задачи может длиться месяцами.
  • Эксперты понимают бизнес, но не понимают язык программистов. Программисты, наоборот, не знают тонкостей бизнеса. Из-за разницы в толковании и терминологии, объяснении постановки задач и обсуждении технического задания срок реализации растягивается.

При перемещении формулы в новое место таблицы ссылки в формуле не изменяются, а ячейка, где раньше была формула, становится свободной. При копировании формула перемещается в другое место таблицы, ссылки изменяются, но ячейка, где раньше находилась формула, остается без изменения. Формулу можно распространить на блок ячеек.

Оставить отзыв

Публикуя свою персональную информацию в открытом доступе на нашем сайте вы, даете согласие на обработку персональных данных и самостоятельно несете ответственность за содержание высказываний, мнений и предоставляемых данных. Мы никак не используем, не продаем и не передаем ваши данные третьим лицам.