Skip to content
Open
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
119 changes: 119 additions & 0 deletions case-study.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,119 @@
# Case-study оптимизации

## Актуальная проблема
В нашем проекте возникла серьёзная проблема.

Необходимо было обработать файл с данными, чуть больше ста мегабайт.

У нас уже была программа на `ruby`, которая умела делать нужную обработку.

Она успешно работала на файлах размером пару мегабайт, но для большого файла она работала слишком долго, и не было понятно, закончит ли она вообще работу за какое-то разумное время.

Я решил исправить эту проблему, оптимизировав эту программу.

## Формирование метрики
Для того, чтобы понимать, дают ли мои изменения положительный эффект на быстродействие программы я придумал использовать такую метрику: Время выполнения программы + Расход памяти

## Гарантия корректности работы оптимизированной программы
Программа поставлялась с тестом. Выполнение этого теста позволяет не допустить изменения логики программы при оптимизации.

## Feedback-Loop
Для того, чтобы иметь возможность быстро проверять гипотезы я выстроил эффективный `feedback-loop`, который позволил мне получать обратную связь по эффективности сделанных изменений не более пол минуты.

Вот как я построил `feedback_loop`: Для определения первых точек роста, я использовал файл со 10_000 строками данных. По мере улучшения метрики, увеличивал кол-во строк до максимума.

## Вникаем в детали системы, чтобы найти 20% точек роста
Для того, чтобы найти "точки роста" для оптимизации я воспользовался :
- Выводом объём памяти RAM, выделенной процессу в настоящее время
- memory_profiler
- Отчётами исполюзуя gc_tracer
- Stackprof ObjectAllocations and Flamegraph
- Massif Visualizer исполюзуя valgrind
- QCachegrind memory profiling (данный инструмент внёс 90% КПД в процесс оптимизации)

Вот какие проблемы удалось найти и решить

### Ваша находка №1
Используя Benchmark.realtime и 'print_memory_usage' + свои догадки. Удалось улучшить метрику.

file_lines.each do |line|
cols = line.split(',')
users << parse_user(cols) if cols[0] == 'user'
sessions << parse_session(cols) if cols[0] == 'session'
end

Используем "<<" и передаём переменную cols
Расход памяти уменьшился в 4 раза.
Copy link
Owner

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Хорошо, но для case-study было бы хорошо ещё указать в начале этого пункта как именно нашли эту строку, каким отчётом.
И в конце пункта, как изменение повлияло на исходный отчёт.


### Ваша находка №2
Время выполнения программы 10_000 ~ 10c, при 20_000 ~ 40c
Убираем перебор огромного массива sessions для создания User.new

file_lines.each do |line|
***
if cols[0] == 'session'
sessions_browsers << cols[3]
sessions_by_id[cols[1]] ||= {}
sessions_by_id[cols[1]]['sessions'] ||= []
sessions_by_id[cols[1]]['sessions'] << parse_session(cols)
end
***
end

users.each do |user|
***
user_sessions = sessions_by_id[user['id']]['sessions']
***
end

+ модифицируем код под данную логику

Время выполнения программы 20_000 ~ 0,5c
Расход памяти уменьшился в 100 раз.

### Ваша находка №3
Время выполнения программы при 500_000 ~ 34.57с

Метод collect_stats_from_users вызывается 7 раз и внутри себя прогоняет список Users каждый раз.
+ Некоторые методы формирования хеша съедали память
Меняем на:

users_objects.each do |user|
array_time = user.sessions.map { |s| s['time'].to_i }
array_browser = user.sessions.map { |s| s['browser'] }
user_key = "#{user.attributes['first_name']}" + ' ' + "#{user.attributes['last_name']}"
report['usersStats'][user_key] ||= {}
report['usersStats'][user_key]['sessionsCount'] = user.sessions.count
report['usersStats'][user_key]['totalTime'] = array_time.sum.to_s + ' min.'
report['usersStats'][user_key]['longestSession'] = array_time.max.to_s + ' min.'
report['usersStats'][user_key]['browsers'] = array_browser.map { |b| b.upcase}.sort.join(', ')
report['usersStats'][user_key]['usedIE'] = array_browser.map { |b| b.upcase =~ /INTERNET EXPLORER/ }.include? 0
report['usersStats'][user_key]['alwaysUsedChrome'] = user.sessions.map{|s| s['browser']}.all? { |b| b.upcase =~ /CHROME/ }
report['usersStats'][user_key]['dates'] = user.sessions.map{|s| s['date'] }.sort.reverse
end

Время выполнения программы при 500_000 ~ 17с
Расход памяти уменьшился в 3 раза.

### Ваша находка №4
Используя Benchmark.realtime и 'print_memory_usage'. Было замечено, что больше всего вызовов и затраченого времени уходит на "each".
Решил полностью убрать класс User, используем временный хеш (data) и попробуем убрать логику report в метод перебора строк файла.
Заодно избавимся от двух больших each:
- users.each
- users_objects.each

В данный момент использую 10мб файл для определения метрики.

Результаты до:
Время выполнения программы 50c
Max Расход памяти ~1000гб.
Результаты после:
Время выполнения программы 25c
Max Расход памяти ~450гб.

## Результаты
В результате проделанной оптимизации наконец удалось обработать файл с данными.
Удалось улучшить метрику системы с не работающей программы, до программы, которая выполняется за 80с и расходует ~ 2 гб памяти

## Защита от регресса производительности
Для защиты от потери достигнутого прогресса при дальнейших изменениях программы добавил тесты test_time и test_memory. (в качестве исходника использую файл 10мб данных)
Loading