HTB Devvortex. Повышаем привилегии через уязвимость в Apport

Содержание статьи

  • Разведка
  • Сканирование портов
  • Точка входа
  • Точка опоры
  • Joomla Super User → RCE
  • Продвижение
  • Локальное повышение привилегий

В сегод­няшнем рай­тапе мы с тобой про­экс­плу­ати­руем прош­логод­нюю уяз­вимость в Apport — сис­теме сооб­щений о неполад­ках в Ubuntu. Но что­бы получить дос­туп к ней, сна­чала про­ведем ата­ку на Joomla, получим сес­сию на сер­вере и най­дем учет­ные дан­ные поль­зовате­ля.

Все это — в рам­ках про­хож­дения машины Devvortex с учеб­ной пло­щад­ки Hack The Box. Уро­вень слож­ности задания отме­чен как лег­кий.

warning

Под­клю­чать­ся к машинам с HTB рекомен­дует­ся толь­ко через VPN. Не делай это­го с компь­юте­ров, где есть важ­ные для тебя дан­ные, так как ты ока­жешь­ся в общей сети с дру­гими учас­тни­ками.

 

Разведка

 

Сканирование портов

До­бав­ляем IP-адрес машины в /etc/hosts:

10.10.11.242 devvortex.htb

И запус­каем ска­ниро­вание пор­тов.

Справка: сканирование портов

Ска­ниро­вание пор­тов — стан­дар­тный пер­вый шаг при любой ата­ке. Он поз­воля­ет ата­кующе­му узнать, какие служ­бы на хос­те при­нима­ют соеди­нение. На осно­ве этой информа­ции выбира­ется сле­дующий шаг к получе­нию точ­ки вхо­да.

На­ибо­лее извес­тный инс­тру­мент для ска­ниро­вания — это Nmap. Улуч­шить резуль­таты его работы ты можешь при помощи сле­дующе­го скрип­та:

#!/bin/bashports=$(nmap -p- --min-rate=500 $1 | grep ^[0-9] | cut -d '/' -f 1 | tr 'n' ',' | sed s/,$//)nmap -p$ports -A $1

Он дей­ству­ет в два эта­па. На пер­вом про­изво­дит­ся обыч­ное быс­трое ска­ниро­вание, на вто­ром — более тща­тель­ное ска­ниро­вание, с исполь­зовани­ем име­ющих­ся скрип­тов (опция -A).

Ре­зуль­тат работы скрип­та

Ска­нер нашел два откры­тых пор­та:

  • 22 — служ­ба OpenSSH 8.2p1;
  • 80 — веб‑сер­вер Nginx 1.18.0.

Вы­бор неболь­шой, поэто­му осмотрим веб‑сер­вер.

Глав­ная стра­ница сай­та 

Точка входа

На сай­те ничего инте­рес­ного най­ти не уда­лось, поэто­му прис­тупим к ска­ниро­ванию.

Справка: сканирование веба c feroxbuster

Од­но из пер­вых дей­ствий при тес­тирова­нии безопас­ности веб‑при­ложе­ния — это ска­ниро­вание методом перебо­ра катало­гов, что­бы най­ти скры­тую информа­цию и недос­тупные обыч­ным посети­телям фун­кции. Для это­го мож­но исполь­зовать прог­раммы вро­де dirsearch, DIRB или ffuf. Я пред­почитаю feroxbuster.

При запус­ке ука­зыва­ем сле­дующие парамет­ры:

  • -u — URL;
  • -w — сло­варь (я исполь­зую сло­вари из набора SecLists);
  • -t — количес­тво потоков;
  • -d — глу­бина ска­ниро­вания.

За­даем все аргу­мен­ты и запус­каем feroxbuster:

feroxbuster -u http://devvortex.htb/ -t 128 -d 1 -w directory_2.3_medium_lowercase.txt

Ре­зуль­тат ска­ниро­вания катало­гов с помощью feroxbuster

Опять же ничего инте­рес­ного не получа­ем, поэто­му ска­ниру­ем под­домены. Для это­го исполь­зуем ffuf. Парамет­ры сле­дующие:

  • -u — URL;
  • -w — сло­варь;
  • -t — количес­тво потоков;
  • -H — HTTP-заголо­вок.

ffuf -u "http://devvortex.htb/" -H 'Host: FUZZ.devvortex.htb' -t 128 -w subdomains-top1million-110000.txt

Ре­зуль­тат ска­ниро­вания под­доменов с помощью ffuf

Но в вывод при­ложе­ния попада­ют все вари­анты из спис­ка, поэто­му нуж­но добавить филь­тр по раз­меру стра­ницы (параметр -fs):

ffuf -u "http://devvortex.htb/" -H 'Host: FUZZ.devvortex.htb' -t 128 -w subdomains-top1million-110000.txt -fs 154

Ре­зуль­тат ска­ниро­вания под­доменов с помощью ffuf

Мы наш­ли под­домен dev, а зна­чит, обновля­ем запись в фай­ле /etc/hosts:

10.10.11.242 devvortex.htb dev.devvortex.htb

И идем смот­реть обна­ружен­ный сайт.

Глав­ная стра­ница сай­та

Но и здесь не наш­лось ничего, что мож­но было бы исполь­зовать для раз­вития ата­ки. Зна­чит, нуж­но ска­ниро­вать фай­лы и катало­ги.

feroxbuster -u http://dev.devvortex.htb/ -t 128 -d 1 -w files_interesting.txt

Ре­зуль­тат ска­ниро­вания катало­гов с помощью feroxbuster

В выводе видим файл robots.txt.

Справка: robots.txt

Этот файл исполь­зует­ся для того, что­бы поп­росить кра­уле­ры (нап­ример, Google, Яндекс и про­чие) не тро­гать какие‑то опре­делен­ные катало­ги. Нап­ример, ник­то не хочет, что­бы в поис­ковой выдаче появ­лялись стра­ницы авто­риза­ции адми­нис­тра­торов сай­та, фай­лы или пер­сональ­ная информа­ция со стра­ниц поль­зовате­лей и про­чие вещи в таком духе. Одна­ко и зло­умыш­ленни­ки пер­вым делом прос­матри­вают этот файл, что­бы узнать о фай­лах и катало­гах, которые хочет спря­тать адми­нис­тра­тор сай­та.

Со­дер­жимое фай­ла robots.txt

По­луча­ем инте­рес­ные стра­ницы, а так­же узна­ём, что исполь­зует­ся Joomla. А из фай­ла README.txt узна­ём и вер­сию этой сис­темы управле­ния кон­тентом.

Со­дер­жимое фай­ла README.txt 

Точка опоры

Пер­вым делом сто­ит про­верить, есть ли для обна­ружен­ной CMS уже готовые экс­пло­иты. Самый надеж­ный спо­соб най­ти готовый экс­пло­ит — поис­кать в интерне­те на сай­тах вро­де HackerOne, Exploit-DB, а так­же GitHub.

По­иск экс­пло­итов в Google

Источник: xakep.ru

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *