Dla przybliżenia być może trochę abstrakcyjnego i ogólnego obrazu zarządzania kosztami w procesie budowlanym spróbuję przejść do bardziej konkretnych przykładów.
Polecam uwadze i dociekliwości Czytelników – samo życie daje najlepsze przykłady, dlatego konkretne pytania lub właśnie przykładowe sytuacje do skomentowania są bardzo istotne.
Dla przybliżenia być może trochę abstrakcyjnego i ogólnego obrazu zarządzania kosztami w procesie budowlanym spróbuję przejść do bardziej konkretnych przykładów.
Polecam uwadze i dociekliwości Czytelników – samo życie daje najlepsze przykłady, dlatego konkretne pytania lub właśnie przykładowe sytuacje do skomentowania są bardzo istotne.
Na początek przykład, który był analizowany na wczesnym etapie przygotowania inwestycji. Inwestor posiadał decyzję WZ pozwalającą na budowę budynku o przeznaczeniu biurowo-usługowym z maksymalnie 3 podziemnymi kondygnacjami garażowymi i 9 nadziemnymi. I to są nasze warunki brzegowe do analizy kosztów budowy i oceny najefektywniejszego projektu. Oczywiście znajdą się tu malkontenci, którzy powiedzą, że biorąc pod uwagę ceny działek budowlanych można od razu przewidzieć rozwiązanie problemu. Ale ten współczynnik, czyli tzw. koszty sztywne niezależne od rozmiarów budynku, zostawmy na koniec. Na razie skupmy się na kosztach budowlanych w zależności od liczby kondygnacji pod- i nadziemnych.
Należy jeszcze zaznaczyć, że kondygnacje garażowe wraz z rampą zjazdową są większe w obrysie od części nadziemnej – tzw. proporcje powierzchni.
Wskaźnikiem decydującym o ocenie rozwiązania jest koszt wybudowania 1 m2 powierzchni sprzedażnej.
Lokalizacja obiektu w zabudowie śródmiejskiej wymusza określony reżim technologiczny wykonawstwa. Ze względu na sąsiadów musimy założyć wykonanie bądź ścianek szczelinowych, bądź też zabicie ścianek szczelnych.
Z pewnych względów formalnych w grę wchodziły jedynie „larseny” i ich pochodne, do tego wciskane, a nie wbijane (hałas). Zostały one potraktowane jak rodzaj szalunku traconego – wartość i przychody z odzyskanych profi li to nawet nie promile całościowych kosztów, lecz spora strata na czasie. I tutaj pojawia się pierwsza ciekawa zależność. O ile dla dwu kondygnacji podziemnych koszty jednostkowe na m2 są dosyć zbliżone, o tyle przy trzeciej pojawia się pewien przeskok w postaci technologicznych obostrzeń: w tym przypadku kotwy gruntowe stabilizujące. W przypadku ścianek szczelinowych będą to kotwy, rozpory lub wykonanie metodą górniczą (up and down). I o ile pomiędzy 1 i 2 kondygnacjami różnica w kosztach jednostkowych dochodziła do ok. 5%, o tyle dla -3 było to już ok. 20-25%. Pamiętamy cały czas, że obrys kondygnacji garażowych jest większy, co zwiększa wpływ ich kosztów na całość przedsięwzięcia. Z drugiej strony interesuje nas efektywność z punktu widzenia dewelopera, co wiąże się z patrzeniem przez pryzmat przychodów. Dlatego wprowadzono współczynnik korygujący uwzględniający proporcje pomiędzy stawkami z wynajmu powierzchni biurowej i garażowej – powiedzmy, że 20%. To spowodowało z kolei „wypłaszczenie” wpływu garażu na koszty całościowe.
A jeszcze „z tyłu głowy” trzeba mieć wymogi WZ w zakresie minimalnej liczby miejsc garażowych – czyli tak naprawdę powierzchnia kondygnacji podziemnych poza proporcjami wynikającymi z kształtu działki musi być również uzależniona od powierzchni nadziemnej budynku.{mospagebreak}
I teraz wychodzimy na powierzchnię. Znowu trzeba przyjąć kilka warunków brzegowych:
■ Parter powinien być ze względów funkcjonalno-technicznych wyższy niż pozostałe kondygnacje.
■ W miarę „wzrostu” budynku należy przyjmować większe przekroje elementów konstrukcyjnych (tych „dźwigających” budynek), co wiąże się z większymi kosztami.
Z jednej więc strony większa liczba kondygnacji wyższych niweluje wpływ „droższego” parteru.
Z drugiej większa liczba kondygnacji wyższych podnosi koszty kondygnacji niższych. A do tego przy przeskokach z kategorii budynków niskich do średnich, a następnie wysokich należy spodziewać się kolejnego efektu podnoszącego koszty jednostkowe. I jest jeszcze dach, który niezależnie od liczby kondygnacji być musi i jest droższy niż płyta stropowa międzykondygnacyjna – im mniej kondygnacji, tym jego „zawyżający” wpływ jest większy.
Do tego oczywiście dochodzą koszty instalacji i wyposażenia, ale te jest bardzo trudno oszacować.
Należy jeszcze pamiętać, że liczymy koszty w oparciu o powierzchnię brutto, a nas interesuje sprzedażna – więc znowu wskaźnik korygujący w wysokości np. 75% dla nadziemnych kondygnacji biurowych. Tyle teorii.
Opierając się na projektach koncepcyjnych zrobiono wstępne przedmiary. I zaczęło się liczenie. Oczywiście było to proste modelowanie pozwalające tak naprawdę uchwycić jedynie proporcje zmian. Na koniec wyszło, że jakkolwiek by liczyć, trzeba budować, jak najwięcej się da – czyli w tym przypadku: co było do udowodnienia.
Jeśli do tego dołożyć stałe koszty w postaci kosztów zakupu działki, to ten efekt będzie jeszcze wyraźniejszy.
Mnie jednak nurtował jeden problem. Jak ocenić wpływ przeskoku między kategoriami budynków w zależności od wysokości. I czy tutaj nie zaniżyliśmy tego właśnie wpływu?
Niestety – brak badań i analiz statystycznych nie pozwalał na „praktyczną” weryfi kację przyjętych założeń. Generalnie trwałem więc w przekonaniu, że przy przeskoku z jednej kategorii do drugiej powinien pojawić się jakiś skokowy wzrost ceny jednostkowej.
Kiedy pojawiła się okazja do weryfi kacji przy okazji analizy ofert dla kilku budynków, pełen nadziei przystąpiłem do liczenia i… zdziwienie. Dla dwóch budynków o bardzo porównywalnej skali i technologii wykonania, tyle że jeden o „orientacji poziomej”, czyli dosyć niski, a drugi o „orientacji pionowej”
i wysokości powyżej 25 m, oferowanych w mniej więcej tym samym czasie, koszty jednostkowe dla budynku niskiego niewiele, ale zauważalnie były wyższe! Jak wiadomo, doświadczenie jest ostatecznym weryfi katorem teorii – więc moja teoria legła w gruzach.
Po dłuższych dywagacjach i analizach doszedłem do jedynego wydaje się racjonalnego wytłumaczenia. Ponieważ były to budynki biurowe, klasy B-B+, budowane dla dużego międzynarodowego dewelopera, doszedłem do wniosku, że wewnętrzne standardy i wymogi dewelopera są dużo bardziej restrykcyjne i kosztotwórcze niż normowe wymogi. Czyli tak naprawdę niewidzialna ręka rynku i oczekiwania użytkowników budynków w większym stopniu determinują koszty inwestycji niż wymogi wynikające z regulacji formalnych. A pamiętać należy, że było to dla budynków klasy B – najczęściej w tej chwili oferowane biurowce to budynki klasy A – tam dominujący wpływ standardu będzie jeszcze wyraźniejszy.
Powyżej zajmowałem się optymalizacją w zależności od efektywności/wydajności projektu. Oczywiście możliwe są również inne, bardzo interesujące scenariusze, np. budynki mieszkaniowe. Tutaj jest dopiero pole do popisu: struktura mieszkań a wielkość PUM-u (powierzchni użytkowej mieszkań). Wiadomo, że przy dzisiejszych cenach najszybciej sprzedają się mieszkania małe. I dla nich ceny m2 są najwyższe. Ale przecież w końcu deweloperowi chodzi o jak największą sumaryczną powierzchnię sprzedażną mieszkań (czyli w naszym kraju: PUM).
A przy dużej liczbie małych mieszkań mamy problemy z głębokością traktu, liczbą klatek schodowych i korytarzy, doświetleniem itp. I do tego być może z zapewnieniem odpowiedniej liczby miejsc garażowych/postojowych. Proszę popatrzeć na projekty i układy mieszkań z lat 70.: moi rodzice np. mieszkają w bloku z wielkiej płyty, gdzie przy metrażu poniżej 48 m2 są 3 widne nieprzechodne pokoje i widna kuchnia. Konia z rzędem temu, kto teraz znajdzie takie propozycje na rynku. Projektanci mają swoje tabelki ze strukturą mieszkań zapewniającą w miarę równoważne i efektywne wykorzystanie powierzchni. Ponieważ jednak, nie oszukujmy się, na koniec ważny jest wynik fi nansowy, więc wydaje się, że należałoby na początek przy tego typu projektach
opracować kilka tabel analizujących różne warianty struktury mieszkań i cen dla poszczególnych układów.
Dla inżyniera jednak jest jeszcze cała dziedzina optymalizacji i podnoszenia efektywności inwestycji nie związana z efektywnością rozkładu/schematu projektu: rozwiązania technologiczne.{mospagebreak}
Jako pierwsze przychodzi mi do głowy rozwiązanie izolacji dla ciągłej płyty dennej: czy membranowa (bitumiczna, bentonitowa, inna) izolacja pod płytą denną czy może jednak beton wodoszczelny z uszczelnieniem jedynie styków ze ścianami? Na pierwszy rzut oka wydaje się efektywniejszy beton z dodatkami uszczelniającymi. Do tego jeśli np. startujemy jesienią czy zimą i płytę denną wykonujemy w okresie niskich temperatur, to nie muszę chyba tłumaczyć, jak się trzeba namęczyć z technologiami izolacji asfaltowo-bitumicznych, szczególnie w narożnikach, by utrzymać ich szczelność. Tu jednak należy pamiętać, że tak naprawdę o wodoszczelności płyty betonowej decyduje parametr rozwarcia rys, a na te szczególny wpływ ma stopień zbrojenia. A w przypadku płyt dennych podwójnie szczególny, gdyż jako masywne elementy mają zwykle wskaźniki zbrojenia niezbyt wysokie. I dlatego, gdy istnieje niebezpieczeństwo wysokiego poziomu wód gruntowych, trzeba sprawdzić kwestię szerokości rys z konstruktorem i porównać zysk na technologii izolacji z ewentualną dopłatą na zbrojeniu.
Dalej trwa odwieczna dyskusja w zakresie konstrukcji nośnej budynków: żelbetowa czy stalowa. Nie chcę się tutaj opowiadać po żadnej stronie sporu. Proszę jednak pamiętać, że poza kosztami bezpośrednimi wpływ mają również np. koszty składki ubezpieczeniowej (ubezpieczyciele mają swoje preferencje w tym zakresie) lub przyzwyczajenia użytkowników. A pionierzy dla danych rozwiązań często sami bezpośrednio płacą frycowe za przekonanie rynku do swoich pomysłów.
W tej chwili np. dostawcy lekkich systemów przekonują dewelo-perów mieszkaniowych do stosowania na wewnętrzne ścianki działowe systemów g-k w miejsce popularnych ceramicznych lub z gazobetonu. Wydaje się, że same plusy: łatwiejsze wykonanie, większa podatność na przeróbki, mniejsze obciążenie stropów i mniejsza grubość ścianek, co przekłada się na większy PUM przy jednocześnie niższych kosztach wykonawczych. Pytanie tylko, jak zareagują przyszli użytkownicy mieszkań?
Przypominam sobie przy tej okazji jedno ze swoich pierwszych optymalizacyjnych ćwiczeń – posadzka w hali magazynowej wysokiego składowania. Ponieważ była to pierwsza połowa roku 1999, technologia zbrojenia rozproszonego, chociaż już znana i stosowana, nie była jeszcze tak powszechna jak dzisiaj. Jednak to na takie rozwiązanie padł wybór, a pytanie brzmiało: jaka grubość posadzki i jaki wskaźnik zbrojenia będzie optymalny. Nie przytoczę tutaj dokładnych wyników – nawet gdybym je pamiętał, to wielokrotnie zmieniły się już relacje między głównymi czynnikami cenotwórczymi i użyteczność tej informacji byłaby bardzo ograniczona. Pamiętam jednak, że zależności nie były liniowe, a warunki brzegowe dosyć ostre – według opinii konstruktorów zmniejszenie grubości posadzki poniżej 16 cm, przy uwzględnieniu dużych obciążeń punktowych od wózków widłowych, wiązało się z dużym ryzykiem jej uszkodzenia. Dlatego optymalizacja odbywała się w dosyć wąskim zakresie i przy tak naprawdę ograniczonej liczbie parametrów.
Ale również w tamtym okresie analizowałem rozkład antresoli biurowej pod kątem zakładu pracy chronionej. Moje działania sprowadzały się do analizy kosztów dodatkowych przystosowania rozkładu pomieszczeń i dróg ewakuacji oraz rozwiązań technicznych, np. windy, pod kątem osób niepełnosprawnych. Oczywiście stronę przychodową analizował inwestor we własnym zakresie. Jaki był efekt finalny – tego zdradzić nie mogę, ale projekt nie wyszedł poza fazę studiów wstępnych.{mospagebreak}
Wracając do technologicznej optymalizacji, jeszcze jeden przykład, również ostatnio sztandarowy: izolacja cieplna ścian zewnętrznych. Ostatnio spotkałem się ze sponsorowanym artykułem jednego z producentów, w którym padło stwierdzenie, że dla typowych ścian dwuwarstwowych najbardziej ekonomiczna dzisiaj grubość izolacji cieplnej to ok. 15 cm. Abstrahując od pobudek przy pisaniu rzeczonego artykułu taką analizę da się łatwo przeprowadzić. Oczywiście dla zdefi niowanych standardowych warunków i dla konkretnej technologii ścian. Należałoby się jednak skupić na horyzoncie czasowym dla przeprowadzanej kalkulacji. Przecież z perspektywy inwestora/dewelopera jasne jest, że im cieńsza izolacja, tym niższe koszty wybudowania. Natomiast tak naprawdę analiza przywołanego przykładu opiera się na porównaniu kosztów budowy i kosztów eksploatacji. I rzeczywiście – z perspektywy właściciela domu dopłata do ceny materiału izolacji z 12 do 15 cm powinna zwrócić się w kosztach ogrzewania, zależnie od kubatury i ukształtowania elewacji, a także sposobu ogrzewania w okresie ok. 1-2 lat.
Jak widać z przytoczonych przykładów, optymalizacja rzadko ogranicza się jedynie do analizy samych kosztów budowy. Najczęściej potrzebne jest szersze spojrzenie uwzględniające nie tylko stronę kosztową wynikającą bezpośrednio z „twardych” kosztów wykonawczych, ale również inne aspekty, jak przesunięcia w zyskach na skutek wydłużenia terminów, koszty uzyskania fi nansowania, koszty ubezpieczeń itp. Wbrew pozorom takie spojrzenie musi również prezentować każdy w miarę samodzielny kierownik robót, o osobach prowadzących własną działalność nie wspominając. Przed złożeniem oferty trzeba bowiem skalkulować swoje koszty, potem przełożyć je na stronę przychodową, a potem po przyjęciu oferty znowu zacząć kalkulować, w jakiej kwocie powinny zamknąć się koszty. Po drodze jest jeszcze np. ocena, jak się mogą kształtować ceny w przyszłości (ważne na obecnym bardzo dynamicznym rynku) – a to już prawie klasyczny przykład oceny ryzyka. I tak naprawdę robią to inżynierowie. Z całkiem dobrym skutkiem.
WALDEMAR MAJEWSKI
general manager
B.S.R. Polska Wilanów Sp. z o.o.
Warsaw Financial Center
W artykule wykorzystano dane z projektów zarządzanych przez firmę Gleeds Polska
ZAMÓW PRENUMERATĘ
Artykuł zamieszczony
w „Inżynierze budownictwa”,
maj 2007.