Si deve essere consapevoli che oggi ci si trova ad operare in mercati ipercompetitivi. Forse è l’ennesima sorpresa che l’ambiente economico ci riserva e probabilmente non sarà l’ultima.

Ma cosa sta succedendo?

Nella seconda metà degli anni settanta è iniziata la turbolenza ambientale. Questa si caratterizzava per tre aspetti: difficoltà di prevedere il verificarsi di determinati fenomeni, che peraltro quando si manifestavano erano di breve durata, ma di rara intensità.

Si pensò che un modo intelligente per prevenire queste situazioni fosse quello di prestare attenzione ai segnali deboli, mentre sino ad allora si era abituati ad agire solo al manifestarsi di segnali forti. Ma in questo contesto, caratterizzato da inflazione e da un intensificarsi della concorrenza giapponese, basata su un rapporto prezzo/qualità molto elevato stava cambiando anche il cliente, che si faceva sempre più esigente. Dapprima, negli anni ottanta, questo cliente in evoluzione si è limitato a chiedere: prezzi sempre più bassi con qualità sempre più alta, poi negli anni novanta ha preteso tempi di risposta sempre più brevi e gamma dei prodotti sempre più ampia, per arrivare, all’inizio del duemila, a chiedere prodotti/servizi sempre più personalizzati.

Di fronte a quest’evoluzione del cliente con grandi sforzi molte imprese si sono attrezzate, il contributo dell’Information Technology è stato fondamentale per poterlo fare senza determinare forti squilibri nei conti economici. Ma questo non è tutto. Per molti business sono infatti arrivati gli anni della maturità, della crescita in linea con la variazione del PIL, che nella maggior parte dei Paesi industrializzati era, fra l’altro assai contenuta. Ed è in questo contesto che si è manifestata la sorpresa: il numero dei concorrenti non accennava a diminuire, anzi anche grazie alla globalizzazione dei mercati, in qualche caso aumentava. Quest’aspetto miscelandosi con tutti gli altri manifestatisi dal 1974/75 in poi e che tuttora permangono, ha spinto Richard D’Aveni (1994) a coniare il termine ipercompetizione. L’ipercompetizione è quindi la miscela esplosiva di turbolenza ambientale, evoluzione del cliente, maturità dei business con il contemporaneo permanere di un numero elevato di concorrenti. Gestire in un simile contesto non è facile, ma non si può non tentare di farlo.

La tradizionale regola strategica che salta è quella di proteggersi ricercando un vantaggio competitivo sostenibile nel tempo. È opportuno invece attivare processi di innovazione continua, solo in tal modo si riesce a sopravvivere in un simile ambiente. Così per la realtà del nostro Paese è fondamentale innovare prima di tutto in quei settori, ormai ipercompetitivi, ma nei quali siamo riconosciuti “maestri” nel mondo. Questi settori come ci ricorda anche M.Porter sono: l’illuminotecnica, le piastrelle e la ceramica, il tessile, mobili di arredamento, vinicolo, abbigliamento/ calzature.

Tutto ciò non eslcude che anche altri settori debbano saper attivare questi processi di innovazione continua, poichè nuove realtà si stanno affermando come concorrenti pericolosi le cui fonti di vantaggi competitivi sono basate sui costi. C’è un unico modo per rispondere efficacemente a questa concorrenza: realizzare strategie di differenziazione della propria offerta (prodotti più servizi) attraverso processi di innovazione. E i sistemi di controllo in alcuni casi hanno aiutato a percorrere questi circuiti virtuosi. Purtroppo in altre situazioni i sistemi di controllo hanno invece costituito un ostacolo. In quest’articolo si spera di poter fornire alcune indicazioni sulle soluzioni tecniche che consentano al controllo di diventare strategico, di essere a supporto dell’innovazione: o come stimolatore o,meglio ancora, come orientatore dell’innovazione stessa.

Gli strumenti di controllo che stimolano l’innovazione

Tra gli strumenti che stimolano l’innovazione alcuni rappresentano un uso “strategico” di strumenti tradizionali, altri sono strumenti progettati ad hoc. Tra i primi va annoverato il calcolo del costo pieno di fabbricazione di prodotto. Questa configurazione di costo, legata ai volumi di vendita, consente di giustificare economicamente un prodotto sino a quando il prezzo di vendita consente di conseguire un soddisfacente margine industriale. Quando il margine inizia ad assottigliarsi ciò significa che i volumi di vendita non crescono più, il prodotto ha raggiunto una determinata fase del proprio ciclo di vita ed è pertanto opportuno pensare ad una sua prossima sostituzione con un n uovo prodotto. Questo approccio è stato seguito da alcune imprese multinazionali per prodotti di largo consumo. Sempre tra gli strumenti “tradizionali” utilizzati in chiave strategica va anche considerato il Traceable costing. Questo metodo suggerisce di pensare alla sostituzione di un vecchio prodotto con un nuovo prodotto quando il margine complessivo di prodotto non è più in grado di coprire i costi fissi specifici del vecchio prodotto. Qualora non si voglia o non si possa sostituire il vecchio prodotto si può grazie alla tecnica del target costing essere stimolati o ad apportare delle modifiche al prodotto o a re-ingegnerizzare i processi praticati per ottenerlo. Applicare il Target Costing significa definire in base al prezzo praticabile sul mercato (così come può risultare da opportune ricerche di mercato) e al margine desiderato, il costo ammissibile. Da quest’ultimo deriva il Target Cost che diventa l’obiettivo da raggiungere già nelle fasi di progettazione e ingegnerizzazione del prodotto. Tale costo obiettivo viene infatti confrontato con il costo standard ottenibile, ricavato in base all’utilizzo dei materiali e delle tecnologie esistenti. Questo costo standard è normalmente molto più alto del Target Cost e, dunque, la produzione e la commercializzazione del prodotto non si avviano sino a quando la progettazione e l’ingegnerizzazione non riescono a suggerire risorse produttive e processi tali da consentire che i due costi risultino perfettamente allineati. Tutto ciò significa far lavorare i progettisti in stretta collaborazione con i fornitori, i responsabili degli acquisti e i tecnologi della produzione. Realizzato il prototipo, è infatti necessaria una sua economica ingegnerizzazione: il costo standard ottenibile dovrà coincidere o essere il più allineato possibile con il Target Cost. Solo in tal modo, dato il prezzo di vendita fissato dal mercato, vi sarà un risultato reddituale di prodotto positivo. Un simile approccio rimette in discussione quello tipico delle imprese orientate al prodotto. In queste realtà si parte con la progettazione del prodotto effettuata in base alle tecnologie esistenti e si determina il costo del prodotto; sulla base di questo si orienta o addirittura si fissa il prezzo di vendita. Mentre il processo logico seguito applicando il metodo del “Cost Plus Pricing” considera il prezzo come variabile dipendente, nella logica Target Costing è il costo che diventa la variabile dipendente sulla quale “lavorare”. I due processi sono fra loro facilmente confrontabili. Il processo tradizionale del Cost Plus muove dal costo per fissare il prezzo. Da quest’ultimo dipendono i volumi di vendita che condizionano, a loro volta, l’entità dei costi fissi imputati all’unità di prodotto. Il rischio che si corre con questo approccio è quello d’imboccare circuiti che, facendo levitare il prezzo, riducano sempre più i volumi e di conseguenza spingano costi unitari e prezzi sempre più verso l’alto.

La logica è quella di partire dalla determinazione del prezzo che il cliente ritiene “accettabile” e di manovrare le leve di costo sino a quando non si riesce a risolvere l’equazione economica a livello di prodotto. L’obiettivo è quello di rendere economicamente praticabile il prezzo di vendita che piace al cliente. Si rammenti che il rispetto del principio di economicità richiede di conseguire nel “periodo di vita” del prodotto non solo ricavi maggiori dei costi specifici, ma margini tali da offrire il desiderato contributo alla copertura dei costi fissi comuni. Tale ragionamento non va fatto su archi temporali ristretti, ma cercando di cogliere la dinamica alla quale i volumi di vendita del prodotto potranno essere soggetti nel tempo, tenendo conto degli investimenti specifici (in ricerca e sviluppo, in soluzioni produttive e in pubblicità/promozione) che è stato necessario effettuare per poter immettere sul mercato il prodotto/servizio. Il Target Costing va perciò inserito in una filosofia gestionale attenta al lungo termine e va associato ad altri strumenti e modelli come il Life-cycle Costing e le curve di esperienza. In particolare, il Life-cycle Costing suggerisce di pensare alla configurazione di costo specifico di prodotto come a qualcosa di dinamico che può e deve mutare nel tempo in relazione alla fase del ciclo di vita del prodotto. Tale costo specifico si caratterizza per comportamenti differenti delle sue due componenti. Mentre i costi fissi specifici variano solo per modifiche di capacità produttiva o di “tecnologia”, i costi variabili devono variare per effetto dell’apprendimento e di quelle economie di scala realizzabili negli approvvigionamenti di molte risorse produttive.

Ricevi i nostri contenuti iscrivendoti alla nostra Newsletter

Resta il fatto che nell’applicare le logiche del Target Cost non vi possono essere né automatismi né improvvisazioni, ma solo una scientifica, sistematica e dinamica ricerca delle modalità attraverso le quali: a) impostare inizialmente soluzioni produttive i cui costi siano condizionati da e in linea con le richieste del cliente, b) ridurre successivamente nel tempo l’incidenza percentuale dei costi specifici di un prodotto. Dalle realtà aziendali, nelle quali si è svolta l’attività di ricerca alla base di questo lavoro, è emersa la possibilità di seguire due approcci nella determinazione del Target Cost.

Il primo, quello più vicino alle applicazioni giapponesi, si caratterizza per il susseguirsi, con relazioni causali di tipo circolare, di una serie di fasi, caratterizzanti un processo orientato al cliente. Il secondo approccio è più vicino alla tradizionale logica “Cost Plus Price”, ma con una sostanziale differenza rispetto a quest’ultima: invece di determinare il costo in base alle tecnologie disponibili all’interno dell’impresa l’approccio fissa il Target Cost, in logica di Benchmarking. Si definisce il costo del prodotto guardando al mercato esterno ed ipotizzando di utilizzare le migliori tecnologie (best technology) disponibili in quel momento per realizzare quel prodotto/servizio. Questo metodo diventa quasi una necessità laddove non si conosca e non si riesca a determinare l’elasticità della domanda a differenti livelli di prezzo di vendita. La sua adozione sistematica impone inoltre all’impresa una costante attenzione al cliente per capire il “valore” che questo riconosce alla propria offerta e un costante orientamento al mercato delle nuove tecnologie, al fine di potersi interrogare sull’impatto che le tecnologie emergenti possono avere sui propri processi produttivi. Infine, esso richiede la disponibilità a rimettere costantemente in discussione le proprie scelte produttive. Una simile disponibilità risulta oggi assai positiva, poiché significa disponibilità al cambiamento e all’innovazione.

Resta un ultimo accorgimento da non trascurare: la configurazione di costo di prodotto da utilizzare. Come implicitamente affermato in questo lavoro, l’unico costo significativamente gestibile con filosofia target è il costo specifico di prodotto, dato dai costi variabili unitamente ai costi fissi specifici. Ciò non esclude che per particolari finalità “strategiche”, legate al lancio di un prodotto altamente innovativo, non si possa ricorrere a configurazioni di Target Cost comprensive di quote più o meno ampie di costi fissi comuni. Ad esempio, qualora si desiderasse enfatizzare e penalizzare la complessità generata dal nuovo prodotto del quale, in logica Activity Based Costing, si sta calcolando il costo, si potrebbe imputare a esso una quota di costi fissi comuni in base al pre-individuato fattore di complessità. Si otterrebbe una configurazione di costo strumentale al lancio del nuovo prodotto, da rivedere non appena il mercato imponga prezzi diversi.

Ricevi i nostri contenuti iscrivendoti alla nostra Newsletter

Gli strumenti di controllo che orientano l’innovazione

Il controllo di gestione oltre a stimolare l’innovazione, può essere uno strumento che aiuta ad orientarla. Innanzitutto per i nuovi prodotti il controllo deve aiutare l’innovatore a rispondere almeno a queste domande:

Quanto costa portare il prodotto sul mercato?

Che prezzo si deve proporre?

Quanti pezzi ci si può aspettare di vendere a quel prezzo?

Quali sarebbero i costi di fabbricazione, di marketing e di assistenza?

Inoltre se il sistema di controllo ha attivato quel processo esperienziale che può aiutare a superare quello che Clayton Christensen correttamente chiama “Il dilemma dell’innovatore”. Le regole tradizionali, infatti, spingono le imprese a focalizzare gli investimenti sui prodotti che assicurano i margini più alti e che sono caratterizzati da una domanda elevata, portando a trascurare le potenzialità di tecnologie trasversali a più prodotti e clienti molto più attrattivi di quelli attuali. Pertanto un efficace controllo di gestione dovrebbe dotarsi di alcuni particolari strumenti. Un primo strumento potrebbe essere una scheda per la valutazione dell’attrattività strategica del cliente al quale sarebbe destinata l’innovazione. Questa valutazione è la risultante del combinarsi di una più o meno elevata profittabilità del cliente con i suoi potenziali di sviluppo. Così quando l’innovazione nasce da una richiesta di un cliente si è in grado di valutare se vi è una pura convenienza economica di breve o un reale interesse strategico. Un secondo strumento è rappresentato dal conto economico per tecnologia o per competenza. Questo conto economico è chiamato a sintetizzare i ricavi e i costi specifici relativi ad una specifica tecnologia o più in particolare ad una competenza aziendale. Con questo conto economico si è in grado di apprezzare quanto reddito, ad una certa data, è stato generato da una certa tecnologia: ad esempio dalla tecnologia di stampaggio a caldo. Effettuate delle riflessioni su future possibili applicazioni di questa tecnologia si cerca di apprezzare se vi sia o meno la convenienza economica ad investire ulteriormente su quella tecnologia o su quella competenza. Tale convenienza dipende dalle possibilità applicative che esse hanno anche in soluzioni diverse da quelle nelle quali oggi sono impiegate e soprattutto spsosta l’attenzione dal prodotto alla tecnologia/competenza.

L’utilità di un simile strumento la si coglie appieno in quelle imprese che hanno deciso di impostare la loro strategia seguendo un approccio inside-out che quindi vogliono privilegiare le proprie capacità e competenze, senza però dimenticare il mercato, e ancor meglio, i clienti. Quanto più un’impresa possiede tecnologie/competenze trasversali a più prodotti o a più business, tanto più la strumentazione proposta potrà risultare preziosa.

Infine per monitorare le performance in questo fondamentale processo aziendale si può contare sulla Balanced Scorecard (Bsc) che con la Prospettiva Learning and Growth/innovation, consente di attuare un preciso collegamento anche fra gestione operativa dell’innovazione e strategia. Si noti inoltre un particolare: Kaplan e Norton nella loro proposta pongono la prospettiva Learning and Innovation alla base della Bsc, come per avvertire che proprio questa prospettiva costituisce la colonna portante della continuità e del successo aziendali nel medio lungo termine. Da queste brevi riflessioni si spera emerga che se oggi un’impresa deve innovare, un controllo di gestione ben congegnato può diventare per l’innovazione un efficace supporto strategico.

Per ulteriori approfondimenti su questo e molti altri temi di management, Le segnaliamo Manage-Mind: a knowledge distribution factory

Scopri Manage-Mind

Ricevi i nostri contenuti iscrivendoti alla nostra Newsletter