O Futuro da construção de cenários de um projeto…

 

Elaborar cenários de acordo com Toni (2017)  é uma ferramenta essencial para qualquer planejamento de projeto. Com base metodológica centrada em uma fusão de fatores externos e fatores internos, a cenarização é uma das principais ferramentas capazes de viabilizar um projeto, permitindo com que os gestores do projeto consigam enxergar em um horizonte de tempo mais longo, seus indicadores de eficiência, tempo de retorno de capital investido, entre outros aspectos importantes para o controle e planejamento do projeto. A elaboração destes cenários pode ser construídas de diversas formas alterando inúmeras variáveis, tanto as variáveis incontroláveis (Ex.: fatores político-econômicos, clima), quanto as variáveis controláveis (Ex.: níveis de produção, construção de um centro de distribuição).

Apesar desta ferramenta ser algo muito importante, ela não é algo determinístico, não se pode prever o futuro com assertividade total. Na elaboração de cenários nós só podemos trabalhar com a noção de risco e probabilidades, pelo ao menos para caso um dos cenários simulados aconteça ou esteja perto da realidade, o gestor já pode ter um planejamento de ações preestabelecido, assim tomando decisões mais assertiva.(B. de Paula,2014)

Mas como construir um cenário mais aderente o possível a realidade, em um mundo onde existem inúmeras variáveis !?

A resposta para está pergunta pode estar em duas técnica que estão em ascensão, Machine Learning e Big Data.

Machine Learning

Machine Learning (Aprendizado de Máquinas), de acordo com a SAS, é um método onde se analisa dados de maneira que automatize o desenvolvimento de modelagens analíticas, usando algoritmos que aprendem com os dados e encontram padrões, insight, correlações, sem que o programador defina o que está procurando especificamente.

De certa forma o aprendizado de máquina pode ser comparado ao desenvolvimento de um humano, onde através de experiências vividas o homem associa suas consequências, formando padrões para que depois ele não precise executar uma ação para descobrir suas possíveis consequências.

Para fazer isso, os algoritmos de Machine Learning, usam técnicas estatísticas robustas e complexas. Os algoritmos são divididos em três tipos(SAS,2015):

1- Aprendizagem Supervisionada

Estes algoritmos são compostos por variáveis alvo que são previstas por variáveis premissas. A aprendizagem supervisionada é composta por duas partes, a primeira onde o programa aprende com dados que realmente aconteceram e a segunda parte onde ele tenta prever os valores e faz ajustes aos valores que realmente aconteceram. Exemplo destes algoritmos: árvore de decisão, regressão linear, regresso logística, entre outros.

2- Aprendizagem não supervisionado

Esse tipo de aprendizagem e utilizado quando o programa é capaz de automaticamente encontrar padrões e relações.

3- Aprendizado por Reforço

No aprendizado por reforço o algoritmo escolhe uma resposta a cada ponto de dados, logo depois o algoritmo recebe uma recompensa indicando se a decisão foi boa ou não.Ex: Processo de Decisão Markov

Big Data

A definição de Big Data é um tanto quanto fácil de se explicar e proporcionalmente difícil de entender e aplicar. Big Data é um conjunto de técnicas e métodos, que necessitam de ferramentas especialmente preparadas para lidar com um número massivo de dados – estruturados e não estruturados –  de maneira eficiente, onde eles podem ser analisados de maneira a gerar resultados que com um conjunto de dados mais restrito dificilmente alcançaria. SAS (2017)

Com essa breve explicação já é fácil imaginar onde é aplicável, como diria Buzz Ligthier “ao infinito e além” haha. Os sensores que enviam informações a cada segundo, milhões de transações bancárias, compra e venda de ações, cotações cambiais, negociações de commodity, inúmeros Twits , entre outros milhões de parâmetros que geram terabytes por segundo.

No inicio dos anos 2000, Doug Laney, criou a definição de big data como os três Vs:

Volume: Coleta de dados de uma grande variedade de fontes.

Velocidade: Os dados são processados de maneira veloz de modo que possam ser tratados em tempo hábil.

Variedade: As análises são feitas de dados em diversos tipos de formatos, estruturados (dados numéricos) e não estruturados (e-mail, vídeo, áudio)

Cenário + Machine Learning + Big Data

A Metodologia por mim proposta é baseada em meu estagio atual em uma empresa do ramo de óleo, gás natural e energia, onde certa atividade é a previsão de cotações de mercado de frete de navios.

O objetivo do projeto seria a melhor eficiência na contratação de embarcações a melhores preços, e a formação de cenário seria a parte responsável pela previsão das cotações.

Nós recebemos diversos relatórios de analise de mercado, feito por empresas que prestam consultoria especializada em mercado de fretes marítimos, com muita informação não estruturada, ex: “Tempestade no mar do caribe, força o aumento dos preços dos fretes que passam por está região”, e informação estruturada, que são as próprias previsões que as empresas já fornecem, cada um com preços deferentes das outras.

Para chegar a estes cenários, o método que eu vou propor é feito por basicamente em três instâncias.

1) Leitura de Relatório:

Elaborar um algoritmo capaz de ler os relatórios, gráficos e imagens, e depois armazenar as informações obtidas. Essa atividade pode ser facilmente realizada por uma equipe, porem construir está estrutura mais eficiente a modo que em uma equipe as vezes o conhecimento fica todo retido em uma só pessoal, e ela só considera o que acha relevante, já no modelo de BIG DATA, as informações são estatisticamente relevantes, e não há como informações serem desprezadas, dispensando o erro humano.

2) O Algoritmo de Machine Learning:

A minha proposta é a criação de um modelo de algoritmo de redes neurais artificiais(mais informações http://www.inf.ufrgs.br/~danielnm/docs/intro_rna.pdf), onde seriam analisadas as informações obtidas na fase anterior. Primeiro fazendo o treinamento do algoritmo, baseado nos dados não-estruturados e estruturados dos relatórios e nas cotações que realmente aconteceram as redes neurais artificiais iriam aprendendo e achando padrões que fazem sentido matemático. Exemplo, quando o Relatório trouxer o texto “A produção do Irã, vai aumentar para  3.11M b/d”, na data 01/01/2017,  o que realente aconteceu é que a rota que passa por essa região aumentou na mesma proporção do nível de produção, no terceiro mês seguinte.

3) A construção dos cenários:

Com as informações dos relatórios já coletadas e os algoritmo de RNA, já devidamente treinado é possível construir os cenários, de modo que fiquem o mais aderentes o possível. Para a elaboração destes cenários seriam feitos, otimista, realista e pessimista. Onde você vai dar como input as informações mais relevantes para obtenção das cotações de acordo com a RNA, e vai ter como output os valores das cotações futuras.

Conclusão.

O projeto da implantação deste método de cenarização, apesar de ser um tanto quanto complexo tecnicamente e estruturalmente, seria altamente viável financeiramente para a empresa, pois os fretes marítimos são muito custosos e a previsão assertiva dessas cotações e destes cenários poderia poupar milhões de reais à empresa.

 

Referências Bibliográficas:

TONI, Jackson. Cenários e Análise Estratégica: questões metodológicas . Disponível em: <https://www.espacoacademico.com.br/059/59toni.htm&gt;. Acesso em: 28 mar. 2017.

B. DE PAULA, Gilles. Simulações de Cenários – Criando alternativas para o futuro de sua empresa. Disponível em: <https://www.treasy.com.br/blog/simulacoes-de-cenarios-criando-alternativas-para-o-futuro-de-sua-empresa&gt;. Acesso em: 28 mar. 2017.

SAS. Machine Learning O que é e por que é importante?. Disponível em: <https://www.sas.com/pt_br/insights/analytics/machine-learning.html&gt;Acesso em: 28 mar.2017.

SAS. Big Data O que é e por que é importante?. Disponível em: <https://www.sas.com/pt_br/insights/big-data/what-is-big-data.html&gt;. Acesso em: 28 mar. 2017.