Tecnologia da Informação e o poder da qualidade

Todos ganham quando se ajusta o foco na excelência e comprometimento dentro da organização

Por Valéria Poletti

A Tecnologia da Informação evolui de maneira assustadora e vem mudando o dia a dia das pessoas. Disso todos já sabem, mas essa revolução não aconteceria tão facilmente sem a gestão da qualidade em todo o processo. Os consumidores de produtos e serviços usam cada vez mais seu poder de escolha e de exigência, principalmente por meio das redes sociais. Logo, é preciso monitorar e buscar a excelência em tudo que é produzido, para evitar retrabalho, perdas, falhas e, principalmente, a insatisfação dos clientes.

A qualidade exerce papel fundamental nessa “nova empresa”. Certificações foram criadas como forma de padronizar os produtos e serviços oferecidos pelas organizações de TI, até mesmo de maneira a colocar nossas instituições em equiparação com as de fora. Auditorias são processos corriqueiros já há algum tempo, e todos só têm a ganhar. Mas é preciso mais do que isso para se alcançar a qualidade: é necessário criar na instituição a cultura da qualidade, que unirá colaboradores em busca da excelência.

Acompanhei desde o princípio a implantação do Sistema de Gestão da Qualidade na empresa em que trabalho, o ICI – Instituto das Cidades Inteligentes. Faço parte da primeira turma de auditores internos, ajudei na elaboração dos primeiros processos e procedimentos, e é espantoso como em pouco tempo evoluímos na gestão da qualidade por aqui. O Instituto completou 19 anos em 2017, e o Sistema de Gestão da Qualidade entrou na pauta da empresa em razão do estabelecimento do Planejamento Estratégico em 2014. Ou seja, são três anos de trabalho intenso em que já colhemos os frutos de três certificações: NBR ISO 9001:2008, MPS.BR SW (para software) e MPS.BR.SV (para serviços de TI). E também recebemos o Prêmio Paranaense da Qualidade em Gestão (PPrQG), promovido pelo Instituto Brasileiro da Qualidade e Produtividade (IBQP).

O mais interessante dessas metodologias, tanto a ISO 9001 quanto a MPS.BR, é que não são processos fechados, engessados. Os colaboradores determinam o fluxo dos processos do jeito como acontece no dia a dia. Resumidamente: primeiro, a empresa diz como faz, e, depois, com os processos documentados, mostra que faz como diz.

Como é gratificante, hoje, ao fazer auditoria nas áreas certificadas, encontrar colaboradores preparados, com os processos e procedimentos na ponta da língua, falando sobre a Política da Qualidade de maneira natural, pois isso se tornou parte de sua rotina. Procedimentos são melhorados conforme o processo vai se aperfeiçoando; não há mais o receio de que, na falta de um colaborador específico, o conhecimento do processo de trabalho se perca.

Falando em números: a primeira pesquisa de satisfação feita a partir da implantação do Sistema de Gestão da Qualidade com os clientes de uma das áreas certificadas (área de atendimento), feita em 2014, teve como resultado geral 82,33% de clientes satisfeitos ou muito satisfeitos. A meta era (e ainda é) de 70%. Na terceira rodada de pesquisa, feita em 2016, esse índice subiu para 83% de clientes satisfeitos ou muito satisfeitos.

Ainda há muito a se aperfeiçoar. Mas essa é a razão e o sentido de existir da qualidade, a “melhoria contínua”, pois a empresa é um organismo vivo, mutante, que precisa desenvolver seu próprio ciclo de crescimento para avançar.

Entretanto, vale lembrar que todo empenho dos colaboradores na gestão da qualidade será em vão se não houver um real comprometimento da alta direção, apoiando, investindo e direcionando estrategicamente esse processo. No ICI, tudo começou com o chamado da presidência para uma gestão colaborativa, em que coordenadores e gerentes unidos pensaram em novos rumos para a organização, por meio de um Planejamento Estratégico que desbravou várias frentes. Tudo em busca do objetivo maior de uma organização: a satisfação do cliente.

Valéria Poletti é analista de qualidade no Instituto das Cidades Inteligentes (ICI), formada em desenho industrial/programação visual e com especialização em marketing empresarial, ambos pela UFPR. Possui certificação ITIL e de auditoria interna para sistemas de gestão da qualidade – normas NBR ISO 9001:2018 e NBR ISO 19011:2012.

Cidades Inteligentes: quais os principais desafios da inovação?

Por Dyonata Laitener Ramos

Desde 1950, o mundo vem apresentando um crescimento constante da população que reside em áreas urbanas, o que, segundo a ONU, tem levado à urbanização das sociedades em uma velocidade tão grande que teremos cerca de 70% da população em centros urbanos em 2050, frente a 70% da população em áreas rurais em 1950.

Esse crescimento resulta em novas necessidades da população, que não têm sido acompanhadas pela gestão pública de forma eficaz, pois são agravadas com o avanço tecnológico da nova era que apresenta cada vez melhores alternativas para evitar o desperdício ou o esforço desnecessário para a execução de atividades rotineiras.

Embora a tecnologia evolua em uma velocidade que excede as expectativas, não é na mesma velocidade que as cidades as absorvem em benefício dos cidadãos, proporcionando maior qualidade de vida.

A ineficiência da gestão de recursos nas áreas urbanas ocasiona evidentes desigualdades, baixa qualidade de vida e preocupação com o futuro dos ecossistemas urbanos que não param de crescer. Atualmente, é evidente que a geração de soluções é menor que o surgimento de novos problemas e o aumento de situações críticas em nossos principais centros urbanos, principalmente relacionadas à mobilidade, governança, economia, meio ambiente, pessoas e qualidade de vida.

Ao analisar os principais problemas dos centros urbanos, e fazendo um contraponto, podemos chegar aos seis pilares de uma Cidade Inteligente, que representa um ecossistema inovador, caracterizado pelo uso generalizado de tecnologia na gestão de seus recursos e infraestrutura.

Então, quais são as principais dificuldades que a administração pública possui em alinhar as necessidades da população com as diversas novas tecnologias que surgem a cada novo dia? Analisando o cenário brasileiro, boa parte dos impedimentos se deve à alta burocracia envolvida em um processo licitatório, que além do tempo excessivo, não está preparado para acompanhar as novas formas de negócio do século XXI, as quais estão baseadas em crowdsourcing – compartilhamento e colaboração, e impedem que a tecnologia e a inovação possam transformar a realidade da população propiciando melhor qualidade de vida.

Outra parte se deve à falta de expertise da gestão pública em integrar as diversas tecnologias, de forma a criar um ambiente focado em resolver os problemas e necessidades da população, pois uma cidade inovadora é feita principalmente de colaboração e de parcerias que tenham paixão em resolver problemas. Trabalhar esse cenário caótico e desafiador, de forma solitária, é uma tarefa muito árdua e penosa.

Além de uma revisão criteriosa na Lei 8.666/93, que institui normas para licitações e contratos para a Administração Pública, é preciso ceder mais espaço para a iniciativa privada colaborar com soluções focadas em resolver problemas da população de forma colaborativa, ou seja, por meio de parcerias público-privadas que propiciem a evolução de todos os pilares de nossas cidades, resultando em maior qualidade de vida para a população.

Dyonata Laitener Ramos é coordenador de projetos no Instituto das Cidades Inteligentes (ICI).

O suporte técnico de TI e os desafios do dia a dia

Por Evandro Luiz Vizinoni

O que seria das empresas hoje se não houvesse o “menino da TI”? Como os usuários conseguiriam resolver os problemas relacionados à Tecnologia da Informação? Perguntas como essas são normais no ambiente de trabalho, uma vez que os profissionais de TI são lembrados justamente quando acontece algum problema no equipamento ou aplicativo.

A dependência dos serviços de suporte de TI nas empresas é grande, ainda mais que a indisponibilidade de profissionais capacitados atrelada à necessidade do negócio pode impactar em resultados negativos para as organizações. Por isso, há a necessidade de a equipe de suporte de TI ser gerenciada por um responsável que coordene e oriente a entrega de um serviço efetivo e de qualidade.

As empresas buscam sempre a otimização de custos em serviços de TI, o que faz com que as exigências sejam sempre acima das estipuladas nos acordos de níveis de serviço. Muitos clientes acreditam que a equipe de TI sempre pode dar conta das necessidades, entretanto, não se atentam à importância dos processos de gerenciamento de serviços, tais como o registro das solicitações de atendimento, prioridades, prazos e infraestrutura, o que possibilita que o serviço possa ser prestado da melhor forma.

A biblioteca do ITIL (Information Technology Infrastructure Library) é um conjunto de orientações que descreve as melhores práticas para um processo integrado para o gerenciamento de TI. Os processos de atendimento devem estar alinhados com o dia a dia e a entrega das equipes, e o suporte aos serviços de TI deve estar de acordo com os requisitos do negócio. Seguindo as orientações do ITIL, as equipes prestadoras de serviços de suporte de TI devem dispor de ferramentas que justifiquem e contabilizem a quantidade de atendimentos realizados. Ou seja, os chamados técnicos devem ser registrados para que o cálculo dos indicadores de desempenho seja disponibilizado para o cliente. Afinal, como saberemos se o “menino da TI” está atendendo dentro do prazo acordado ou em quanto tempo ele resolveu o problema ou solicitação? Essas informações só são obtidas pelo registro das solicitações de atendimento.

Vivemos em um mundo em que todas as pessoas exigem prioridade, possuem demandas importantes e que devem ser resolvidas com o máximo de urgência, porém todos esquecem que o profissional de TI deve prestar contas, justificando suas atividades diárias por meio de números e resultados. Os usuários possuem a cultura de solicitar um atendimento sem efetuar o registro da solicitação na Central de Serviços ou outro sistema específico, já que a resolução de seu problema exige urgência. Entretanto, poucos entendem que a quantidade de registros efetuados são dados relevantes e que podem impactar na análise de estratégias da própria organização. Dessa forma, é possível avaliar se a falta de profissionais de TI está sendo impactante na entrega dos serviços aos clientes, uma vez que ter apenas uma infraestrutura de TI moderna, mas sem a quantidade exata de profissionais capacitados e alinhados com a estratégia do negócio, é insuficiente.

Para atender aos requisitos do negócio, a equipe de TI deve contar com um gestor, o qual é responsável pelo monitoramento e acompanhamento dos serviços prestados. O registro das solicitações de atendimentos deve ser exigido pelo gestor, apoiando a equipe e orientando os usuários no procedimento. Os processos de atendimento devem ser alinhados entre cliente e prestador de serviço, com o direcionamento das atividades e estipulação de responsabilidades, metas, prazos e serviços disponíveis. Em paralelo, a presença do RNS (Responsável pelo Nível de Serviço) é fundamental para acompanhar os atendimentos e vencimento dos prazos. Ou seja, um responsável em receber críticas, sugestões e elogios dos usuários. Toda equipe de suporte de TI deve contar com um grupo capacitado na Central de Atendimento ou Service Desk, pois várias solicitações podem ser resolvidas pela equipe, além do filtro do problema ou solicitação, o que resulta em um atendimento mais ágil e eficaz, garantindo a entrega dos serviços com qualidade e satisfação dos usuários.

Resumindo, estes são alguns dos fatores críticos de sucesso no processo de atendimento: equipe capacitada e alinhada, infraestrutura adequada, processo de atendimento e acordos (prazos e metas) definidos, e envolvimento e apoio dos usuários. A gestão de TI pelo atendimento de suporte deve ser tratada como uma área estratégica, e sua adoção orientada a processos do ITIL pode resultar em benefícios para o planejamento e execução das atividades nas organizações.

Evandro Luiz Yurk Vizinoni é coordenador de Assistência Técnica e de Suporte Técnico em TI Externo do Instituto das Cidades Inteligentes (ICI).

 

Tecnologia no comportamento estudantil

Por Antonio Marcos Jacinto

Há muitos estudos relacionados a descobrir como a mente humana funciona. Há também muitas pesquisas, descobertas e incertezas. E isso não é novidade. Desde criança o aprendizado de nossa mente é ininterrupto, sempre evoluindo, conhecendo e descobrindo. Não somente recebendo e armazenando informações do mundo que as envolve, mas também transmitindo sinais que, na maioria das vezes, são muito difíceis ou até mesmo imperceptíveis de serem decifrados.

Será que alguns desses sinais poderiam indicar comportamentos futuros que venham a influenciar na vida das crianças? Será que a tecnologia, mais especificamente, a inteligência artificial, poderia auxiliar na descoberta e interpretação de padrões de comportamento das crianças que indiquem alguma medida preventiva a ser adotada? Padrões de comportamento poderiam indicar algum tipo de distúrbio ou até mesmo síndromes que ainda não estão perceptíveis aos especialistas? O cruzamento de informações relacionadas a pessoas poderia colaborar com essa descoberta?

Se considerarmos que as crianças passam um bom tempo de suas vidas em sala de aula, muitos sinais são enviados no dia a dia, que, se forem coletados e armazenados, poderão compor uma base de conhecimento que poderá ser utilizada para mapeamento desse seu comportamento. Alguns desses já foram mapeados anteriormente, porém algumas combinações de dados, ainda não mapeados ou descobertos por especialistas, poderiam indicar a probabilidade de a criança vir a desenvolver algo que no futuro influencie sua vida negativamente. É nesse segmento que o uso da tecnologia, por meio da inteligência artificial, poderia apoiar os especialistas para diagnosticar algo que não é visível a “olho nu”, ou que a criança não dê sinais de possuir ainda.

O professor na sala de aula, notando algum tipo de comportamento fora do padrão de determinada criança, se comparada às demais, poderia coletar informações a respeito para alimentar uma base de dados. Somente a coleta desses dados na escola pode não ser suficiente, por isso o papel e participação dos pais é de fundamental importância, pois em casa a criança também pode vir a demonstrar algum comportamento anormal, então a parceria entre a família da criança e a escola teria que ser estreita.

Com as informações coletadas na escola e na casa da criança, o uso de algoritmos de inteligência artificial poderia ser aplicado para processá-las e realizar o cruzamento nos dados, de forma que comportamentos anteriores já mapeados e confirmados e outros que não foram ainda poderiam indicar a probabilidade da criança também desenvolvê-la.

De posse dessas informações, um especialista poderia ter evidências para um melhor diagnóstico de possíveis distúrbios que a criança poderá desenvolver e que não tenha demonstrado sinais ainda, indicando algum apoio profissional para melhorar sua qualidade de vida e de sua família e aprofundando em exames e monitoramentos a respeito da criança.

A inteligência das coisas é algo que chegou para ficar e, assim como suas aplicações, é de extrema importância para a evolução natural da humanidade. A inteligência em interpretação comportamental aplicada a crianças para identificação de distúrbios que talvez possam ser identificados ainda no início ou mesmo sem indícios que a criança demonstre poderiam oferecer uma qualidade de vida que talvez não venha a ter.

O aprendizado de máquina hoje é uma realidade, mas não para substituir um especialista. O ideal seria unir esforços para evoluirmos e melhorarmos a qualidade de vida que é o princípio básico que possuímos. Se houver apenas um caso proativo que venha a ajudar uma criança, já terá valido a pena essa união.

Nem todas as famílias possuem facilidade ou condições de acesso a acompanhamento médico especialista e muitas vezes seus filhos demonstram sinais que não são interpretados em seu convívio familiar. A disponibilização da tecnologia para uso da população menos privilegiada poderia amenizar grande parte dos problemas das crianças e suas famílias e, onde poderia ser melhor utilizada senão em escolas públicas?

O apoio da tecnologia para descoberta de algo que não tenha sido conhecido tem que ser valorizado e explorado, que não fique somente em laboratórios ou em setores específicos e privilegiados, mas sim disponível para toda população que não tem condição de acesso a esse tipo de ação e são as que mais padecem desse segmento. O quanto estamos longe dessa realidade? Particularmente, acredito que mais próximos de alcançá-la do que do ponto de partida.

Antonio Marcos Jacinto é coordenador de projetos no Instituto das Cidades Inteligentes (ICI). Formado em tecnologia em processamento de dados, com pós-graduação em banco de dados. Está na área de informática há mais de 20 anos, sendo também instrutor oficial Oracle Database.

O universo dos dados

Por Débora Morales

Muito se escuta falar de Big Data e Small Data, mas o que isso realmente significa ainda confunde muita gente. A definição é simples: trata-se de uma análise completa de dados. Décadas atrás, os dados não eram classificados como Small ou Big por fatores como custo, recursos e dificuldades de geração, processamento, análise e armazenamento.

Os dados eram produzidos de forma rigorosamente controlada, utilizando técnicas de amostragem que limitavam seu espaço, temporalidade e tamanho. No entanto, nos últimos anos, os avanços tecnológicos levaram à produção do que se denominou Big Data, que têm características muito diferentes dos pequenos conjuntos de dados.

Grande volume, alta velocidade, que se assemelha ao tempo real, variedade de tempo e espaço, e grande alcance, que capta toda a população dentro de um determinado domínio são algumas das especificações do Big Data. O desenvolvimento simultâneo de várias tecnologias, infraestruturas, técnicas e processos favoreceu esse novo passo.

Rapidamente, o Big Data incorporou softwares de todos os tipos de objetos, desde máquina a sistemas que se alteram de “mudos” para “inteligentes”. Incorporou, também, práticas e espaços sociais e empresariais, por meio de um conjunto diversificado de tecnologias da informação e da comunicação, em especial a internet fixa e móvel. O desenvolvimento da computação ubíqua e a capacidade de acesso a redes em muitos ambientes e em movimento incluiu a criação de novas plataformas de mídias sociais.

Em contraste, o Small Data pode ser limitado em volume e velocidade, mas tem um longo histórico de desenvolvimento em toda ciência, agências estatais, organizações não-governamentais e empresas, com metodologias e modos de análise estabelecidos em um registro de produzir respostas significativas. Estudos de Small Data podem ser mais adaptados para responder a perguntas específicas e explorar em detalhes as formas variadas em que as pessoas interagem.

Estudos de Small Data procuram a mina de ouro, trabalhando uma mineração estreita, enquanto estudos de Big Data procuram extrair pepitas por meio da mineração a céu aberto, recolhendo e peneirando enormes faixas de dados. Essas duas abordagens de mineração, estreita versus aberta, têm consequências em relação à qualidade dos dados, fidelidade e linhagem.

Devido ao tamanho limitado da amostra de Small Data, a qualidade, objetividade, consistência, veracidade e confiabilidade são de suma importância. Muito trabalho é dedicado a limitar a amostragem e o viés metodológico, bem como assegurar que os dados sejam tão rigorosos e robustos quanto possível, antes de serem analisados ou partilhados.

Em contrapartida, o Big Data não necessita dos mesmos padrões de qualidade, veracidade e linhagem, porque a natureza exaustiva do conjunto de dados elimina os vieses da amostragem e compensa mais do que quaisquer erros ou lacunas.

Dadas as preocupações e limitações de Small Data, estudos continuarão a ser um componente importante no cenário de pesquisas. Tais dados, no entanto, serão cada vez mais pressionados a serem ampliados dentro de infraestruturas de dados digitais, para que sejam preservados para gerações futuras, tornem-se acessíveis para reutilização e combinações com outros dados.

As práticas da vida cotidiana e os locais em que vivemos agora são aumentados, monitorados e regulados por densas aglomerações de infraestrutura e tecnologia de dados. Dentro desse sistema, grande parte da geração de dados é automatizada por meio de câmeras controladas algoritmicamente, sensores, scanners, dispositivos digitais como telefones inteligentes, ou são voluntários pelos usuários de mídias sociais ou iniciativas de crowdsourcing.

Coletivamente, esses sistemas produzem conjuntos de dados maciços, exaustivos, dinâmicos, indexados, inter-relacionados, flexíveis e escaláveis. Apesar de algumas limitações, o Big Data e o Small Data se esforçam para serem cada vez mais abrangentes e proporcionarem uma visão dinâmica e refinada em um novo território que ainda está sendo explorado.

Débora Morales é estatística no Instituto das Cidades Inteligentes (ICI).

Desafios na adoção de metodologias ágeis de desenvolvimento de software

Por Felipe Massardo

A adoção de metodologias ágeis de desenvolvimento de software é, habitualmente, uma unanimidade “teórica” em grande parte das empresas de TI, inclusive nas mais tradicionais. Digo “teórica”, pois conceitualmente falando, o Agile é muito bem aceito, é um paradigma de fácil convencimento e de fácil “vendagem” para diretorias e altas gerências. Porém, ocorre que, na prática, a implantação destas metodologias sofre bastante resistência, em todos os níveis das organizações, da cúpula diretiva à equipe técnica. Isto ocorre, pois, como toda mudança, alterar a forma de desenvolver software requer a saída da zona de conforto, trocar o certo pelo (ainda) duvidoso, onde haverá muitas dificuldades, riscos, erros e acertos até que, por fim, os resultados e os ganhos reais comecem a aparecer. Neste processo, o que é certo é que, sem total apoio e comprometimento do patrocinador da mudança (diretoria), nas primeiras dificuldades o processo tende a ser abandonado, voltando-se imediatamente ao modus operandi da empresa.

Mudança cultural

Sair da zona de conforto envolve algo bem mais profundo do que mudanças de atitudes. A grande mudança necessária é na cultura organizacional. Não basta apenas executar diferente, é necessário pensar diferente, não apenas na fase de execução dos projetos, mas desde a concepção das primeiras ideias acerca do produto até a entrega final.

Principais vantagens

Metodologias ágeis trazem uma série de vantagens em relação às tradicionais, porém duas delas merecem destaque especial. A primeira é a entrega constante e regular de software funcional. O cliente não precisa aguardar a finalização do projeto para testá-lo e, principalmente, validá-lo. Isso nos leva para a segunda vantagem, talvez a mais importante: Rápida resposta a mudanças. No mundo real, raramente um cliente possui a perspectiva detalhada do que exatamente ele deseja em seu software. Em geral, o que existe é uma ideia, muitas vezes vaga, da necessidade do cliente. Neste nível de abstração as mudanças são frequentes e perfeitamente normais, porém há uma tendência de que as incertezas sejam reduzidas conforme avança o desenvolvimento e o cliente vislumbra cada vez mais o resultado final.

Uma forma de reduzir as mudanças de escopo, independentemente da metodologia, é a troca de foco. Ao invés de se tentar detalhar a ideia (vaga) que o cliente possui, exigindo “certezas” que o mesmo não pode fornecer, torna-se mais eficiente entender a fundo o problema que se deseja resolver e então propor um software para este propósito.

Ágil X PMBOK

Metodologias ágeis, via de regra, seguem o Manifesto Ágil, que consiste em princípios fundamentais para o desenvolvimento ágil de software. Isto não significa que a adoção de uma metodologia ágil não possa ser combinada com outras metodologias de gerenciamento de projetos, como aquelas que são norteadas pelo PMBOK, por exemplo. Para exemplificar, o princípio ágil “Software funcional mais do que documentação extensa” não prega que toda a documentação deva ser abolida. É muito difícil gerenciar projetos sem um mínimo de documentação, sem aceites nem comprometimentos formais do que fora acordado. Uma ausência total de documentos pode gerar, por exemplo, projetos infinitos, nos quais o cliente sempre demanda novas features e não há como provar que as mesmas nunca fizeram parte do escopo. Em resumo, nada impede que a gestão do projeto como um todo seja feita utilizando-se os processos do PMBOK (apenas os necessários, de forma enxuta) e que a execução seja regida por uma metodologia ágil, complementando uma a outra.

Cliente-Parceiro

Uma grande mudança ao se adotar uma metodologia ágil, principalmente em relação ao desenvolvimento tradicional (em cascata), encontra-se na mudança de comportamento por parte do cliente. Este, que antes participava como um mero expectador do processo, atuando apenas no início (fornecendo a ideia) e no final do projeto (validando a entrega), passa a exercer um papel que vai além do simples cliente, tornando-se um “cliente-parceiro”. Esta necessidade é uma característica inerente do processo de desenvolvimento ágil de software, haja vista que, por exemplo, as entregas parciais só fazem sentido se forem validadas pelo cliente. Talvez ele tenha dificuldades em entender a razão de precisar gastar seu tempo, além do dinheiro, para adquirir um software. Porém, quanto maior seu envolvimento no processo, menor a chance de o produto, depois de pronto, não atender às suas expectativas. É preciso deixar claro que, quanto mais tarde ocorrerem as solicitações de mudanças (depois de pronto, no pior caso), maior será o custo (retrabalho) e o atraso.

O Time Ágil

Apesar de as vantagens do desenvolvimento ágil de software serem evidentes, é preciso ressaltar que o processo só funciona, na prática, se a equipe (time ágil) for adequada para trabalhar desta forma. Em outras palavras, metodologias ágeis não funcionam em todas as equipes. O requisito básico é que a mesma seja autogerenciável. O autogerenciamento é um conceito amplo, mas, de forma simplificada, uma equipe autogerenciável é aquela que possui a capacidade de organizar sua forma de trabalho da maneira mais eficiente possível, de maneira autônoma. É como se a equipe fosse uma microempresa dentro da organização, que possui demandas e entrega resultados, sem a necessidade de alguém lhe dizer como deve organizar seu trabalho, como deve ocorrer a comunicação interna, como devem ser distribuídas as tarefas, enfim, sem nenhuma necessidade de microgerenciamento. Porém, todos os membros da equipe, sem exceção, precisam atender a um perfil específico para fazer parte de uma equipe autogerenciável, caso contrário, desorganização e conflitos surgirão e poderão chegar ao ponto de comprometer a qualidade, os prazos e a equipe como um todo. Este perfil específico demanda, além de conhecimento técnico, alta capacidade de trabalho em equipe, organização e comprometimento. Infelizmente, nem todos possuem este perfil e, portanto, não devem fazer parte dos times ágeis enquanto não o possuírem.

A implantação de uma metodologia ágil é um processo bastante complexo, especialmente em uma empresa tradicional, principalmente por envolver abandono da zona de conforto, muitas vezes sedimentada ao longo de muitos anos, além de profundas mudanças culturais e de processos. Desta forma, todo o processo deve ser realizado de maneira gradativa, sendo o menos taxativo possível, envolvendo muito diálogo e ajustes constantes, especialmente nos primeiros projetos. É preciso ter a humildade de reconhecer que é muito difícil acertar de primeira, além de coragem e perseverança para não desistir diante das primeiras barreiras, especialmente as resistências internas. Infelizmente, nenhuma melhoria significativa é obtida sem investimentos e uma boa dose de risco, porém, os ganhos certamente fazem o esforço valer a pena.

Felipe Massardo é coordenador de projetos no Instituto das Cidades Inteligentes (ICI).

 

Não há cidade inteligente sem cidadãos empoderados

Por Amilto Francisquevis

Fornecer uma estrutura completa de comunicação entre cidade e cidadão é um dos desafios enfrentados pelos gestores públicos durante a administração. Deve-se levar em conta que aproximar os habitantes e estimular maior participação e interação nas definições do planejamento, estratégias e políticas públicas traz benefícios para a cidade e, principalmente, para o próprio cidadão.

Essa forma mais colaborativa na construção das cidades, em que os gestores oferecem suporte e o cidadão se envolve mais na governança, permite melhor compreensão dos problemas e das soluções que podem ser exploradas para um resultado mais satisfatório. E ainda fortalece as instituições públicas, a sociedade e a democracia, promovendo o desenvolvimento econômico com maior transparência e coesão social. Pelo menos é o que se espera.

Enquanto esses mecanismos participativos têm grande potencial para serem instrumentalmente valiosos na promoção da eficiência e equidade dos serviços prestados pelos órgãos e entidades públicas, isso nem sempre se realiza na prática.
No contexto nacional, observamos, ainda que de forma institucionalizada,  iniciativas voltadas a orçamento e planos diretores municipais como ouvidorias, audiências e consultas públicas. Mas são poucos os resultados apresentados em projetos de colaboração que contribuam com a construção de uma cidade mais inteligente e resolvam problemas dos centros urbanos, melhorando a gestão dos serviços e aplicação dos recursos públicos.

É aí que entram as TICs (Tecnologias da Informação e Comunicação), que oferecem infraestrutura tecnológica para permitir de fato o acesso e a interação com o cidadão. Para se adequar e atender questões de mobilidade, economia, governança, sustentabilidade e qualidade de vida, as cidades se remodelam, com o intuito de se tornarem mais desenvolvidas.

É preciso apostar cada vez mais em uma cidadania inteligente, em cidadãos empoderados e no poder da coletividade. É preciso entender e reconhecer que os serviços serão aprimorados com a interação e a contribuição dos seus usuários, gerando informações que deverão ser tratadas de forma transparente dentro da gestão pública para tornar os serviços mais eficientes.

Amilto Francisquevis, assessor de Mercado do Instituto das Cidades Inteligentes (ICI). 

Trabalho em equipe: 5 desafios a superar

Por Dyonata Laitener Ramos

Não são somente as finanças, as estratégias e nem a tecnologia que garantem sozinhas o sucesso de uma empresa. O investimento em recursos para a formação e capacitação de equipes de alto desempenho é o principal meio para gerar maior vantagem competitiva. Ao colocar profissionais com elevada competência e comprometimento trabalhando focados em objetivos estratégicos é possível dominar qualquer empresa, em qualquer mercado, contra quaisquer competidores, em qualquer época.

Embora a teoria sobre equipes de alto desempenho seja facilmente assimilada por gestores e diretores, quando o assunto é tratado na prática as organizações muitas vezes não conseguem obter o resultado desejado, porque, sem perceber, acabam enfrentando cinco situações que afetam o desempenho das equipes. Esses desafios podem ser interpretados erroneamente como questões independentes, mas formam um modelo inter-relacionado em que a fragilidade a apenas uma situação pode ser letal para o sucesso de todo o grupo.


1. Falta de confiança

O medo de se mostrar vulnerável, de sofrer represálias e punições muitas vezes impossibilita a criação de uma base de confiança entre a equipe. Para todos os membros do time deve ficar clara a mensagem de que todos têm boas intenções e de que não há motivos para não ser transparente uns com os outros. Exercícios de histórias pessoais, atividades e reuniões diferenciadas são formas de manter a equipe integrada e mais confortável para realizar suas atividades.

2. Medo de conflitos

A incapacidade de criar confiança afeta e prejudica diretamente a gestão de conflitos e as políticas interpessoais. Algumas vezes, o conflito é visto como um grande problema nas organizações e, quanto maior os níveis hierárquicos, mais tempo se gasta tentando evitar esses debates passionais. Por outro lado, quando membros da equipe não debatem ou contestam abertamente ideias importantes, acabam gerando ataques pessoais. Conflitos produtivos possibilitam melhor solução dos problemas no menor tempo possível.

3. Falta de comprometimento

Se os membros da equipe não expressam suas opiniões por meio de debates abertos, raramente é obtido o comprometimento com as decisões tomadas, mesmo que concordem ou finjam concordar. O consenso remete a buscar a adesão da equipe mesmo quando a unanimidade é impossível e isso é considerado extremamente frágil. O ideal seria identificar que as opiniões foram ouvidas e levadas em consideração e definir que a decisão tomada é a melhor para a situação. Estabelecer prazos, rever os detalhes e criar um plano de contingência prevendo diferentes tipos de cenários combatem alguns problemas criados pela falta de compromisso.

4. Fugir das cobranças

A falta de comprometimento e a discordância sobre as escolhas feitas levam a mais uma situação crítica para as equipes de alto desempenho: a não identificação das responsabilidades de cada um. Como não há compromisso com a decisão tomada, até os membros mais engajados e motivados hesitam em fazer cobranças aos seus colegas em relação ao comportamento e a atitudes contraproducentes para o sucesso da equipe.

Essa relação de microgestão da equipe é primordial e a cobrança é necessária, de maneira respeitosa, demonstrando que os membros têm grandes expectativas em relação ao desempenho dos colegas. Uma boa maneira de reverter esse quadro é definir objetivos e padrões de trabalhos, assim como identificar claramente os papéis e responsabilidades do que cada membro da equipe deve fazer para obter o sucesso. Além de definir é importante exibir essas informações para que todos possam visualizar e para que ninguém consiga ignorá-los facilmente.

5. Falta de atenção aos resultados

A última situação ocorre quando os membros da equipe colocam suas necessidades individuais (ego, sucesso na carreira ou reconhecimento) acima dos objetivos da equipe. Por mais clara que seja a necessidade de que essa situação não ocorra, muitas equipes têm dificuldade em focar nos resultados do grupo. Elas não priorizam os objetivos significativos e querem apenas continuar existindo. Para estes casos é muito importante definir o foco e os resultados mensuráveis e apresentá-los a todos os membros. Com isso, as equipes tendem a trabalhar com mais afinco para alcançar e até mesmo superar todas as expectativas e metas estabelecidas.

Dyonata Laitener Ramos, coordenador de projetos do Instituto das Cidades Inteligentes (ICI).

O caminho para cidades inteligentes

Por Fernando Matesco

Entende-se por uma cidade inteligente aquela que utiliza meios para melhorar a qualidade de vida e os serviços urbanos, com foco na população. O cidadão deve estar no centro dos programas de inovação e modernização das cidades, que devem ser atrativas com relação aos aspectos sociais, econômicos e ambientais. O maior motivo das cidades existirem é o cidadão.

A governança participativa é fundamental na construção de uma cidade inteligente. O gestor deve disponibilizar canais de comunicação que incentivam o cidadão a apoiar a evolução das cidades, e, em troca, o cidadão deve aumentar seu envolvimento na governança da cidade.

Diante deste cenário, o uso da tecnologia torna os centros urbanos mais eficientes. As soluções são cada vez mais criativas e inovadoras, favorecem um ambiente mais colaborativo e participativo – em que as pessoas estão on-line todo o tempo, com novos serviços à disposição – e permitem ao poder público atuar de forma preventiva.

Muito se fala referente à construção das cidades inteligentes e qual o melhor caminho a ser percorrido. O mais importante é considerar quais os benefícios esperados, tendo como foco o cidadão. Ao longo do caminho, é imprescindível ter em mente alguns passos importantes.

O primeiro é definir uma equipe multidisciplinar, formada por especialistas de diferentes áreas, dependendo de cada projeto. A partir daí, é preciso traçar uma estratégia de acordo com a principal parte interessada – o cidadão – e realizar um diagnóstico mapeando os maiores problemas, limitações e desafios dos projetos a serem desenvolvidos na cidade.

Com um diagnóstico bem elaborado se torna mais fácil mapear as soluções tecnológicas viáveis para a cidade. Nesse momento, é preciso definir um plano de ações e projetos pilotos que testem, na prática, as soluções mapeadas. A avaliação dos resultados pode ser feita por meio de um PDCA (Plan – Do – Check – Act) em todos os passos do processo.

Os resultados positivos em cada etapa serão, com certeza, as motivações para as futuras ações. O objetivo principal é criar condições de sustentabilidade, melhorar a qualidade de vida dos cidadãos, a governança e a gestão das cidades, garantindo o atendimento das necessidades das gerações atuais e futuras.

Uma cidade inteligente está apta a antecipar as necessidades futuras. Consegue agir prontamente ou até mesmo prever crises. Além disso, as ações passam a ser coordenadas e integradas, com melhor aproveitamento dos recursos e investimentos. E assim a qualidade dos serviços oferecidos à população melhora e a cidade passa a ser mais eficiente.

Fernando Matesco, diretor técnico do Instituto das Cidades Inteligentes (ICI). 

 

A metodologia XP e seus valores

Por Débora Morales

O uso de metodologias para estruturar o desenvolvimento de programas e garantir a gestão, qualidade e funcionalidade de softwares e sistemas tem se tornado cada vez mais comum. Em um universo com inúmeras possibilidades, inovações e ferramentas, está o Extreme Programming, ou XP. Desenvolvedor ágil e econômico, o XP é indicado, principalmente, para empresas de pequeno e médio porte que modificam constantemente seus projetos.

A metodologia garante, simultaneamente, redução do risco do projeto, melhora na resposta às mudanças, melhora na produtividade durante toda a vida do sistema e acrescenta diversão à construção de software em times. O XP propõe a ideia de que os elementos de engenharia de software tradicionais sejam levados para níveis “extremos”, atingindo um grau de excelência muito maior na execução. Além disso, para melhorar a produtividade e introduzir pontos de verificação em que podem ser adotados novos requisitos dos clientes, o XP propõe entregas frequentes em ciclos curtos de desenvolvimento.

Atrelados ao XP estão cinco valores da metodologia (comunicação, simplicidade, feedback, coragem e respeito) que servem como critérios que norteiam as pessoas envolvidas no desenvolvimento de software. A comunicação foca em construir um entendimento pessoa a pessoa do problema, com o uso mínimo de documentação formal e com o uso máximo de interação “cara a cara” entre os envolvidos no projeto.

A simplicidade sugere que cada membro da equipe adote a solução mais fácil que possa funcionar. O objetivo é fazer aquilo que é mais simples hoje e criar um ambiente em que o custo de mudanças no futuro seja baixo, evitando a construção antecipada de funcionalidades, como é feita em muitas metodologias tradicionais. E aí a importância de se realizar, em paralelo, os feedbacks, que possibilitam que as pessoas aprendam cada vez mais sobre o sistema, corrijam erros e melhorem o sistema.

A coragem está ligada diretamente à aplicação eficaz do XP. Atitudes mais ousadas podem trazer melhorias ao projeto e não devem ser evitadas simplesmente pelo medo de tentá-las. Alterar código já escrito e que está funcionando, jogar código fora e reescrever tudo de novo, permitir código compartilhado por todos ou simplesmente dizer não, são alguns exemplos. E, por fim, respeito, valor que sustenta todas as ideias e etapas do desenvolvimento de software. Uma equipe engajada que respeita as opiniões e decisões de todos os membros consegue alcançar os melhores resultados.

Débora Morales atua como Estatística no Instituto das Cidades Inteligentes.