Overview OpenLDAP – Autenticação e serviços

Por Márcio Flavio Luiz

O LDAP – acrônimo de Lightweight Directory Access Protocol, ou Protocolo Leve de Acesso a Diretórios, em português – é baseado em X.500 e atua sobre o protocolo TCP. Ele utiliza duas portas: a 389, em que as transações entre cliente e servidor não são criptografadas; e a 636, quando essas transações são realizadas utilizando criptografia por meio de certificados gerados a partir do OpenSSL.

O funcionamento do LDAP é baseado no modelo cliente-servidor. Um ou mais servidores possuem os dados gravados em banco de dados Berkeley, que é um banco de dados do tipo não relacional. O processo de gravação e leitura desses dados utiliza mecanismos do próprio serviço e basicamente são utilizadas duas funções: a de leitura e a de escrita. Na leitura o cliente faz a pergunta para o servidor, que responde conforme as premissas enviadas pelo cliente. Já na escrita, o cliente envia para o servidor os dados que deverão ser gravados, mas eles só serão gravados se a lista de objetos/atributos estiverem disponíveis e respeitarem as políticas de escrita predefinidas no serviço do LDAP.

Esse serviço geralmente é utilizado para prover uma base de dados, em que são criados objetos organizados em árvore de maneira lógica e hierárquica, armazenando informações por atributos com valores determinados, que serão utilizados para filtros de pesquisas e validações. Os atributos, por sua vez, são disponibilizados via objectClasses previamente carregados por meio do arquivo de configurações do serviço, e o conjunto de atributos que cada objectClass disponibiliza são descritos e criados nos arquivos de schemas – local em que informamos o tamanho do campo, OIDs e a obrigatoriedade de utilização dos atributos.

Sem que possamos perceber, o LDAP é utilizado em várias soluções como back-end de armazenamento em estrutura de diretórios, como por exemplo: Active Directory da Microsoft, iDirectory da Novel e Tivoli da IBM. Embora pertençam a fabricantes diferentes, a maneira como são organizados e os métodos utilizados para gravação, modificação e leitura desses dados estão descritos na RFC 5411 (https://tools.ietf.org/html/rfc4511). Em alguns casos, algumas funções são criadas de forma específica por cada fabricante, porém, sempre respeitando a RFC.

Atualmente, o OpenLDAP pode ser integrado à maioria dos serviços e também utilizado para outros fins. Usando como exemplo o case do Instituto das Cidades Inteligentes (ICI), a infraestrutura de LDAP foi desenhada para funcionar de forma ininterrupta, com alta disponibilidade e preparado para um grande crescimento. Ele é administrado pela ferramenta de gestão de domínios OpenDC e baseado em processos do ITIL, fazendo com que essa base de dados tenha também uma vertente para a gestão de serviços. A ferramenta OpenDC é uma solução desenvolvida em Java e suas ações são realizadas diretamente na camada do serviço de diretórios, mas existem outros meios de se criar, alterar e ler os objetos criados na base de dados. Além disso, o LDAP é utilizado como repositório de configurações utilizadas nos serviços do Squid e essa estratégia também é utilizada na solução de mensageria com Zimbra.

No nível de autenticação, grande parte das liberações de acesso aos serviços e aplicações utiliza grupos, nos quais são inseridos usuários que possuem tais permissões, como no proxy, em que a utilização desses grupos chega ao nível de perfis de acesso. Nesse caso, foram utilizados mecanismos que aperfeiçoam as buscas, fazendo com que a procura por um determinado objeto na árvore de diretórios se torne mais objetiva, rápida e que, principalmente, não degrade o desempenho do serviço, que atualmente recebe em torno de 3.000 conexões por segundo.

A escolha pelo OpenLDAP foi definida a partir dos princípios da utilização da solução de software livre e para que qualquer alteração na estrutura e desenho da árvore de diretórios não ficasse de forma engessada, como acontece em outras soluções disponíveis no mercado. Atualmente, a base de conhecimento é bastante extensa, visto que grande parte da comunidade utiliza o OpenLDAP. Além disso, o OpenLDAP é muito flexível e possibilita várias customizações e adequações conforme a necessidade do negócio.

Márcio Flavio Luiz é analista de Infraestrutura de TI no Instituto das Cidades Inteligentes (ICI), onde atua na equipe de suporte nível III, com especialidade em Linux. Formado em Redes de Computadores, pós-graduado em Redes e Segurança de Sistemas e cursando atualmente a pós-graduação em Virtualização de Redes e Computação em Nuvem.

Malware, riscos e métodos de proteção

Por Gustavo Valenga

Malware nada mais é do que um programa ou código criado e desenvolvido para executar atividade maliciosa em computadores, servidores, tablets e celulares, prejudicando o desempenho ou a segurança do equipamento.

O termo malware é a abreviação em inglês de “malicious software“, e é utilizado para se referir de uma forma geral aos softwares maliciosos como vírus, worms, Cavalos de Tróia, keylogger e ransomwares.

Recentemente, tivemos um notável aumento de ciberataques por meio de ransomware (‘ransom’ faz referência ao termo em inglês para resgate, e ‘ware’ faz referência a software). O mais famoso, que certamente entrará para a história, é o ransomware WannaCry, que afetou usuários e empresas em escala mundial em maio deste ano.

O malware do tipo ransomware surgiu como uma grande ameaça para empresas e organizações de todos os tamanhos. Ele bloqueia, criptografa ou de alguma forma impede que dados e sistemas sejam acessados por seus proprietários, exigindo que, para recuperar o acesso, a vítima pague um resgate para o atacante.

Ele é distribuído principalmente por spam e e-mails de phishing enviados para um grande número de endereços de e-mail. Além disso, ao entrar em uma rede, o WannaCry procura outras máquinas para infectá-las, sem a necessidade de interação dos usuários.

Sabe-se que o ransomware não é um malware atual. Há relatos de que já ocorriam alguns ataques no final da década de 1980, mas na época os usuários não precisavam desembolsar nenhum dinheiro – consequentemente, não era uma técnica chamativa de ataque para os hackers. Com a criação do bitcoin (moeda virtual), os hackers visualizaram uma possibilidade de aumentar seus ganhos justamente por não existir um órgão regulamentador e, como as transações com bitcoin ainda não podem ser rastreadas, garantem o anonimato. A moeda virtual ainda valorizou após os ataques dos ransomwares WannaCry, Petya, CryptoLocker, Spora e Bad Rabbit, com o valor de um bitcoin sendo equivalente a mais de 35 mil reais.

Como não existe uma proteção 100% efetiva, é necessário conscientizar e focar os usuários. Além disso, é importante tomar algumas medidas de segurança para evitar ser vítima de um ransomware, como examinar os e-mails antes de abrir, verificando se o remetente é de origem confiável. Vale reforçar que links maliciosos também podem ser enviados por amigos que estejam infectados.

Também é indicado evitar acessar links recebidos via e-mail que não sejam confiáveis, sendo comum essas notificações usarem uma roupagem de lojas on-line, brindes, promoções ou descontos, instituições financeiras ou governamentais, produtos de cosméticos etc., com o objetivo de atrair o clique do usuário em um link malicioso. Esse método é chamado de phishing e rouba informações confidenciais.

Não abrir anexo enviado de um remetente desconhecido, não repassar nenhuma informação (senha, login, data de nascimento, CPF etc.) por e-mail, atualizar regularmente o sistema operacional e possuir um bom software de antivírus também previnem contra ameaças.

Para os próximos anos, é esperado que os ataques se tornem mais frequentes e passem a utilizar técnicas de inteligência artificial, machine learning e ataques direcionados, combinações que irão trazer muitos desafios para o mercado de segurança digital.

Gustavo Valenga é analista de Infraestrutura de TI no ICI, onde atua na equipe de suporte nível III com especialidade em Windows. 

Inteligência artificial: aprendizagem das máquinas

Por Débora Morales

A tecnologia de aprendizagem mecânica alimenta muitos aspectos da sociedade moderna, desde pesquisas na web, filtragem de conteúdo em redes sociais, até recomendações em sites de comércio eletrônico, e está cada vez mais presente em produtos de consumo, como câmeras e smartphones. Os sistemas de aprendizado de máquina são um subcampo da Inteligência Artificial que permitem o uso de métodos de análises de dados que automatizam o desenvolvimento de modelos analíticos.

Recentemente, as técnicas de aprendizado de máquinas fizeram avanços em uma variedade de áreas de aplicação, como bioinformática, identificação de objetos em imagens, transcrição de mensagens em texto, combinação de itens de notícias, postagens ou produtos com os interesses dos usuários e seleção dos resultados relevantes de pesquisas.

O aprendizado de máquina constrói algoritmos e modelos que possam aprender a tomar decisões diretamente de dados sem seguir regras predefinidas. Os algoritmos se dividem em três categorias: aprendizagem supervisionada, não supervisionada e de reforço.

Especificamente os algoritmos de aprendizagem supervisionada aprendem a conduzir tarefas de classificação ou regressão a partir de dados rotulados, enquanto os não supervisionados se concentram na classificação dos conjuntos de amostras em diferentes grupos (ou seja, clusters) com dados não rotulados.

Já nos algoritmos de aprendizagem de reforço, os agentes aprendem a encontrar as melhores séries de ação para maximizar a recompensa acumulada (ou seja, a função objetiva) interagindo com o meio ambiente.

Os avanços mais recentes incluem aprendizado profundo (deep learning), transferência de aprendizado e redes adversárias generativas (GAN), e fornecem também as investigações e instruções de aplicação da inteligência artificial de formas inimagináveis.

O aprendizado profundo (deep learning) utiliza modelos de redes neurais de múltiplas camadas, sendo usado em uma incrível variedade de aplicações e diferentes combinações de técnicas matemáticas. É um modelo poderoso e diferenciado, pois pode considerar todos os parâmetros e automaticamente determinar a melhor combinação dos valores de entrada, tornando o processo de tomada de decisão muito mais sofisticado, convertendo computadores e dispositivos em sistemas mais inteligentes.

As coisas que os robôs só podiam fazer em filmes de ficção científica podem agora ser realizadas por smartphones. Qualquer linguagem pode ser compreendida e traduzida quase instantaneamente: conversamos com Siri,CortanaGoogle Assistant ou Alexa; elas entendem, obedecem e respondem com um discurso natural e uma piada ocasional.

A impressionante “criatividade” das máquinas também é expressa no campo do processamento de imagens e visão. As redes neurais, vagamente inspiradas pela arquitetura hierárquica do sistema visual de primatas, superam rotineiramente os seres humanos em tarefas de reconhecimento de objetos. Agora, cenas complexas podem ser analisadas para localizar e identificar com precisão cada objeto e sua relação com os outros, e ainda fornecer uma descrição por texto.

Pode-se dar à rede uma foto de férias e pintá-la como um quadro impressionista; inserir uma foto em preto e branco antiga, e tê-la colorizada; dar um desenho de linhas e transformá-lo em um objeto real; dar uma descrição de texto e ter uma novela nunca vista antes de imagens geradas a partir do zero. Ao inverter o processo de análise (deconvolução), as imagens novas podem ser sintetizadas, dando a essas redes a capacidade de “sonhar”, mas também de realizar proezas de processamento úteis de imagem. Não parece haver nenhum limite para o que pode ser feito, exceto para a imaginação humana (e o conjunto de dados de treinamento).

Muitos são os avanços no campo da inteligência artificial e deve-se ver o incrível progresso do aprendizado de máquina como um despertador, uma ocasião para abandonar desculpas e uma razão para encorajar novas abordagens.

Débora Morales é mestra em Engenharia de Produção (UFPR) na área de Pesquisa Operacional com ênfase a métodos estatísticos aplicados à engenharia e inovação e tecnologia, especialista em Engenharia de Confiabilidade (UTFPR), graduada em Estatística e em Economia. Atua como estatística no Instituto das Cidades Inteligentes (ICI).

Tecnologia da Informação e o poder da qualidade

Todos ganham quando se ajusta o foco na excelência e comprometimento dentro da organização

Por Valéria Poletti

A Tecnologia da Informação evolui de maneira assustadora e vem mudando o dia a dia das pessoas. Disso todos já sabem, mas essa revolução não aconteceria tão facilmente sem a gestão da qualidade em todo o processo. Os consumidores de produtos e serviços usam cada vez mais seu poder de escolha e de exigência, principalmente por meio das redes sociais. Logo, é preciso monitorar e buscar a excelência em tudo que é produzido, para evitar retrabalho, perdas, falhas e, principalmente, a insatisfação dos clientes.

A qualidade exerce papel fundamental nessa “nova empresa”. Certificações foram criadas como forma de padronizar os produtos e serviços oferecidos pelas organizações de TI, até mesmo de maneira a colocar nossas instituições em equiparação com as de fora. Auditorias são processos corriqueiros já há algum tempo, e todos só têm a ganhar. Mas é preciso mais do que isso para se alcançar a qualidade: é necessário criar na instituição a cultura da qualidade, que unirá colaboradores em busca da excelência.

Acompanhei desde o princípio a implantação do Sistema de Gestão da Qualidade na empresa em que trabalho, o ICI – Instituto das Cidades Inteligentes. Faço parte da primeira turma de auditores internos, ajudei na elaboração dos primeiros processos e procedimentos, e é espantoso como em pouco tempo evoluímos na gestão da qualidade por aqui. O Instituto completou 19 anos em 2017, e o Sistema de Gestão da Qualidade entrou na pauta da empresa em razão do estabelecimento do Planejamento Estratégico em 2014. Ou seja, são três anos de trabalho intenso em que já colhemos os frutos de três certificações: NBR ISO 9001:2008, MPS.BR SW (para software) e MPS.BR.SV (para serviços de TI). E também recebemos o Prêmio Paranaense da Qualidade em Gestão (PPrQG), promovido pelo Instituto Brasileiro da Qualidade e Produtividade (IBQP).

O mais interessante dessas metodologias, tanto a ISO 9001 quanto a MPS.BR, é que não são processos fechados, engessados. Os colaboradores determinam o fluxo dos processos do jeito como acontece no dia a dia. Resumidamente: primeiro, a empresa diz como faz, e, depois, com os processos documentados, mostra que faz como diz.

Como é gratificante, hoje, ao fazer auditoria nas áreas certificadas, encontrar colaboradores preparados, com os processos e procedimentos na ponta da língua, falando sobre a Política da Qualidade de maneira natural, pois isso se tornou parte de sua rotina. Procedimentos são melhorados conforme o processo vai se aperfeiçoando; não há mais o receio de que, na falta de um colaborador específico, o conhecimento do processo de trabalho se perca.

Falando em números: a primeira pesquisa de satisfação feita a partir da implantação do Sistema de Gestão da Qualidade com os clientes de uma das áreas certificadas (área de atendimento), feita em 2014, teve como resultado geral 82,33% de clientes satisfeitos ou muito satisfeitos. A meta era (e ainda é) de 70%. Na terceira rodada de pesquisa, feita em 2016, esse índice subiu para 83% de clientes satisfeitos ou muito satisfeitos.

Ainda há muito a se aperfeiçoar. Mas essa é a razão e o sentido de existir da qualidade, a “melhoria contínua”, pois a empresa é um organismo vivo, mutante, que precisa desenvolver seu próprio ciclo de crescimento para avançar.

Entretanto, vale lembrar que todo empenho dos colaboradores na gestão da qualidade será em vão se não houver um real comprometimento da alta direção, apoiando, investindo e direcionando estrategicamente esse processo. No ICI, tudo começou com o chamado da presidência para uma gestão colaborativa, em que coordenadores e gerentes unidos pensaram em novos rumos para a organização, por meio de um Planejamento Estratégico que desbravou várias frentes. Tudo em busca do objetivo maior de uma organização: a satisfação do cliente.

Valéria Poletti é analista de qualidade no Instituto das Cidades Inteligentes (ICI), formada em desenho industrial/programação visual e com especialização em marketing empresarial, ambos pela UFPR. Possui certificação ITIL e de auditoria interna para sistemas de gestão da qualidade – normas NBR ISO 9001:2018 e NBR ISO 19011:2012.

Cidades Inteligentes: quais os principais desafios da inovação?

Por Dyonata Laitener Ramos

Desde 1950, o mundo vem apresentando um crescimento constante da população que reside em áreas urbanas, o que, segundo a ONU, tem levado à urbanização das sociedades em uma velocidade tão grande que teremos cerca de 70% da população em centros urbanos em 2050, frente a 70% da população em áreas rurais em 1950.

Esse crescimento resulta em novas necessidades da população, que não têm sido acompanhadas pela gestão pública de forma eficaz, pois são agravadas com o avanço tecnológico da nova era que apresenta cada vez melhores alternativas para evitar o desperdício ou o esforço desnecessário para a execução de atividades rotineiras.

Embora a tecnologia evolua em uma velocidade que excede as expectativas, não é na mesma velocidade que as cidades as absorvem em benefício dos cidadãos, proporcionando maior qualidade de vida.

A ineficiência da gestão de recursos nas áreas urbanas ocasiona evidentes desigualdades, baixa qualidade de vida e preocupação com o futuro dos ecossistemas urbanos que não param de crescer. Atualmente, é evidente que a geração de soluções é menor que o surgimento de novos problemas e o aumento de situações críticas em nossos principais centros urbanos, principalmente relacionadas à mobilidade, governança, economia, meio ambiente, pessoas e qualidade de vida.

Ao analisar os principais problemas dos centros urbanos, e fazendo um contraponto, podemos chegar aos seis pilares de uma Cidade Inteligente, que representa um ecossistema inovador, caracterizado pelo uso generalizado de tecnologia na gestão de seus recursos e infraestrutura.

Então, quais são as principais dificuldades que a administração pública possui em alinhar as necessidades da população com as diversas novas tecnologias que surgem a cada novo dia? Analisando o cenário brasileiro, boa parte dos impedimentos se deve à alta burocracia envolvida em um processo licitatório, que além do tempo excessivo, não está preparado para acompanhar as novas formas de negócio do século XXI, as quais estão baseadas em crowdsourcing – compartilhamento e colaboração, e impedem que a tecnologia e a inovação possam transformar a realidade da população propiciando melhor qualidade de vida.

Outra parte se deve à falta de expertise da gestão pública em integrar as diversas tecnologias, de forma a criar um ambiente focado em resolver os problemas e necessidades da população, pois uma cidade inovadora é feita principalmente de colaboração e de parcerias que tenham paixão em resolver problemas. Trabalhar esse cenário caótico e desafiador, de forma solitária, é uma tarefa muito árdua e penosa.

Além de uma revisão criteriosa na Lei 8.666/93, que institui normas para licitações e contratos para a Administração Pública, é preciso ceder mais espaço para a iniciativa privada colaborar com soluções focadas em resolver problemas da população de forma colaborativa, ou seja, por meio de parcerias público-privadas que propiciem a evolução de todos os pilares de nossas cidades, resultando em maior qualidade de vida para a população.

Dyonata Laitener Ramos é coordenador de projetos no Instituto das Cidades Inteligentes (ICI).

O suporte técnico de TI e os desafios do dia a dia

Por Evandro Luiz Vizinoni

O que seria das empresas hoje se não houvesse o “menino da TI”? Como os usuários conseguiriam resolver os problemas relacionados à Tecnologia da Informação? Perguntas como essas são normais no ambiente de trabalho, uma vez que os profissionais de TI são lembrados justamente quando acontece algum problema no equipamento ou aplicativo.

A dependência dos serviços de suporte de TI nas empresas é grande, ainda mais que a indisponibilidade de profissionais capacitados atrelada à necessidade do negócio pode impactar em resultados negativos para as organizações. Por isso, há a necessidade de a equipe de suporte de TI ser gerenciada por um responsável que coordene e oriente a entrega de um serviço efetivo e de qualidade.

As empresas buscam sempre a otimização de custos em serviços de TI, o que faz com que as exigências sejam sempre acima das estipuladas nos acordos de níveis de serviço. Muitos clientes acreditam que a equipe de TI sempre pode dar conta das necessidades, entretanto, não se atentam à importância dos processos de gerenciamento de serviços, tais como o registro das solicitações de atendimento, prioridades, prazos e infraestrutura, o que possibilita que o serviço possa ser prestado da melhor forma.

A biblioteca do ITIL (Information Technology Infrastructure Library) é um conjunto de orientações que descreve as melhores práticas para um processo integrado para o gerenciamento de TI. Os processos de atendimento devem estar alinhados com o dia a dia e a entrega das equipes, e o suporte aos serviços de TI deve estar de acordo com os requisitos do negócio. Seguindo as orientações do ITIL, as equipes prestadoras de serviços de suporte de TI devem dispor de ferramentas que justifiquem e contabilizem a quantidade de atendimentos realizados. Ou seja, os chamados técnicos devem ser registrados para que o cálculo dos indicadores de desempenho seja disponibilizado para o cliente. Afinal, como saberemos se o “menino da TI” está atendendo dentro do prazo acordado ou em quanto tempo ele resolveu o problema ou solicitação? Essas informações só são obtidas pelo registro das solicitações de atendimento.

Vivemos em um mundo em que todas as pessoas exigem prioridade, possuem demandas importantes e que devem ser resolvidas com o máximo de urgência, porém todos esquecem que o profissional de TI deve prestar contas, justificando suas atividades diárias por meio de números e resultados. Os usuários possuem a cultura de solicitar um atendimento sem efetuar o registro da solicitação na Central de Serviços ou outro sistema específico, já que a resolução de seu problema exige urgência. Entretanto, poucos entendem que a quantidade de registros efetuados são dados relevantes e que podem impactar na análise de estratégias da própria organização. Dessa forma, é possível avaliar se a falta de profissionais de TI está sendo impactante na entrega dos serviços aos clientes, uma vez que ter apenas uma infraestrutura de TI moderna, mas sem a quantidade exata de profissionais capacitados e alinhados com a estratégia do negócio, é insuficiente.

Para atender aos requisitos do negócio, a equipe de TI deve contar com um gestor, o qual é responsável pelo monitoramento e acompanhamento dos serviços prestados. O registro das solicitações de atendimentos deve ser exigido pelo gestor, apoiando a equipe e orientando os usuários no procedimento. Os processos de atendimento devem ser alinhados entre cliente e prestador de serviço, com o direcionamento das atividades e estipulação de responsabilidades, metas, prazos e serviços disponíveis. Em paralelo, a presença do RNS (Responsável pelo Nível de Serviço) é fundamental para acompanhar os atendimentos e vencimento dos prazos. Ou seja, um responsável em receber críticas, sugestões e elogios dos usuários. Toda equipe de suporte de TI deve contar com um grupo capacitado na Central de Atendimento ou Service Desk, pois várias solicitações podem ser resolvidas pela equipe, além do filtro do problema ou solicitação, o que resulta em um atendimento mais ágil e eficaz, garantindo a entrega dos serviços com qualidade e satisfação dos usuários.

Resumindo, estes são alguns dos fatores críticos de sucesso no processo de atendimento: equipe capacitada e alinhada, infraestrutura adequada, processo de atendimento e acordos (prazos e metas) definidos, e envolvimento e apoio dos usuários. A gestão de TI pelo atendimento de suporte deve ser tratada como uma área estratégica, e sua adoção orientada a processos do ITIL pode resultar em benefícios para o planejamento e execução das atividades nas organizações.

Evandro Luiz Yurk Vizinoni é coordenador de Assistência Técnica e de Suporte Técnico em TI Externo do Instituto das Cidades Inteligentes (ICI).

 

Tecnologia no comportamento estudantil

Por Antonio Marcos Jacinto

Há muitos estudos relacionados a descobrir como a mente humana funciona. Há também muitas pesquisas, descobertas e incertezas. E isso não é novidade. Desde criança o aprendizado de nossa mente é ininterrupto, sempre evoluindo, conhecendo e descobrindo. Não somente recebendo e armazenando informações do mundo que as envolve, mas também transmitindo sinais que, na maioria das vezes, são muito difíceis ou até mesmo imperceptíveis de serem decifrados.

Será que alguns desses sinais poderiam indicar comportamentos futuros que venham a influenciar na vida das crianças? Será que a tecnologia, mais especificamente, a inteligência artificial, poderia auxiliar na descoberta e interpretação de padrões de comportamento das crianças que indiquem alguma medida preventiva a ser adotada? Padrões de comportamento poderiam indicar algum tipo de distúrbio ou até mesmo síndromes que ainda não estão perceptíveis aos especialistas? O cruzamento de informações relacionadas a pessoas poderia colaborar com essa descoberta?

Se considerarmos que as crianças passam um bom tempo de suas vidas em sala de aula, muitos sinais são enviados no dia a dia, que, se forem coletados e armazenados, poderão compor uma base de conhecimento que poderá ser utilizada para mapeamento desse seu comportamento. Alguns desses já foram mapeados anteriormente, porém algumas combinações de dados, ainda não mapeados ou descobertos por especialistas, poderiam indicar a probabilidade de a criança vir a desenvolver algo que no futuro influencie sua vida negativamente. É nesse segmento que o uso da tecnologia, por meio da inteligência artificial, poderia apoiar os especialistas para diagnosticar algo que não é visível a “olho nu”, ou que a criança não dê sinais de possuir ainda.

O professor na sala de aula, notando algum tipo de comportamento fora do padrão de determinada criança, se comparada às demais, poderia coletar informações a respeito para alimentar uma base de dados. Somente a coleta desses dados na escola pode não ser suficiente, por isso o papel e participação dos pais é de fundamental importância, pois em casa a criança também pode vir a demonstrar algum comportamento anormal, então a parceria entre a família da criança e a escola teria que ser estreita.

Com as informações coletadas na escola e na casa da criança, o uso de algoritmos de inteligência artificial poderia ser aplicado para processá-las e realizar o cruzamento nos dados, de forma que comportamentos anteriores já mapeados e confirmados e outros que não foram ainda poderiam indicar a probabilidade da criança também desenvolvê-la.

De posse dessas informações, um especialista poderia ter evidências para um melhor diagnóstico de possíveis distúrbios que a criança poderá desenvolver e que não tenha demonstrado sinais ainda, indicando algum apoio profissional para melhorar sua qualidade de vida e de sua família e aprofundando em exames e monitoramentos a respeito da criança.

A inteligência das coisas é algo que chegou para ficar e, assim como suas aplicações, é de extrema importância para a evolução natural da humanidade. A inteligência em interpretação comportamental aplicada a crianças para identificação de distúrbios que talvez possam ser identificados ainda no início ou mesmo sem indícios que a criança demonstre poderiam oferecer uma qualidade de vida que talvez não venha a ter.

O aprendizado de máquina hoje é uma realidade, mas não para substituir um especialista. O ideal seria unir esforços para evoluirmos e melhorarmos a qualidade de vida que é o princípio básico que possuímos. Se houver apenas um caso proativo que venha a ajudar uma criança, já terá valido a pena essa união.

Nem todas as famílias possuem facilidade ou condições de acesso a acompanhamento médico especialista e muitas vezes seus filhos demonstram sinais que não são interpretados em seu convívio familiar. A disponibilização da tecnologia para uso da população menos privilegiada poderia amenizar grande parte dos problemas das crianças e suas famílias e, onde poderia ser melhor utilizada senão em escolas públicas?

O apoio da tecnologia para descoberta de algo que não tenha sido conhecido tem que ser valorizado e explorado, que não fique somente em laboratórios ou em setores específicos e privilegiados, mas sim disponível para toda população que não tem condição de acesso a esse tipo de ação e são as que mais padecem desse segmento. O quanto estamos longe dessa realidade? Particularmente, acredito que mais próximos de alcançá-la do que do ponto de partida.

Antonio Marcos Jacinto é coordenador de projetos no Instituto das Cidades Inteligentes (ICI). Formado em tecnologia em processamento de dados, com pós-graduação em banco de dados. Está na área de informática há mais de 20 anos, sendo também instrutor oficial Oracle Database.

O universo dos dados

Por Débora Morales

Muito se escuta falar de Big Data e Small Data, mas o que isso realmente significa ainda confunde muita gente. A definição é simples: trata-se de uma análise completa de dados. Décadas atrás, os dados não eram classificados como Small ou Big por fatores como custo, recursos e dificuldades de geração, processamento, análise e armazenamento.

Os dados eram produzidos de forma rigorosamente controlada, utilizando técnicas de amostragem que limitavam seu espaço, temporalidade e tamanho. No entanto, nos últimos anos, os avanços tecnológicos levaram à produção do que se denominou Big Data, que têm características muito diferentes dos pequenos conjuntos de dados.

Grande volume, alta velocidade, que se assemelha ao tempo real, variedade de tempo e espaço, e grande alcance, que capta toda a população dentro de um determinado domínio são algumas das especificações do Big Data. O desenvolvimento simultâneo de várias tecnologias, infraestruturas, técnicas e processos favoreceu esse novo passo.

Rapidamente, o Big Data incorporou softwares de todos os tipos de objetos, desde máquina a sistemas que se alteram de “mudos” para “inteligentes”. Incorporou, também, práticas e espaços sociais e empresariais, por meio de um conjunto diversificado de tecnologias da informação e da comunicação, em especial a internet fixa e móvel. O desenvolvimento da computação ubíqua e a capacidade de acesso a redes em muitos ambientes e em movimento incluiu a criação de novas plataformas de mídias sociais.

Em contraste, o Small Data pode ser limitado em volume e velocidade, mas tem um longo histórico de desenvolvimento em toda ciência, agências estatais, organizações não-governamentais e empresas, com metodologias e modos de análise estabelecidos em um registro de produzir respostas significativas. Estudos de Small Data podem ser mais adaptados para responder a perguntas específicas e explorar em detalhes as formas variadas em que as pessoas interagem.

Estudos de Small Data procuram a mina de ouro, trabalhando uma mineração estreita, enquanto estudos de Big Data procuram extrair pepitas por meio da mineração a céu aberto, recolhendo e peneirando enormes faixas de dados. Essas duas abordagens de mineração, estreita versus aberta, têm consequências em relação à qualidade dos dados, fidelidade e linhagem.

Devido ao tamanho limitado da amostra de Small Data, a qualidade, objetividade, consistência, veracidade e confiabilidade são de suma importância. Muito trabalho é dedicado a limitar a amostragem e o viés metodológico, bem como assegurar que os dados sejam tão rigorosos e robustos quanto possível, antes de serem analisados ou partilhados.

Em contrapartida, o Big Data não necessita dos mesmos padrões de qualidade, veracidade e linhagem, porque a natureza exaustiva do conjunto de dados elimina os vieses da amostragem e compensa mais do que quaisquer erros ou lacunas.

Dadas as preocupações e limitações de Small Data, estudos continuarão a ser um componente importante no cenário de pesquisas. Tais dados, no entanto, serão cada vez mais pressionados a serem ampliados dentro de infraestruturas de dados digitais, para que sejam preservados para gerações futuras, tornem-se acessíveis para reutilização e combinações com outros dados.

As práticas da vida cotidiana e os locais em que vivemos agora são aumentados, monitorados e regulados por densas aglomerações de infraestrutura e tecnologia de dados. Dentro desse sistema, grande parte da geração de dados é automatizada por meio de câmeras controladas algoritmicamente, sensores, scanners, dispositivos digitais como telefones inteligentes, ou são voluntários pelos usuários de mídias sociais ou iniciativas de crowdsourcing.

Coletivamente, esses sistemas produzem conjuntos de dados maciços, exaustivos, dinâmicos, indexados, inter-relacionados, flexíveis e escaláveis. Apesar de algumas limitações, o Big Data e o Small Data se esforçam para serem cada vez mais abrangentes e proporcionarem uma visão dinâmica e refinada em um novo território que ainda está sendo explorado.

Débora Morales é estatística no Instituto das Cidades Inteligentes (ICI).

Desafios na adoção de metodologias ágeis de desenvolvimento de software

Por Felipe Massardo

A adoção de metodologias ágeis de desenvolvimento de software é, habitualmente, uma unanimidade “teórica” em grande parte das empresas de TI, inclusive nas mais tradicionais. Digo “teórica”, pois conceitualmente falando, o Agile é muito bem aceito, é um paradigma de fácil convencimento e de fácil “vendagem” para diretorias e altas gerências. Porém, ocorre que, na prática, a implantação destas metodologias sofre bastante resistência, em todos os níveis das organizações, da cúpula diretiva à equipe técnica. Isto ocorre, pois, como toda mudança, alterar a forma de desenvolver software requer a saída da zona de conforto, trocar o certo pelo (ainda) duvidoso, onde haverá muitas dificuldades, riscos, erros e acertos até que, por fim, os resultados e os ganhos reais comecem a aparecer. Neste processo, o que é certo é que, sem total apoio e comprometimento do patrocinador da mudança (diretoria), nas primeiras dificuldades o processo tende a ser abandonado, voltando-se imediatamente ao modus operandi da empresa.

Mudança cultural

Sair da zona de conforto envolve algo bem mais profundo do que mudanças de atitudes. A grande mudança necessária é na cultura organizacional. Não basta apenas executar diferente, é necessário pensar diferente, não apenas na fase de execução dos projetos, mas desde a concepção das primeiras ideias acerca do produto até a entrega final.

Principais vantagens

Metodologias ágeis trazem uma série de vantagens em relação às tradicionais, porém duas delas merecem destaque especial. A primeira é a entrega constante e regular de software funcional. O cliente não precisa aguardar a finalização do projeto para testá-lo e, principalmente, validá-lo. Isso nos leva para a segunda vantagem, talvez a mais importante: Rápida resposta a mudanças. No mundo real, raramente um cliente possui a perspectiva detalhada do que exatamente ele deseja em seu software. Em geral, o que existe é uma ideia, muitas vezes vaga, da necessidade do cliente. Neste nível de abstração as mudanças são frequentes e perfeitamente normais, porém há uma tendência de que as incertezas sejam reduzidas conforme avança o desenvolvimento e o cliente vislumbra cada vez mais o resultado final.

Uma forma de reduzir as mudanças de escopo, independentemente da metodologia, é a troca de foco. Ao invés de se tentar detalhar a ideia (vaga) que o cliente possui, exigindo “certezas” que o mesmo não pode fornecer, torna-se mais eficiente entender a fundo o problema que se deseja resolver e então propor um software para este propósito.

Ágil X PMBOK

Metodologias ágeis, via de regra, seguem o Manifesto Ágil, que consiste em princípios fundamentais para o desenvolvimento ágil de software. Isto não significa que a adoção de uma metodologia ágil não possa ser combinada com outras metodologias de gerenciamento de projetos, como aquelas que são norteadas pelo PMBOK, por exemplo. Para exemplificar, o princípio ágil “Software funcional mais do que documentação extensa” não prega que toda a documentação deva ser abolida. É muito difícil gerenciar projetos sem um mínimo de documentação, sem aceites nem comprometimentos formais do que fora acordado. Uma ausência total de documentos pode gerar, por exemplo, projetos infinitos, nos quais o cliente sempre demanda novas features e não há como provar que as mesmas nunca fizeram parte do escopo. Em resumo, nada impede que a gestão do projeto como um todo seja feita utilizando-se os processos do PMBOK (apenas os necessários, de forma enxuta) e que a execução seja regida por uma metodologia ágil, complementando uma a outra.

Cliente-Parceiro

Uma grande mudança ao se adotar uma metodologia ágil, principalmente em relação ao desenvolvimento tradicional (em cascata), encontra-se na mudança de comportamento por parte do cliente. Este, que antes participava como um mero expectador do processo, atuando apenas no início (fornecendo a ideia) e no final do projeto (validando a entrega), passa a exercer um papel que vai além do simples cliente, tornando-se um “cliente-parceiro”. Esta necessidade é uma característica inerente do processo de desenvolvimento ágil de software, haja vista que, por exemplo, as entregas parciais só fazem sentido se forem validadas pelo cliente. Talvez ele tenha dificuldades em entender a razão de precisar gastar seu tempo, além do dinheiro, para adquirir um software. Porém, quanto maior seu envolvimento no processo, menor a chance de o produto, depois de pronto, não atender às suas expectativas. É preciso deixar claro que, quanto mais tarde ocorrerem as solicitações de mudanças (depois de pronto, no pior caso), maior será o custo (retrabalho) e o atraso.

O Time Ágil

Apesar de as vantagens do desenvolvimento ágil de software serem evidentes, é preciso ressaltar que o processo só funciona, na prática, se a equipe (time ágil) for adequada para trabalhar desta forma. Em outras palavras, metodologias ágeis não funcionam em todas as equipes. O requisito básico é que a mesma seja autogerenciável. O autogerenciamento é um conceito amplo, mas, de forma simplificada, uma equipe autogerenciável é aquela que possui a capacidade de organizar sua forma de trabalho da maneira mais eficiente possível, de maneira autônoma. É como se a equipe fosse uma microempresa dentro da organização, que possui demandas e entrega resultados, sem a necessidade de alguém lhe dizer como deve organizar seu trabalho, como deve ocorrer a comunicação interna, como devem ser distribuídas as tarefas, enfim, sem nenhuma necessidade de microgerenciamento. Porém, todos os membros da equipe, sem exceção, precisam atender a um perfil específico para fazer parte de uma equipe autogerenciável, caso contrário, desorganização e conflitos surgirão e poderão chegar ao ponto de comprometer a qualidade, os prazos e a equipe como um todo. Este perfil específico demanda, além de conhecimento técnico, alta capacidade de trabalho em equipe, organização e comprometimento. Infelizmente, nem todos possuem este perfil e, portanto, não devem fazer parte dos times ágeis enquanto não o possuírem.

A implantação de uma metodologia ágil é um processo bastante complexo, especialmente em uma empresa tradicional, principalmente por envolver abandono da zona de conforto, muitas vezes sedimentada ao longo de muitos anos, além de profundas mudanças culturais e de processos. Desta forma, todo o processo deve ser realizado de maneira gradativa, sendo o menos taxativo possível, envolvendo muito diálogo e ajustes constantes, especialmente nos primeiros projetos. É preciso ter a humildade de reconhecer que é muito difícil acertar de primeira, além de coragem e perseverança para não desistir diante das primeiras barreiras, especialmente as resistências internas. Infelizmente, nenhuma melhoria significativa é obtida sem investimentos e uma boa dose de risco, porém, os ganhos certamente fazem o esforço valer a pena.

Felipe Massardo é coordenador de projetos no Instituto das Cidades Inteligentes (ICI).

 

Não há cidade inteligente sem cidadãos empoderados

Por Amilto Francisquevis

Fornecer uma estrutura completa de comunicação entre cidade e cidadão é um dos desafios enfrentados pelos gestores públicos durante a administração. Deve-se levar em conta que aproximar os habitantes e estimular maior participação e interação nas definições do planejamento, estratégias e políticas públicas traz benefícios para a cidade e, principalmente, para o próprio cidadão.

Essa forma mais colaborativa na construção das cidades, em que os gestores oferecem suporte e o cidadão se envolve mais na governança, permite melhor compreensão dos problemas e das soluções que podem ser exploradas para um resultado mais satisfatório. E ainda fortalece as instituições públicas, a sociedade e a democracia, promovendo o desenvolvimento econômico com maior transparência e coesão social. Pelo menos é o que se espera.

Enquanto esses mecanismos participativos têm grande potencial para serem instrumentalmente valiosos na promoção da eficiência e equidade dos serviços prestados pelos órgãos e entidades públicas, isso nem sempre se realiza na prática.
No contexto nacional, observamos, ainda que de forma institucionalizada,  iniciativas voltadas a orçamento e planos diretores municipais como ouvidorias, audiências e consultas públicas. Mas são poucos os resultados apresentados em projetos de colaboração que contribuam com a construção de uma cidade mais inteligente e resolvam problemas dos centros urbanos, melhorando a gestão dos serviços e aplicação dos recursos públicos.

É aí que entram as TICs (Tecnologias da Informação e Comunicação), que oferecem infraestrutura tecnológica para permitir de fato o acesso e a interação com o cidadão. Para se adequar e atender questões de mobilidade, economia, governança, sustentabilidade e qualidade de vida, as cidades se remodelam, com o intuito de se tornarem mais desenvolvidas.

É preciso apostar cada vez mais em uma cidadania inteligente, em cidadãos empoderados e no poder da coletividade. É preciso entender e reconhecer que os serviços serão aprimorados com a interação e a contribuição dos seus usuários, gerando informações que deverão ser tratadas de forma transparente dentro da gestão pública para tornar os serviços mais eficientes.

Amilto Francisquevis, assessor de Mercado do Instituto das Cidades Inteligentes (ICI).