A Ciência da Computação estuda a fundamentação teórica das construções computacionais, bem como suas aplicações em dispositivos tecnológicos e sistemas de computação.
A Ciência da Computação tem uma longa história, que se inicia na antiguidade, embora os computadores eletrônicos – que são um tipo de dispositivo tecnológico de computação – tenham pouco mais de 50 anos. Na antiguidade, matemáticos e lógicos já estudavam formalizações lógicas (algoritmos) e dispositivos para a implementação destes algoritmos e a realização e a otimização de cálculos. Esses dispositivos eram fabricados artesanalmente e evoluíram ao longo do tempo para a forma mecânica.
Com o advento da eletrônica digital, consequência de estudos em lógica matemática (particularmente os de George Boole e Augustus De Morgan) e estudos sobre computabilidade (particularmente os de Alan Turing que mostram os limites da computação), a construção de dispositivos automáticos de computação tornou-se possível. Já no século XIX, Charles Babagge coordena ambicioso projeto de construção de dispositivos mecânicos de computação.
O período compreendido entre as décadas de 1930 e 1950 foi particularmente importante. Tendo em vista a demanda por métodos automáticos e eficientes de criptografia (ou decriptografia), cálculos de trajetórias e otimização, houve um grande impulso ao desenvolvimento de mecanismos eficientes e eficazes de computação. Enquanto Konrad Zuse (na Alemanha) coordena os esforços dos alemães para a construção de dispositivos automáticos, Turing coordena a construção do Colossus, amplamente utilizado para decodificação de códigos criptografados nazistas durante a guerra. Além dos estudos de Turing sobre computabilidade, é importante ressaltar que Claude Shannon mostrou que a lógica desenvolvida por George Boole poderia servir para implementar dispositivos lógicos digitais simples, mostrando o potencial tecnológico de circuitos digitais (posteriormente, amplamente utilizados na construção de dispositivos eletrônicos e computadores, dando origem à eletrônica digital).
Com o advento dos computadores eletrônicos digitais e o avanço nos estudos fundamentais sobre computabilidade, surgem os primeiros núcleos e centros de pesquisa em Ciência da Computação. Percebe-se que computadores podem ser utilizados na prova automática de teoremas, em jogos (como xadrez), na resolução de tarefas e nas tomadas de decisões. Isso leva a estudos sobre inteligência de máquina (nos quais Turing também foi pioneiro) e posteriormente ao desenvolvimento da inteligência artificial, na qual Herbert Simon (Prêmio Nobel de Economia em 1976), Alan Newell, John McCarthy e Marvin Minsky desempenharam papéis de destaque.
A evolução da eletrônica digital leva ao desenvolvimento de computadores mais eficientes e com maior capacidade de armazenamento. Isso demanda linguagens de programação mais adequadas e que permitem fazer uso desses dispositivos tecnológicos. Surgem as primeiras linguagens de programação de alto nível, como FORTRAN (FORmula TRANslation), ALGOL (ALGOrithmic Language) e PL/I, entre outras. Nessa fase, décadas de 1950 a 1970, pesquisadores influentes, conhecidos como os “pais da computação moderna” destacam-se: John Backus (um dos projetistas da linguagem FORTRAN e pesquisador na área de linguagens de programação), Edsger Dijkstra (um dos responsáveis pelo desenvolvimento da linguagem ALGOL 60 e defensor do rigor matemático na Computação), Tony Hoare (desenvolvedor do “quicksort”, um dos mais famosos algoritmos de ordenação de dados, e grande projetista de linguagens de programação), Robin Milner (de grandes contribuições a automatização de provas, desenvolvimento de linguagens de programação e computação distribuída), Edgar F. Codd (proponente do modelo relacional de dados, amplamente utilizado em Sistemas de Bancos de Dados), Donald Knuth (que sistematizou o estudo de algoritmos) e Barbara Liskov (que criou a teoria de Tipos de Dados Abstratos).
Na década de 1980, o surgimento dos computadores pessoais popularizou a Computação, alavancando uma nova indústria de impacto mundial, que revoluciona a forma como as pessoas trabalham.
Na década de 1990, consolida-se a World Wide Web (WWW) a partir do trabalho de Tim Berners-Lee. O desenvolvimento da Web possibilitou a troca de informações e a comunicação sem precedentes, inicialmente, entre pesquisadores e, posteriormente, entre quaisquer pessoas conectadas à Internet. Com o advento da eletrônica analógica, no século passado, as áreas de comunicações e automação sofreram avanços espetaculares, pela construção de sistemas, como o rádio e a televisão, e as máquinas automatizadas.
O setor industrial melhorou a qualidade e a produtividade. Sistemas eletrônicos analógicos processam e geram sinais analógicos em escala contínua. A eletrônica digital permite converter sinais analógicos em cadeias de sinais digitais que são interpretadas por sistemas digitais, categoria que inclui os computadores, produzindo outros sinais digitais como resultado. As cadeias de sinais digitais são símbolos de um alfabeto.
O primeiro computador, o Eniac, construído em 1945, na Universidade da Pensilvânia, demonstrou pioneiramente o funcionamento de um computador digital eletrônico. Esse computador era monofuncional, realizava apenas cálculos matemáticos. Em meados dos anos 1940, John von Neumann desenvolveu o conceito de programa digital armazenado que seria, na prática, usado no computador EDSAC - construído em 1949 na Universidade de Cambridge, sob a liderança de Maurice Wilkes. Programas e dados, em representação digital, são armazenados na memória do computador. Cada programa armazenado na memória do computador muda a função deste, tornando-o uma máquina
multifuncional, dita programável. Esse conceito é, na prática, utilizado em sistemas digitais muito mais complexos, até hoje.
O computador abriu as portas para o desenvolvimento de aplicações científicas e comerciais. Começou, então, a era dos computadores modernos. A tecnologia eletrônica digital evoluiu constantemente: computadores com maior capacidade de memória, processamento mais rápido e comunicação entre computadores.
Um paradigma tecnológico novo surgiu com a miniaturização da eletrônica (denominada microeletrônica ou nanoeletrônica atualmente), que permitiu a integração da eletrônica do computador em chips cada vez mais baratos, o que possibilitou a massificação do uso do computador. O computador, na forma de memórias e processadores microscópicos, está incorporado no uso cotidiano.
No mundo corporativo, o início da aplicação dos computadores em empresas ocorreu nos primeiros anos da década de 50, quando a primeira empresa da sociedade civil incorporou o uso de um computador de grande porte aos seus processos de negócios (General Eletric). Nesse contexto, foram desenvolvidos os primeiros sistemas de informação aplicados à resolução dos problemas das empresas, caracterizando a primeira fase do uso de Sistemas de Informação nas organizações (Processamento de Dados).
Nos anos 70, a partir do surgimento dos microcomputadores e o significativo barateamento da tecnologia de processamento de dados, iniciou-se a segunda fase do uso de computadores nas empresas, aliando os computadores ao uso integrado dos sistemas de informação (Informática).
Finalmente, a partir dos anos 90, tem início a terceira fase de uso dos computadores nas organizações (Tecnologia da Informação), quando os sistemas de informação se voltam para as suas áreas fins, tornando-se estratégica para a competitividade no cenário da Sociedade do Conhecimento.
Os cursos de Ciência da Computação tiveram início nos Estados Unidos na década de 60. Em 1968, a ACM (Association for Computing Machinery) publicou o primeiro modelo de currículo dos cursos de Ciência da Computação.
No Brasil, em 1969, a Universidade de Campinas, com o curso de Bacharelado em Ciência da Computação, e a Universidade Federal da Bahia, com o curso de Bacharelado em Processamento de Dados, criaram os primeiros cursos de Computação no País. A criação de cursos de Bacharelado ocorreu livremente, com denominações diversificadas e às vezes conflitantes.
Em 1998, a Comissão de Especialistas de Ensino de Computação e Informática do MEC recomendou a padronização dos cursos da área de Computação e Informática em quatro denominações: Ciência da Computação, Engenharia de Computação, Licenciatura em Computação e Sistemas de Informação.
Em 1999, nos termos da legislação vigente, o MEC, por meio da mesma Comissão de Especialistas, propôs as Diretrizes Curriculares dos cursos da área de Computação e Informática, consolidando as quatro denominações de cursos.
A Sociedade Brasileira de Computação tem prestado um relevante serviço na construção dos chamados Currículos de Referência, que detalham cada tipo de curso e são fundamentais na construção de Projetos Pedagógicos de Cursos.
Segundo dados fornecidos pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira-INEP, em 2008 haviam 1817 cursos da área de Computação no País, sendo 328 cursos de Ciência da Computação, representando 16,06%, 93 cursos de Engenharia de Computação, representando 4,55%, 78 cursos de Licenciatura em Computação, representando 3,82% e 538 cursos de Sistemas de Informação, representando 26,35% do total.
Nenhum comentário:
Postar um comentário