quinta-feira, 15 de maio de 2008

Como instalar/experimentar uma distribuição Ubuntu? - Parte I

Boas! O post de hoje, é sobre o Wubi uma nova funcionalidade que permite aos utilizadores do Windows instalarem, neste caso o Ubuntu ou derivados, como uma aplicação. O processo de instalação é totalmente automático tendo o utilizador somente de escolher a partição em que o deseja instalar, o espaço a ser ocupado pela instalação, a língua, o nome e a password do utilizador. É tudo! Se quiser desinstalar o Ubuntu, basta proceder a desinstalação como faria com uma outra aplicação qualquer no Windows, ou seja Painel de Controlo->Adicionar e Remover Programas.

1º - faça o download do ubuntu (este utiliza o gestor de ambiente gráfico gnome) ou kubuntu (este utiliza o gestor de ambiente gráfico kde). Sugiro que de uma vista de olhos nos seguintes screenshots: ubuntu 8.04 e kubuntu 8.04 antes de decidir qual das distribuições utilizar. Na minha opinião, para novos utilizadores que tenham experiência em ambientes Windows, o gestor de ambiente gráfico kde é mais fácil de utilizar que o gnome.

2º - após o download, fica-se na posse de um ficheiro com extensão iso que contém o sistema operativo e os programas. Este ficheiro deve ser gravado num cd (existe também a opção de o executar através de um simulador, p.e. o daemon tools). Se alguem tiver problemas com este processo, recomendo a leitura desta resposta à um comentário.

3º - basta inserir o CD na drive de CD/DVD-rom e fazer duplo clique neste ou esperar pelo auto-arranque para se obter a seguinte janela (no caso de não aparcer nenhuma janela, "entre" no CD e execute o umenu.exe):

A 1ª opção permite testar o ubuntu a partir da funcionalidade Live CD, e permite proceder-se a uma instalação de raiz onde o utilizador tem total controlo da mesma. A 2ª opção permite a funcionalidade disponibilizada pelo Wubi, que é a que vamos utillizar. A 3ª opção permite obter ajuda e encontrar mais referências sobre o assunto no site do Ubuntu. Clique na 2ª opção

Nesta janela escolhe-se a partição do disco onde se pretende efectuar a instalação; a quantidade de espaço do disco a utilizar (sendo o minimo de 4GB); a escolha do gestor de ambiente gráfico; a lingua em que o sistema vai ser utilizado (pode sempre proceder a sua modificação após a instalação) e por fim o nome e password do utilizador. A janela de instalação tem o seguinte aspecto:
No fim da instalação é necessário reiniciar o computador. A seguinte figura ilustra esta situação:



Após reiniciar o computador, o ultizador é confrontado com o seguinte ecrã aonde deve ser feito a escolha do sistema operativo a iniciar:



Com esta funcionalidade, experimentar a distribuição GNU/Linux Ubuntu e derivados, é mais simples. Experimente e conte-nos a sua experiência!

No caso de optar pela funcionalidade Live CD (esta funcionalidade permite experimentar o sistema operativo sem instalar nada no disco rigido, no entanto a experiência de utilização é mais lenta porque os dados são carregados a partir da drive de CD/DVD-ROM) e não quer entrar na parte de configuração da BIOS para seleccionar o boot através da drive de CD/DVD, efectua os seguintes passos para obter a mesma funcionalidade de forma simples e rápida (para remover esta funcionalidade basta remover a "aplicação" Ubuntu na lista de programas do Windows):






segunda-feira, 12 de maio de 2008

Linux vs Windows - Parte 2

A Microsoft, com o desejo de ter consistência no que diz respeito à aparência do sistema e das suas aplicações, integrou o kernel do sistema operativo com GUI (Graphical User Interface - parte gráfica do sistem operativo). Apesar de não ter regras tão restrictas quanto a Apple, no Windows tem-se um visual, a nível de aplicações, que tende a ser sempre o mesmo. Uma razão para que isto seja considerado perigoso, consiste no facto de, por exemplo, o driver da placa gráfica se executar a níveis com permissões muito elevadas, níveis esses onde, caso haja qualquer erro de hardware, pode-se deitar todo o sistema abaixo - razão típica para o conhecido ecrã azul.

Por outro lado, o Linux (e todos os sistemas baseados em UNIX) mantém a GUI e o kernel separados. Essa separação tem as seguintes vantagens: em caso de bloqueio do ambiente gráfico, não se tem de reiniciar todo o sistema (esta vantagem é maior no caso de ambientes de servidores); como qualquer aplicação, o GUI requer recursos do computador e, quando há esta separação, é dada a posssibilidade a administradores de sistemas de simplesmente não executarem a GUI, o que é muito comum em servidores, dado o desejo de se ter o máximo de recursos disponíveis para atendimento de pedidos de clientes; e torna o sistema muito mais estável. Essas são algumas das muitas razões pelas quais o Linux sempre foi líder no mercado de servidores. Essa separação também traz mais algumas vantagens implícitas: diversificação na oferta por parte de diferentes fabricantes; e a possibilidade da adicção de inúmeras funcionalidades sendo que, de entre as mais notórias, encontra-se a possibilidade de se conseguir enviar, através de uma rede, exactamente aquilo que se encontra a ser apresentado no ecrã local, permitindo assim administração remota, ou simples apresentação para, por exemplo, objectivos didáticos.

Os dois maiores gestores de janelas da actualidade são o KDE e o GNOME, sendo que a escolha de entre um deles dependerá do gosto de cada um, apesar de reconhecer que, para quem esteja familiarizado com o Windows, o KDE seja mais amigável.

quarta-feira, 7 de maio de 2008

História

Nos anos 60, o MIT, a Bell Labs e a General Electric (grande produtora de electrónica na altura) constataram o sucesso gerado por sistemas proprietários que suportavam os conceitos multi-utilizador, ou seja, vários utilizadores simultâneos, e multi-programação, onde a execução de várias aplicações era feita aparentemente em simultâneo, simulada através da atribuição curta e periódica do CPU a cada aplicação. Dada essa constatação, desenvolveram o MULTICS (MULTiplexed Information and Computing Service). Porém esse projecto nunca chegou ao fim pois, após encontrarem-se problemas de difícil resolução a Bell Labs retirou-se e a General Electric desitiu completamente do negócio de computadores.

Entretanto, um dos engenheiros da Bell Labs, que tinha participado no projecto MULTICS, Ken Thompson, descobriu um computador PDP-7 que não estava sendo usado e começou a desenvolver uma versão simplificada do MULTICS, testando algumas teorias que deveriam eliminar alguns dos problemas que tinham encontrado. Esse sistema mais tarde tornou-se no hoje conhecido UNIX, que se tornou muito popular tanto a nível académico como para órgãos do governo americano. Porém essa popularidade, derivada do facto do UNIX ser acompanhado pelo seu código fonte, teve um lado negativo: vários fabricantes começaram a desenvolver sistemas baseados no UNIX, criando um enorme ambiente de incompatibilidade na indústria. Foi, por essa razão, que o Institute of Electrical and Electronic Engineers (IEEE) desenvolveu um padrão a que chamou de POSIX, que consistia num conjunto de chamadas de sistemas (system calls) básicos que deveriam ser suportados por todas as variações.

Com o lançamento da versão 7 do UNIX, a AT&T notou que o UNIX se estava a tornar num produto comercial valioso, pelo que fez a sua distribuição sem o código fonte, o que tornou o ensino no mundo académico de sistemas operativos uma impossibilidade, visto ser uma disciplina maioritariamente prática, onde se aprende mais estudando exemplos reais do código fonte. Para corrigir essa situação, Andrew S. Tanembaum decidiu escrever de raíz um novo sistema que seria compatível com o UNIX, mas que não utilizaria nenhuma linha de código deste, de forma a livrar-se das restrições das patentes da AT&T. Este sistema era o MINIX (mini-UNIX), e foi amplamente aceite no mundo académico.

Contudo, para manter a sua popularidade académica, Tanenmbaum recusou durante anos a alteração, o acréscimo e melhorias ao código fonte, pois a ideia não era desenvolver um sistema eficiente e poderoso como o UNIX, mas sim manter simples e claro um código que viria a ser estudado nas universidades. Por essa razão, foi criado um clone do MINIX, para que se suportassem muitos mais recursos e que deveria ser muito mais eficiente e, consequentemente, complexo que o MINIX. Esse sistema era o Linux, e o estudante finlandês que teve essa iniciativa e que ainda hoje desenvolve o kernel do Linux chama-se: Linus Torvalds.

terça-feira, 6 de maio de 2008

Linux vs Windows - Parte 1

O Windows foi desenvolvido tendo em conta a visão global do seu fundador Bill Gates: um PC, numa secretária, para uma pessoa. De acordo com esta visão, duas pessoas não podem trabalhar paralelamente na mesma estação de trabalho, ou seja, um não pode terminar um relatório para entregar no trabalho sem que o outro pare de navegar na internet. Obviamente, existem versões servidores que fazem isso porém, têm uma licença associada que custará imenso, e exigem utilização intensiva de recursos, luxo esse que não se pode ter em PCs domésticos.

O Linux foi desenvolvido tendo a mesma filosofia do seu antecessor: o Unix. Quando o Unix foi desenvolvido, no início dos anos 70, nos laboratórios da Bell, a ideia consistia em desenvolver um sistema operativo que deveria correr numa estação de trabalho PDP-7, que deveria ser partilhada por todo um departamento. Foi assim criada, nessa altura, o conceito de sistemas multi-utilizador. Essa realidade tornou possivel ter-se uma estação de trabalho, com os recursos todos necessários à sua execução e, para cada utilizador, ao invés de possuirem PCs para cada um, teriam apenas os chamados "terminais", ou seja, uma junção de ecrã, teclado e possivelmente mais algum dispositivo de input de dados, por exemplo, o rato. Esse tipo de arquitectura pode reduzir em grandes proporções o orçamento necessário para implementação de uma arquitectura de computadores necessária para a execução do trabalho de empregados numa empresa.