segunda-feira, 15 de setembro de 2008

MAIS UMA BOA RAZÃO PARA VISITAR MONSARAZ...

sexta-feira, 18 de julho de 2008

Uma maneira de estar na vida

Entendemos que, hoje como sempre, o Homem é guionista, argumentista e actor da "peça" levada à cena no teatro da vida: não somos leitores passivos de um qualquer livro que alguém escreveu mas sim co-autores de uma obra que apenas ganha o sentido que lhe é conferido pela vivência que dela temos. Na nossa óptica, o ser humano é um sistema aberto e complexo: as esferas cognitiva (a do saber), socio-afectiva (a do sentir) e operativa (a do fazer) são subsistemas em interacção, todos eles igualmente importantes. A nossa visão do Homem do século XXI é pois a de um ser participativo, com capacidades e continuamente disponível para se interrogar e para aprender, encarando com entusiasmo os desafios de fazer de novo, diferente e melhor. Acreditamos que a Sociedade do conhecimento é um desafio novo e apaixonante e estamos empenhados em contribuir para que ela represente mais um passo na dignificação do Homem: ajudando a colocar as tecnologias ao serviço do desenvolvimento humano e alargando a acessibilidade ao conhecimento e à partilha de experiências.

WEB 2.0

RESUMO
A IMPORTÂNCIA DO AMBIENTE COLABORATIVO NA WEB 2.0. DESTACA O POTENCIAL DA ESCRITA HIPERTEXTUAL[*] COLABORATIVA NO USO DE FERRAMENTAS WIKIS. REFLEXÕES SOBRE A EVOLUÇÃO DA WEB 1.0 PARA A SEGUNDA GERAÇÃO DE SERVIÇOS DA INTERNET, CONHECIDA COMO WEB 2.0. RELACIONA A ABRANGÊNCIA DAS TIPOLOGIAS DE DOCUMENTOS TRADICIONAIS (ENCICLOPÉDIAS, LIVROS E DICIONÁRIOS) DESENVOLVIDAS COM NOVAS MÍDIAS DA WEB 2.0 RESULTANDO APLICAÇÕES COMO A WIKIPÉDIA, WIKIBOOKS E WIKTIONARIES

[*] Escrita em páginas web voltada para a criação colaborativa de hipertextos e hiperligações multidirecionais. Este sistema busca facilitar a escrita online e a criação ou busca de novas páginas através do padrão Wiki.
_______________________
Introdução
Web 2.0 é um termo criado em 2004[1] para designar uma segunda geração de comunidades e serviços baseados na plataforma Web, como wikis, aplicações baseadas em folksonomia e redes sociais. Embora o termo tenha a conotação de uma nova versão da Web, ele refere-se não à actualização nas suas especificações técnicas, mas a uma mudança na forma como ela é encarada por utilizadores e programadores.
Alguns especialistas em tecnologia, como Tim Berners-Lee, o inventor da World Wide Web, alegam que o termo carece de sentido pois a Web 2.0 utiliza muitos componentes tecnológicos criados antes mesmo do surgimento da Web [2]. Alguns críticos do termo afirmam também que este é apenas uma jogada de marketing (buzzword).[3]


Breve histórico
O termo Web 2.0 foi usado pela primeira vez em Outubro de 2004 pela O'Reilly Media e pela MediaLive International como designação de uma série de conferências sobre o tema, popularizando-se rapidamente a partir de então. Tratou-se da constatação de que as empresas que conseguiram manter-se através da crise da Internet possuíam características comuns entre si, o que criou uma série de conceitos agrupados que formam o que hoje chamamos Web 2.0.


Conceptualização
O conceito apresentado neste artigo segue os princípios ditados por Tim O'Reilly. Num artigo de conceptualização (e também de defesa) do termo Web 2.0. Tim [4] define que:

"Web 2.0 é a mudança para uma internet como plataforma, e um entendimento das regras para obter sucesso nesta nova plataforma. Entre outras, a regra mais importante é desenvolver aplicativos que aproveitem os efeitos de rede para se tornarem melhores quanto mais usados são pelas pessoas, aproveitando a inteligência colectiva"

As regras a que se refere O'Reilly já foram discutidas antes do aparecimento do termo, sob outros nomes como infoware[5], the internet operating system[6] e the open source paradigm shift[7] e são produto de um consenso entre empresas como Google, Amazon, Yahoo e Microsoft e estudiosos da Web (como Tim O'Reilly[8], Vicent Cerf[9] e Tim Berners-Lee [10]) e da consolidação do que realmente é o seu resultado na Internet. Segundo Tim O'Reilly, a regra mais importante seria desenvolver aplicativos que aproveitem os efeitos da rede para se tornarem melhores quanto mais usados são pelas pessoas, aproveitando a inteligência colectiva.

Regras
O'Reilly sugere algumas regras [11] que ajudam a definir sucintamente a Web 2.0:
O Beta perpétuo - o software deixa de ser tratado como um simples programa, mas como um processo de comprometimento com seus utilizadores.
Pequenas peças frouxamente unidas - abra seus dados e serviços para que sejam reutilizados por outros. Reutilize dados e serviços de outros sempre que possível.
Software acima do nível de um único dispositivo - não pense em aplicativos que estão no cliente ou servidor, mas desenvolva aplicativos que estejam no espaço entre eles.
Bases de dados são o novo “Intel inside”,


Web 2.0 e a programação
Começaram a desenvolver-se softwares que são usados pela Internet e vendidos não em pacotes mas como serviços, pagos mensalmente como uma conta de água. Além disso, mudou-se a forma de fazer softwares. Para que tudo funcionasse bem na Internet, foi necessário a união de várias tecnologias (como AJAX) que tornassem a experiência do utilizador mais rica, com interfaces rápidas e muito fáceis de usar.
Definiu-se então que quanto mais simples e modular for a programação, melhor. Assim é fácil tirar ou acrescentar uma funcionalidade ou compartilhar uma parte do seu software com outro software. Os módulos podem ser reutilizados em diversos softwares ou partilhados para serem usados por programas de terceiros. Metodologias e conceitos como o Getting Real e Agile tem-se popularizado entre as empresas que desenvolvem aplicativos ditos "Web 2.0".
Segundo estes princípios, os softwares são desenvolvidos de modo que se tornem melhores quanto mais forem usados, pois os utilizadores podem ajudar a melhorá-los. Por exemplo, quando um utilizador avalia uma notícia, ele ajuda o software a saber qual notícia é a melhor. Da mesma maneira, quando um utilizador organiza uma informação através de marcações, ele ajuda o software a entregar informações cada vez mais organizadas.


Interfaces com o utilizador
A Web 2.0 propõe uma experiência de uso semelhante à de aplicativos para desktop, frequentemente fazendo uso de uma combinação de tecnologias surgidas no final da década de 1990, que incluem Web services APIs (1998), AJAX (1998), Web syndication (1997), entre outras. Estas tecnologias aumentaram a velocidade e a facilidade de uso de aplicativos Web, sendo responsáveis por um aumento significativo no conteúdo (colaborativo ou meramente expositivo) existente na Internet. Estas também permitiram que utilizadores comuns, que até então não possuíam conhecimentos necessários para publicar conteúdo na Internet - pela ausência de ferramentas de uso simplificado - publicassem e consumissem informação de forma rápida e constante. Nomeadamente têm-se os blogs e wikis como expoentes desta massificação. Permitiram ainda o desenvolvimento de interfaces ricas, completas e funcionais, sendo que alguns aplicativos Web, ainda em versão beta, são considerados por muitos como "desktops on-line", proporcionando ao utilizador um ambiente de trabalho inteiramente baseado na www, acessível de qualquer computador com conexão à Internet.
De forma particular, o AJAX permite ao utilizador não esperar que uma página Web se recarregue ou que o processo seja terminado para continuar usando o software. Cada informação é processada separadamente, de forma assíncrona, de forma que não é mais necessário recarregar a página a cada clique.


A Web é a plataforma, o software um serviço
Na Web 2.0 os softwares funcionam pela Internet, não somente instalados no computador local, de forma que vários programas podem integrar-se formando uma plataforma de grande dimensão. Por exemplo, os seus contactos do programa de e-mail podem ser usados no programa da agenda, ou pode-se criar um novo evento numa agenda através do programa de e-mail. Os programas funcionam, então, como serviços em vez de serem vendidos em pacotes. Estes serviços podem ser cobrados com uma mensalidade, como a sua conta de água.
Outro conceito da web 2.0 que interfere na programação chama-se "Beta perpétuo". Na web 2.0 acabaram-se os ciclos de lançamento de programas. Os programas são corrigidos, alterados e melhorados o tempo todo, e o utilizador participa deste processo dando sugestões, reportando erros e aproveitando as melhorias constantes. Em oposição ao que acontece com softwares tradicionais, em CDs e DVDs, dependentes de um sistema operacional, os aplicativos Web podem ser actualizados de forma constante, linear e independente da acção do utilizador final. No caso de actualizações de segurança e desempenho, por exemplo, o utilizador da aplicação seria imediatamente beneficiado sem mesmo tomar conhecimento.
Na web 2.0 os programas são abertos, ou seja, uma parte do programa pode ser utilizado por qualquer pessoa para fazer outro programa. São utilizadas APIs para deixar que outros sites utilizem partes dos seus dados nos serviços deles. Em vez de grandes servidores disponibilizando uma enorme quantidade de arquivos, na web 2.0 descobriram-se as redes P2P, na qual cada utilizador funciona como um servidor de arquivos e os arquivos são trocados directamente entre os diferentes utilizadores.


Web 2.0 e o conteúdo
O conteúdo dos websites também sofreu um enorme impacto com a Web 2.0, dando ao utilizador a possibilidade de participar, geralmente gerando e organizando as informações. Mesmo quando o conteúdo não é gerado pelos utilizadores, este pode ser enriquecido através de comentários, avaliação, ou personalização.
Algumas aplicações Web 2.0 permitem a personalização do conteúdo mostrado para cada utilizador, sob forma de página pessoal, permitindo-lhe a filtragem da informação que ele considera relevante.
O conceito usado é comparável com o do software livre: se há muitas pessoas a olhar, todos os erros são corrigidos facilmente. Para isso existem comunidades que se auto-moderam, através da participação dos utilizadores indicando, em determinadas circunstâncias, ao sistema qual o utilizador que não deve mais participar da comunidade.
Dentro dos princípios da Web 2.0 o conteúdo deve ser aberto, utilizando licenças como "Creative Commons" que flexibilizam os direitos de autor permitindo que o utilizador reutilize (republicando, alterando ou colaborando) o conteúdo. A partilha de informações deve dar ao utilizador a possibilidade de reutilização.
Além do conteúdo editorial e noticioso, na web 2.0 o conteúdo de alguns sites visa gerar comunidades, seja através de sites de relacionamento, seja através de comentários em notícias e blogues.


Tag's, não taxonomia: o utilizador organiza o próprio conteúdo.
A organização do conteúdo é feita também pelo próprio utilizador sob forma de marcações (folksonomia), em contraste de uma taxonomia do sistema. Por exemplo, o aplicativo del.icio.us para guardar e compartilhar links favoritos criou o conceito de marcação de conteúdo. Em vez de criar pastas e categorias pré-definidas para o utilizador escolher, cada utilizador pode definir uma palavra-chave para um determinado conteúdo, assim, quanto mais utilizadores marcarem o conteúdo, melhor organizado ele será.


Consumer-Generated Media (CGM)
Ou media gerada pelo consumidor é um termo utilizado para descrever o conteúdo que é criado e divulgado pelo próprio consumidor. Com o surgimento da Internet e o avanço das tecnologias digitais, da mesma maneira que o acesso dos consumidores à informação teve um aumento significativo, aumentou também a facilidade dos consumidores em expressar suas opiniões.
Na Internet o CGM está presente em comentários, fóruns, lista de discussões, blogs e fotologs, comunidades, grupos, sites participativos, no YouTube, na própria Wikipedia. Os consumidores utilizam todas as ferramentas disponíveis (Messenger, sites, blogs, e-mails, mensagens, telemóveis, etc.) para divulgar, sobretudo, suas experiências pessoais e opiniões em relação a produtos, serviços, marcas, empresas, notícias, etc.
Assim como acontecia com o boca-a-boca, o CGM tende a ter um maior poder de influência sobre outros consumidores do que as médias tradicionais (TV, rádio, jornais impressos), pois tendem a passar mais credibilidade. A diferença é que, com a tecnologia disponível, o impacto do CGM é muito maior que o “boca-a-boca”.
Algumas empresas já estão a incentivar a prática do CGM junto aos seus consumidores. Outras estão a contratar empresas especializadas para pesquisar o que os consumidores estão a comentar sobre a sua marca, produto ou serviço.


Novas formas de gerar lucro
Surgem novas formas de ganhar dinheiro com a internet. Uma delas chama-se LongTail. Uma loja virtual pode ter um catálogo muito grande, cheio de itens que vendem pouco e não servem para lojas comuns que têm um custo de manutenção elevado para manter o produto na prateleira. Mas é justamente por serem difíceis de encontrar em lojas comuns que estes itens são mais preciosos para quem gosta deles.
Por isso, o modelo de vendas na web 2.0 deve ter um sistema para fazer as pessoas descobrirem estes itens únicos no catálogo - por exemplo: “pessoas que compram este CD também compram…”. A venda de muitos itens que individualmente vendem pouco traz muito mais retorno financeiro que as vendas de produtos que individualmente vendem muito.
Outra forma de ganhar dinheiro na nova internet é o uso dos softwares como serviços. São programas que funcionam através da internet e são pagos mensalmente. Além destas duas, há outras como a venda do conteúdo de um site que foi gerado pelos utilizadores, a venda de informações usadas para fazer um programa (ex. as fotos aéreas que são usadas no Google Maps) e venda de espaço para publicidade onde se paga somente quando o utilizador clica no anúncio, etc.


Marketing e publicidade
O marketing e a publicidade online também mudaram muito com a web 2.0. Agora a empresa já não deve apenas comunicar, ela deve aprender a interagir. A publicidade deixou de ser uma via de sentido único, onde a empresa emite uma mensagem que o consumidor recebe. Como a Internet é feita de gente, a publicidade obriga ao relacionamento entre colaboradores da empresa e os seus consumidores (e estes também entre si).
Isso inclui o um novo conceito chamado marketing de performance. Neste novo conceito, você contrata o serviço de marketing e só paga pelos resultados que recebe. Nada de estar na Internet só para não ficar fora dela, agora toda acção online deve ser interessante do ponto de vista do retorno do investimento.
Além disso, as antigas formas de publicidade online deram lugar a campanhas onde você só paga pelos cliques que seu banner recebe, marketing através de links patrocinados em sites de busca, optimização de sites para sites de busca e marketing viral (é uma forma de comunicação que, quando bem sucedida, impacta um elevado número de consumidores. Porém, é uma técnica que prima pela incerteza quanto aos resultados).


Jornalismo
Os impactos da internet nas empresas e práticas jornalísticas foram potencializados com a popularização da web 2.0. O envolvimento de cidadãos comuns, antes considerados meros leitores, na publicação e edição de conteúdos jornalísticos tem se tornado uma prática cada vez mais comum. A esta tendência atribui-se o conceito de Jornalismo Participativo, Jornalismo Cidadão ou mesmo Jornalismo Open-Source.
Um dos sites mais representativos esta tendência é o Digg - site americano que reúne links para notícias, podcasts e videos enviados pelos próprios usuários e avaliados pelos mesmos. Combina social bookmarks, blog e feed. É muito popular de forma que as notícias mais aclamadas pela comunidade chegam a alcançar mais de 1000 votos (diggs). Faz parte da rede de sites pertencentes a Web 2.0.
Suas notícias estão distribuídas em basicamente 6 categorias: Technology, Science, World & Business, Sports, Entertainment e Gaming. Ao permitir a influência directa do público na hierarquização da informação, este mecanismo traz inovações às técnicas tradicionais de edição jornalística, caracterizada pela centralização na figura do editor.

Críticas à Web 2.0
Muitos programadores e especialistas discordam do termo, do conceito e das ideias envolvendo o termo Web 2.0. Nomeadamente alegam que o conceito é demasiado extenso, subjectivo, abrangente e vago [12], não existindo na Web 2.0 nenhuma nova tecnologia, conceitos e/ou ideias. Estes críticos consideram que não existe uma segunda geração de aplicativos web, apenas uma evolução natural, promovida principalmente pelo grande aumento no número de utilizadores de banda larga e da própria Internet[13] - aplicativos web de outrora. Para muitos, o termo Web 2.0 não passa de uma jogada de marketing, uma buzzword[14][15], arquitectada por empresas e profissionais interessados numa nova rodada de negócios e investimentos de alto risco [16], (e resultados questionáveis), tal como os que precederam o chamado rebentamento da bolha.
Entre as críticas aos conceitos da Web 2.0 podem citar-se:


Conteúdo colaborativo e/ou participativo
Os blogs e a própria Wikipedia são frequentemente mencionados como ícones da Web 2.0. Entretanto interfaces colaborativas e participativas sempre existiram desde que a Internet dava seus primeiros passos (no berço das universidades). Listas e fóruns de discussão - até mesmo a Usenet - são exemplos antigos de colaboração e participação. Em 1995 o GeoCities (actualmente pertencente ao Yahoo!) oferecia espaço e ferramentas para que qualquer utilizador relativamente leigo construísse seu website e publicasse suas ideias na Internet[17]. A loja virtual Amazon desde o seu lançamento (em 1995) permite que seus clientes e visitantes postem comentários e informações diversas sobre livros que são vendidos na loja. A Amazon também já sugeria produtos correlacionados (“pessoas que compram este CD também compram…”) como forma de ganhar ainda mais com a operação. Em 1998 o Yahoo! lançava o MyYahoo!, permitindo que a página de entrada do site fosse organizada e personalizada (com notícias, cores e afins) individualmente. Desta forma Conteúdo participativo e/ou colaborativo não seria uma ideia nova e revolucionária, surgida na Web 2.0. Ao contrário, estes seriam um dos pilares mais antigos da Internet, permitindo que virtualmente qualquer indivíduo ou empresa, publique e compartilhe informações na rede.


A Internet como plataforma
Ainda na metade da década de 90 a Sun Microsystems lançou e patenteou o slogan “The Network is the Computer”, demonstrando sua intenção e posicionamento comercial em fazer da Internet “a” plataforma para todo e qualquer sistema computacional existente (o slogan veio reforçar as promessas de interoperabilidade, portabilidade da linguagem multiplataforma Java (linguagem de programação) – “Write once, run everywhere”). Ainda em finais da década de 90, começaram a desenvolver-se padrões de interacção entre aplicativos Internet, para que as então chamadas transacções B2B pudessem ser realizadas de forma padronizada. O termo Webservices e o protocolo SOAP ganharam força e popularizaram-se, sendo padronizados mais tarde pelo do W3C em 2001[18]. Em 2002, Amazon, Google e vários players importantes desenvolveram e publicaram APIs para que desenvolvedores de todo mundo pudessem integrar seus serviços com os destas empresas. Redes P2P surgiram e fizeram sucesso muito antes de se ouvir falar em Web 2.0. Em se tratando de redes P2P, cita-se o popular Napster, ícone desta “revolução” ocorrida em 1998. Exemplos são inúmeros (passando por sistemas de controle pessoal), financeiros (câmbio), previsão do tempo, etc.


Novas Tecnologias
Apesar de o termo AJAX ter sido usado pela primeira vez em 2005, as tecnologias que englobam o termo tiveram início ainda no final da década de 90, nos navegadores de geração “4” (Internet Explorer 4.0 e Netscape Navigator 4.0), que introduziram suporte a técnicas de Remote Scripting. Com o lançamento da versão 5.0 do Internet Explorer em 2000, e com a estagnação do Netscape Navigator (que mais tarde teve seu código fonte aberto gerando o Firefox), a Microsoft inaugurou uma forma mais elegante de remote Scripting com o XMLHttpRequest. Daí até hoje o conceito só evoluiu, ganhando força e notoriedade recentemente. Linguagens e frameworks de desenvolvimento rápido para web (RAD) já existiam antes da Web 2.0. Pode-se citar a linguagem ColdFusion da Allaire (1995) e o Fusebox (1998)[19]. A sindicância de conteúdo (famosa hoje pelo RSS), já chamada no passado de “conteúdo push” já era conhecida de utilizadores do Internet Explorer 4.0 e o seu serviço Active Channels. Agências de notícias como a Reuters já utilizavam sistemas de intercâmbio de conteúdo e notícias entre agências e consumidores de notícias muito antes do surgimento da Web 2.0, sistemas estes que foram inclusive os precursores dos padrões atuais. O próprio XML data de 1997. A portabilidade de sistemas para dispositivos móveis (a tão aclamada "convergência"), é um discurso antigo, que antecede em muito a Web 2.0, e que sempre esteve em constante evolução, cujo passo inicial remonta os primeiros dispositivos móveis, sejam eles celulares ou PDAs.


Mudanças no marketing
Os críticos argumentam que não houve uma mudança significativa no marketing praticado pela Internet. Segundo eles, o dinheiro de acções de marketing continua a ser gerado da mesma maneira: via publicidade. Por exemplo: a maior parte dos lucros do Google provêm de anúncios vinculados às suas buscas e sites que utilizam seus serviços[20]. Conceitos como o de marketing viral são bastante antigos, sendo que seu vínculo com a Internet alvo de um livro (Idea Virus) de Seth Godin ainda em 2001. Empresas de publicidade na Web (ex. DoubleClick) já empregavam o pagamento por retorno antes do advento do termo Web 2.0. O próprio Google AdSense e AdWords não são serviços novos[21][22], derivam de empresas que já actuavam na Internet antes do Google (Applied Semantics - comprada pelo Google em 2003 e Goto/Overture, adquirida pelo Yahoo![23]).
Em consequência disso, até o momento não existe consenso sobre o que exactamente é a Web 2.0[24], e as definições variam de forma a incluir determinadas características/conceitos de acordo com o entendimento de cada especialista. Esta indefinição também se deve ao facto de a Web 2.0 não ser um objecto, um produto, muito menos uma marca, apesar de existir um ou mais pedidos de patente sob o termo, mas sim de um conceito relativamente novo.[carece de fontes?]
Para resolver definitivamente estas questões, alguns especialistas sugerem o uso do termo webware, relacionando estes aplicativos da Internet a verdadeiros softwares online.


Notas


1. Brady Forrest. Controversy about our "Web 2.0" service mark
2. Scott Laningham. developerWorks Interviews: Tim Berners-Lee
3. Jon Brodkin. Web 2.0: Buzzword, or Internet revolution?
4. Em 10 de dezembro de 2006, Tim O'Reilly conceituou o que é web 2.0 nesta postagem no seu blog. Desde então, esta se tornou a melhor e mais aceita definição concisa do termo. Uma definição mais completa e mais antiga se encontra no seu artigo: What Is Web 2.0?.
5. http://www.oreilly.com/catalog/opensources/book/tim.html
6. http://www.oreillynet.com/pub/wlg/1262
7. http://tim.oreilly.com/articles/paradigmshift_0504.html
8. http://w2br.com/2006/12/12/regras-que-definem-a-web-20
9. O Pai da internet repensa a rede.
10. http://www.readwriteweb.com/archives/berners-lee_disses_web20.php
11. http://radar.oreilly.com/archives/2006/12/web_20_compact.html
12. Tim Berners-Lee on Web 2.0: "nobody even knows what it means"
13. Número de utilizadores de banda larga móvel ultrapassa pela primeira vez o da banda larga fixa
14. The enzyme that won
15. A Imoralidade da Web 2.0 (em inglês)
16. Bolha 2.0 (em inglês). The Economist (2005-12-22)
17. História do GeoCities - em inglês
18. http://www.w3.org/TR/wsdl
19. http://en.wikipedia.org/wiki/Fusebox_%28programming%29
20. http://investor.google.com/fin_data.html
21. http://en.wikipedia.org/wiki/Google_AdSense#History
22. http://en.wikipedia.org/wiki/AdWord#History
23. Wikipedia. Yahoo! Search Marketing - Origins of Goto.com.
24. Andrew Orlowski. Web 2.0: It's ... like your brain on LSD!

Fontes: Wikipédia e outras

quarta-feira, 28 de maio de 2008

Inteligência artificial

Uma brincadeira meio a sério....

Um dos lados mais interessantes na discussão sobre inteligência artificial não é tanto o da viabilidade técnica de uma máquina capaz de fazer exactamente o mesmo que o cérebro humano faz, mas, sim, o da questão filosófica:- Afinal, a mente e suas funções mais elevadas, consubstanciadas na inteligência, são privilégios exclusivos do Homem, ou da Natureza?Posto dessa forma, o debate pode parecer meio chauvinista, uma espécie de racismo (?) contra as máquinas: dizer que uma determinada entidade – Máquina - não pode ser inteligente só porque foi construída (e, portanto não nasceu) pode soar mais ou menos como dizer que fulano é meio burro só porque é branco, preto, amarelo ou vermelho. Mas esta questão tem um fundo mais complexo: afinal, se uma máquina puder fazer exactamente o mesmo que a mente, que provas teremos de que a mente é mais do que uma máquina?Neste campo, o argumento contra a inteligência artificial tem uma respeitável base científica: a chamada Objecção Matemática, ou Objecção de Turing. Elaborada por Alan Turing (1912-1954), um dos pais da computação moderna, a objecção é, em resumo, a seguinte: nenhuma máquina é capaz de provar a veracidade da proposição de Gödel. A mente humana pode provar essa veracidade. Logo, a mente não é uma máquina (e, segue-se, nenhuma máquina pode ser uma mente). A proposição de Gödel pode ser formulada numa simples frase. Ela foi usada pelo matemático austríaco Kurt Gödel (1906-1978) na sua famosa demonstração dos anos 30.A Demonstração de Gödel é uma das descobertas científicas mais importantes do século XX - ao lado da Teoria da Relatividade e da Física Quântica - mas é conhecida por um número relativamente pequeno de pessoas. Isto talvez se deva ao facto de ela ter a ver directamente com a lógica e a matemática em estado puro, tema visto como indigesto por muita gente. O que Kurt Gödel demonstrou foi que qualquer sistema lógico, baseado num número finito de princípios básicos e que seja perfeitamente consistente - isto é, incapaz de aceitar ou produzir contradições - contém afirmações que não podem ser provadas, dentro das regras do próprio sistema, como verdadeiras ou falsas.Fazendo uma comparação, é mais ou menos como dizer que em qualquer jogo criado a partir da aplicação perfeitamente lógica de um conjunto fixo de regras, surgirão jogadas que não podem ser julgadas como válidas ou faltosas, de acordo com as próprias regras. No caso do desporto, basta criar novas regras, claro, ou apelar para a interpretação do árbitro. No caso da matemática, isto significa que nenhum sistema lógico se basta a si mesmo, e nem é capaz de compreender-se sozinho a si mesmo: será sempre necessário um sistema maior e mais complexo para dar conta de tudo o que o sistema menor contém (e este sistema maior, para ser entendido integralmente, precisará de um outro, maior ainda; e este último, de um outro; e de outro; e... bom, estão a perceber, não é?). A Demonstração de Gödel deitou por terra várias das aspirações grandiosas dos matemáticos e lógicos do início do século, e se pensarmos bem, levanta uma série de questões sobre, entre outras coisas, os sistemas económicos, políticos, jurídicos, etc. Claro que nenhum destes sistemas é, ou pretende ser, tão lógico e consistente quanto a aritmética, mas a ideia de que nenhum sistema derivado de um conjunto finito de regras se pode justificar a si mesmo de forma lógica, sem cair em contradição, deve pôr dúvidas a qualquer um de nós.Mas, afinal de contas, o que é a Proposição de Gödel, a questão que a mente humana pode aceitar como verdadeira mas as máquinas, não? De uma forma simples ela pode ser formulada como uma pergunta. Imagine-a dirigida a um programa de computador que se supõe inteligente:- É verdade que este programa é incapaz de afirmar que esta frase é verdadeira?Pensemos mais um pouco. Se o sistema for consistente - isto é, incapaz de cair em contradição - ele jamais poderá responder é verdadeira a esta pergunta: ele vai apenas dizer que é verdade que ele não pode dizer que é verdade - um absurdo óbvio. Portanto, é incapaz. Logo, a frase é verdadeira. Isto é, existe uma verdade que o computador inteligente é incapaz de afirmar.Já a mente humana não só é capaz de cair em contradição, como também pode analisar o paradoxo e, até, divertir-se com ele. Mas, será mesmo assim? A Objecção de Turing é antiga, e há tempos que vem sendo bombardeada por uma série de novas possibilidades técnicas - por exemplo, a do computador quântico que, espera-se, será capaz de processar contradições, ou a das redes neurais. Outro ataque à Objecção vai, no entanto, no sentido oposto: o de que a mente humana não é, afinal, muito melhor. Imagine uma brincadeira entre você e um amigo. Seu amigo deve fazer-lhe perguntas que possam ser respondidas simplesmente com - sim ou não - (uma pergunta do tipo: - quantos dedos você tem na mão? não será válida, porque exigirá um número como resposta). As respostas devem ser perfeitamente lógicas. A brincadeira avança por algum tempo, até que seu amigo diz: Você pode responder a esta pergunta com um não? E então? O que você faz?.... Entenda que se trata do mesmo efeito previsto na Demonstração de Gödel: uma pergunta que, embora siga as regras do jogo, não pode ser respondida, de forma lógica, dentro dessas mesmas regras. Então, em que é que a mente humana é melhor que o nosso computador inteligente? Bom, num ponto, pelo menos: noutro nível de linguagem mais sofisticado, fora do jogo, a resposta certa é: sim posso, mas não vou responder, espertinho…. A vantagem da nossa mente parece estar, portanto, na capacidade de ver até aonde a lógica não chega - de pensar fora das regras.Ah, sim!? Então já que o cérebro humano é um sistema constituído por um conjunto finito (?) de regras - físicas, químicas e biológicas - organizadas de forma lógica (enfim, até onde sabemos), será que não existem por aí verdades que estão, por definição, fora de nosso alcance? Nesta circunstância, a linha de separação entre homem máquina fica um tanto quanto borratada….

A Matemática e a Música

A Matemática e a Música
As relações entre a matemática e a música são muito antigas. Já no mundo grego, no séc. VI a.c., os pitagóricos sublinharam o papel desempenhado pelo número e pela proporção na compreensão do universo. Eles consideravam que a música encerra uma aritmética oculta e que a harmonia é a proporção que une os princípios contrários presentes na constituição de qualquer ser. Os pitagóricos distinguiram dois tipos de harmonia, a harmonia sensível, que se faz sentir pelos instrumentos musicais e a harmonia inteligível que consiste na articulação dos números.Neste pequeno e despretensioso trabalho de pesquisa, de carácter simplicista, não pretendemos obviamente abordar todas as dimensões possíveis das relações entre a matemática e a música. Elas são múltiplas e extremamente complexas. Como diz o historiador brasileiro Oliveira: " Se, por um lado, podemos partir da observação dos factos naturais, e tentar mostrar onde está a origem dos sistemas musicais, por outro, podemos também centrar as preocupações teóricas sobre o funcionamento intrínseco da música, procurando estabelecer leis internas, deixando de lado a sua justificação lógica. Enquanto que compositores como Rameau, Zarlino, Hindemith ou mesmo Xenakis, têm sido apologistas convictos do primeiro, do outro lado, nomes como Rousseau, Galilei ou Fétis marcam a sua oposição".E, pergunta ainda, "poderemos nós, Homens do fim do milénio, com todo o conhecimento histórico que possuímos sobre a tradição da música ocidental, argumentar com sucesso a favor de uma arte racional, fundada em factos lógicos ou naturais ou, pelo contrário, essencialmente humana, imperscrutável e imprevisível?"Não é essa certamente a nossa pretensão. Limitamo-nos por isso a apresentar alguns exemplos de como estas duas disciplinas se interligam.Para tal, transcrevemos três reflexões de diferentes épocas sobre esta grande questão:IMESTRE – …..Ao contarmos a série numérica usada (quero dizer 1,2,3,4, e por aí adiante) apercebemo-nos da sua simplicidade facilmente compreensível, mesmo por crianças; mas quando uma coisa é comparada desigualmente com outra, o procedimento recai sob os diversos domínios da desigualdade; assim, na Música, filha da Aritmética (isto é, a ciência dos números), os sons são enumerados por uma simples ordem, mas quando soam em conjunto com outros, contêm não só as variadas espécies de harmonias belas, mas também as maravilhosas razões que as explicam.DISCÍPULO – Como é que a Harmonia nasceu da Aritmética, como se esta fosse sua mãe; e o que é a Harmonia, e o que é a Música?MESTRE – A Harmonia pode ser considerada como uma mistura concordante de sons desiguais. A Música é a teoria da concordância em si mesma. E a ela se junta também a teoria dos números, como acontece nas outras disciplinas da Matemática, e é através dos números que devemos compreender.DISCÍPULO – Quais são as disciplinas da Matemática?MESTRE – Aritmética, Geometria, Música e Astronomia.DISCÍPULO – O que é a Matemática?MESTRE – É a ciência doutrinal.DISCÍPULO – Porquê doutrinal?MESTRE – Porque trata de quantidades abstractas.(...)DISCÍPULO – O que é a Aritmética?MESTRE – A disciplina das quantidades numeráveis.DISCÍPULO – O que é a Música?MESTRE – A disciplina racional da concordância e discrepância nos sons, de acordo com números, e suas relações com as coisas que se encontram nos sons.DISCÍPULO – O que é a Geometria?MESTRE – A disciplina das magnitudes imóveis, e das formas.DISCÍPULO – O que é a Astronomia?MESTRE – A disciplina das magnitudes móveis que contempla os percursos dos corpos celestes, e debruça-se racionalmente sobre as órbitas das estrelas à volta de si mesmas e à volta da Terra.DISCÍPULO – Porque é através da ciência dos números que as outras três disciplinas existem?MESTRE – Porque tudo o que é abarcado por essas disciplinas existe através da razão dos números, e sem números não pode ser compreendida ou transmitida." (Scholia Enchiriadis, séc. X, cit. in Oliveira).II"Geralmente, quando se compõe, começa-se por imaginar um som, por vezes verifica-se e corrige-se ao piano, depois escreve-se: anota-se. Será que existe uma diferença fundamental entre este método de trabalho tradicional e a composição de música de síntese, feita por um computador? Quando estamos diante do monitor do terminal, também imaginamos um som, experimentamo-lo, corrigimo-lo e finalmente armazenamo-lo numa linguagem informática. Neste processo é claro que estamos a traduzir as nossas reacções em números e quantificamos todos os parâmetros com a maior a maior precisão, mas a nossa reacção é, sobretudo, emocional. As palavras e toda a filosofia não são capazes de dar conta toda a precisão e objectividade deste domínio essencial da actividade humana. Por outro lado, é esta obrigação de nos debruçarmos sobre a essência de uma emoção e de a traduzirmos em cálculos precisos que torna o trabalho de composição feito com o auxílio do computador extraordinariamente fascinante. Há um sentimento de estarmos a contemplar um espelho insolentemente fiel, e que constantemente nos coloca questões pertinentes. Modificamos um parâmetro e reagimos emocionalmente ao resultado. Modificamos outro parâmetro e essa mudança produz outra emoção, subtilmente diferente, até talvez desconcertante. Outra modificação... etc., etc., e assim repetimos centenas de vezes este vaivém entre o objectivo e o subjectivo, até se atingir uma espécie de adaptação mútua."Basta-nos debruçar sobre a natureza do Homem, para podermos compreender aquilo que é a música do Homem. Pois o que pode unir o corpo físico com a actividade incorporal da razão, senão uma espécie de adaptação mútua, da mesma forma que os sons graves e os agudos se unem numa consonância única? Que outra operação pode unir as partes da própria alma e realizar aquilo que, para Aristóteles, é a união do racional com o irracional?" (Boécio).Até ao momento presente, nunca foi possível analisar a este ponto as relações desconcertantes e talvez um pouco perturbadoras que ligam a música à matemática. Para o espírito medieval (e talvez nos nossos dias ainda seja pertinente), esta relação era de ordem metafísica; o homem moderno refuta as explicações metafísicas, que considera como sendo muito generalistas. Ao pôr em destaque as configurações exactas da música matemática – que, para ser música deve responder a um sentido estético ou espiritual, considerado até então profundamente irracional – aproximamo-nos de uma melhor compreensão de nós próprios. As aplicações mais correntes da inteligência artificial, não permitem uma tal compreensão do cérebro e do intelecto, embora estes domínios não lhe sejam alheios. O que se experimenta ao trabalhar num programa de síntese, esse sentimento estranho de escrutinar o próprio fundo da consciência, parece-me que a música, mais uma vez, se aproxima da essência do debate filosófico. Para certos pensadores, com Marvin Minsky, a linguagem e a linguistica já não podem fornecer, ao contraio da música, as chaves para a análise do funcionamento intrínseco do pensamento" (Jonathan Harvay, cit. in Oliveira).III"É obvio que em arte, o sentido do que é habitualmente chamada "lógica" tem de ser modificado de alguma forma, mesmo que a mente humana, de uma forma geral, seja capaz de ter uma única forma de pensamento. Numa construção estritamente lógica, no sentido cientifico, as variações de um motivo (ou de um grundgestalt, etc.) teriam de ocorrer de uma maneira sistemática e deveriam conduzir a uma finalidade preestabelecida. No entanto a dificuldade encontra-se na nomeação dessa finalidade, já que não existe (até agora) uma tal finalidade na música, e é impossível conceber uma tal ideia musical que para aí se dirija. No entanto, se deixarmos de tomar em consideração essa finalidade, qualquer desenvolvimento sistemático poderia ser feito de tal maneira que, primeiramente o ritmo e depois os intervalos (ou vice-versa), poderiam ser sujeitos a processos de variação, ou mesmo ambos poderiam ser variados simultaneamente ou alternadamente. É fácil imaginar que o resultado de tal procedimento mecanizado não seria equivalente à forma como a música funciona: ou seja obter-se-iam inumeráveis repetições supérfluas (embora variadas) de gestalten, que seriam, na sua maior parte, desinteressantes e sem expressão. E ainda poderemos acrescentar que a ciência não se iria preocupar com a produção de cada um destes gestalten, mas conter-se ia em delinear os princípios que lhe dão origem." ( Arnold Schoenberg, cit. in Oliveira)