Uma britânica encontrou seu filho depois de 27 anos graças a um perfil dele no site de relacionamento social Facebook. Avril Grube, 62, vive em Poole, Dorset.
A Microsoft dispõe de um software gratuito e de facil manuseio para ediçao de imagens.
Para quem procura ferramentas simples de edição, o Picnik (www.picnik.com), em português, também pode ser uma boa alternativa.
O Dumpr (www.dumpr.net) coloca fotos em quadros de galeria de arte ou pode ainda transformá-las em mosaicos. Se a ideia for enfeitar as fotos com animações ou desenhos decorativos, o FotoFlexer (fotoflexer.com) pode ser uma boa pedida.
Os internautas têm passado mais tempo em sites de relacionamento e blogs, de acordo com as últimas projeções divulgadas nesta quarta-feira (3) pela empresa Nielsen, que mensura as estatísticas de tráfego na internet.
"Essa juventude tem que parar de ficar só pendurada na internet. Tem que voltar a assistir TV e ouvir rádio." Posta à prova, a declaração feita pelo ministro Hélio Costa (Comunicação) foi reprovada pelos internautas.
"Web 2.0" é considerada a milionésima palavra inglesa, mas linguistas contestam
Postado por Unknown às 00:45Centros de Estudos Avançados do Recife (C.E.S.A.R) e a agência AlmapBBDO, o Greenpeace lançou nas últimas semanas uma campanha para que todos os usuários de computadores possam contribuir com a redução da emissão de gases do efeito estufa.
O projeto se baseia em um software chamado Black Pixel, que pode ser usado por qualquer máquina. O Black Pixel instala um quadrado preto no canto superior esquerdo da tela (monitores de tubo e de plasma) que é sem iluminação e representa menor consumo de energia e emissão de gás carbônico (CO2). O programa pode ser desligado sempre que o usuário precisar.
O Greenpeace afirma que o objetivo é chegar a 1 milhão de Black Pixels instalados, o que equivaleria à economia de 57 mil watts/hora ou manter apagadas 1.425 lâmpadas de 40 watts por uma hora. Para comparação, uma usina de carvão, para produzir a mesma quantidade de energia, emitiria 70 quilos de gás carbônico, aponta a organização.
download do Black Pixel está disponível no site do Greenpeace, que também postou um vídeo explicativo da campanha no YouTube.
http://www.greenpeaceblackpixel.org
De acordo com os profisisonais da Microsoft, o objetivo do Bing não é somente oferecer resultados, mas ajudar as pessoas a tomar decisões inteligentes, como:
- Decisões de compra;
- Planejamento de viagens;
- Pesquisas relacionadas à saúde;
Enquanto o lançamento oficial não acontece, os usuários podem começar a brincar com a versão beta, que plana no ar desde a semana passada.
Você sabia que para seu blog ou site aparecer nos buscadores você deve cadastra-lo?
Para garantir visitas ao seu site, você precisa o cadastrar nos motores de busca, crawlers, mais importantes da web. Os crawlers fazem o trabalho de procurar novos links por todos os sites já cadastrados. Se houver um link para o seu site em um site já conhecido, naturalmente os robôs farão a indexação do seu site e, automaticamente, sem maiores esforços ou preocupações ele vai fazer parte das pesquisas. Após isso, as outras páginas irão aparecer lentamente nas páginas dos resultados de busca desde que devidamente e corretamente linkadas em sua própria home page.
Você pode agilizar este processo, cadastrando manualmente seu site nos buscadores. Eles possuem a página com o serviço de submissão grátis, mas não há garantias de que o site cadastrado irá aparecer no índice, pois há uma equipe avaliadora que não permitirá que alguns tipos de site que possam prejudicar a imagem da empresa, sites sem conteúdo ou até mesmo caso ele esteja fora do ar no momento em que seria acessado pelo bot, mecanismo de verificação e indexação dos sites, sejam indexados. Os bots de cada buscador seguem suas próprias regras na hora de indexar um site, muitas delas são semelhantes, mas cada um trabalha para tentar se diferenciar e trazer melhores resultados do que a concorrência.
O Google desenvolveu uma tecnologia que se chama Google Page Rank, que faz com que os resultados que aparecem primeiro nas buscas sejam devidos à popularidade dos links, ou seja, a quantidade de indicações que um site tem em outros sites são contadas como votos de confiança e traz a segurança de que seu conteúdo é atrativo e que o site é reconhecido pelos usuários. Atualmente, os outros serviços de busca têm tecnologia semelhante. Todos têm como objetivo ter mais páginas indexadas nos seus índices e oferecer o melhor resultado no topo, tanto que o Google oferece um botão de “I’m Feeling Lucky” ou “Estou com sorte” onde você será direcionado ao primeiro resultado, provavelmente muito coerente com os termos digitados na busca, mas com alto Page Rank.
Vou listar os serviços da Google que eu mais uso:
Google Chrome - Browser;
Google Reader - Leitor de Feeds;
Gmail - Webmail;
Google Search - Buscador;
Google Earth - Software para ver imagens de satélite;
Google Adwords - Para anunciar meus blogs;
Google AdSense - Para ganhar com os acessos dos blogs;
Google Agenda - para me organizar;
Google Analytics - Análises dos meus Blogs
Google Maps - Principalmente quando estou em São Paulo;
Youtube - Para quem não sabe é da Google;
Orkut - Também é da Google;
e por ai vai.
Bem, só ai foram 12 produtos... faça um exercício conte os que voce usa também e comente aqui..
Link de serviços da Google:
http://www.google.com.br/intl/pt-BR/options/
Dica experimente "dar uma limpada" no seu PC com o Google Pack (olha ai mais um que esqueci)é um conjunto de utilidades que ajuda a melhorar o desenpenho do seu PC tirando Spywares por ex...
http://pack.google.com/intl/pt-br/pack_installer.html?hl=pt-br&brand=GPMD&utm_source=pt_br_BR-et-more&utm_medium=et&utm_campaign=pt_br_BR
Olha ae pessoal mais um aplicativo para internet de terceira geração ou de internet 3.0...
Se você segue 10 mil pessoas no Twitter você está enganando 10 mil pessoas
Postado por Unknown às 01:10O Twitter é uma rede social diferente. É uma rede assimétrica. No Orkut, Facebook, Linkedin, etc. as duas pontas do relacionamento precisam confirmar a conexão para que ela exista. Se eu sou seu amigo no Orkut você é, automaticamente meu amigo. A abordagem no Twitter é mais parecida com a de um blog: eu posso ler seu blog e você nem saber que eu existo. Mas ao contrário do blog essa relação é mais explícita: eu apareço na sua lista de “seguidores”. (tem gente que odeia a expressão seguidores, dizendo que quem tem seguidor é Jesus mas, ei, é essa a palavra usada pelo Twitter: followers)
Para mim esse é o ponto mais forte do Twitter e o motivo de eu passar mais tempo nele do que em outras redes sociais (e eu nem considero o Twitter uma rede social, para mim ele está mais próximo de um mensageiro instantâneo do que do Orkut). No Twitter eu consigo controlar muito mais a razão ruído-sinal das conversas. Eu sigo e deixo de seguir as pessoas durante o mês de acordo com o volume e qualidade do papo. E, ainda assim, consigo interagir com quem me lê mas eu não leio de volta, já que o Twitter oferece ferramentas (da tela de respostas ao search.twitter.com) para que eu veja quem se comunica comigo.
Daí aparecem os tais especialistas em redes sociais defendendo que você deve seguir de volta todo mundo que segue você. Que é de bom tom, é delicado, é uma gentileza. Guy Kawasaki é o maior defensor dessa abordagem e esse blog chega a dizer que se eu não sigo o cara de volta eu, automaticamente, deixei de ser interessante já que estaria demonstrando que não quero conversar com ele. Essa visão não poderia estar mais errada.
Como bem disse o Danilo “Eu não acredito em ninguem que segue mais de 1.000 pessoas“. Se você segue mais de 1000 pessoas você não está se relacionando com nenhuma delas, você só está recebendo ruído. Ou nem isso, porque se você segue mais de mil pessoas você provavelmente nem abre seu Twitter já que o volume de mensagens é simplesmente impossível de consumir. Só há uma justificativa para seguir todo mundo de volta: se você é uma empresa e quer dar aos seus “consumidores” a possibilidade de mandar mensagens diretas. (e ainda não tenho opinião formada sobre como uma empresa deve abordar o Twitter)
Imagine o cenário dos blogs: “Ei, eu leio seu blog você precisa assinar o RSS do meu blog de volta.” Soa bem imbecil, não? Assimetria: essa palavra resume a beleza do Twitter.
O antropólogo Robin Dunbar defende que só conseguimos manter relações sociais estáveis com, aproximadamente, 150 pessoas. Descontando o número de amigos que quase nunca atualizam seus twitters, quando você acompanha muito mais do que isso as pessoas começam a virar borrões, você não lembra mais a história por detrás daquela carinha, quem é aquela pessoa e o que ela significa. Se você segue mais de 1000 pessoas no Twitter você não está ali para socializar, está ali para aparecer.
Você pode pensar “puxa, que legal, o cara me seguiu de volta, ele está interessado no que eu tenho a dizer” mas é claro que não. Ninguém consegue acompanhar o que 10 mil pessoas estão twittando. Você está sendo tão ignorado quanto é por aquele cara que simplesmente não apertou o follow na sua tela você só acha que tem mais atenção.
Há empresas de Internet recebendo centenas de milhões de reais em investimentos. Todos os dias, os jornais nos informam sobre os mais diversos sites que pipocam na Rede. Muitos desses novos sites são iniciativas de alto nível, que exigem bastante dinheiro e trabalho. Com a chegada do capital de risco, a movimentação das grande empresas tradicionais em direção à Internet e as compras milionárias de empresas.com.br, dinheiro normalmente não é problema. Mas, e o trabalho?
A mão-de-obra qualificada para o desenvolvimento de sites é escassa. O número de profissionais capacitados não acompanha a oferta de empregos. Como a criação de um site exige uma equipe de profissionais experientes, eles se tornam cada vez mais disputados pelas empresas. Assim, a corrida do ouro da Internet brasileira, ao mesmo tempo em que pressiona os salários dessa nova categoria, é refreada pela capacidade de produção dos webdesigners, programadores Web e administradores Internet disponíveis no mercado.
A valorização dos programadores
Na prática, se você é um bom programador ASP, uma das linguagens que despontam no desenvolvimento de websites, você tem emprego garantido. Se é um programador sênior, pode candidatar-se a salários surpreendentes para a realidade brasileira.
Nunca o mercado nacional valorizou tanto os programadores. Afinal, nunca tivemos muito desenvolvimento de software no país. Com a Internet, tudo começa a mudar: os novos sites precisam de programas complexos, feitos sob medida. Mas esqueça o Cobol. O que vale neste mercado é saber programar em ASP, ColdFusion, PERL, Java e outras linguagens da Internet.
O papel do Gerente de Internet
Nem tudo na Internet é programação. Os novos sites também estão ávidos por bons webdesigners e administradores de redes, assim como jornalistas e marketeiros com experiência online. Nos EUA, onde o fenômeno da valorização dos profissionais Internet já começou há algum tempo, um administrador de redes com menos de um ano de experiência já recebe cerca de US$ 3.500,00 por mês (The SANS Institute, 1999). Entretanto, dentre as várias profissões importantes para o desenvolvimento da Internet no Brasil, há uma que começa a despontar na Nova Economia: o gerente de Internet.
O gerente de Internet é o profissional que tem a visão de como extrair o máximo da Internet em benefício de sua empresa. Ele sabe colocar a mão na massa, fazer páginas e, principalmente, tem conhecimentos de Internet Marketing, comércio eletrônico e gerência de equipes, além de estar sempre antenado com o mercado. É um profissional raro, disputado especialmente pelas grandes empresas, que precisam desesperadamente se encaixarem na Nova Economia.
Começamos a observar no Brasil, por mais estranho que nos pareça, um mercado de salários altos e desemprego quase zero. Felizmente, a Internet está começando a importar uma realidade norte-americana - pelo menos para o restrito universo dos profissionais de Tecnologia da Informação.
Web 2.0 é um termo cunhado em 2004 pela empresa estadunidense O'Reilly Media[1] para designar uma segunda geração de comunidades e serviços baseados na plataforma Web, como wikis, aplicações baseadas em folksonomia e redes sociais. Embora o termo tenha uma conotação de uma nova versão para a Web, ele não se refere à atualização nas suas especificações técnicas, mas a uma mudança na forma como ela é encarada por usuários e desenvolvedores.
Alguns especialistas em tecnologia, como Tim Berners-Lee, o inventor da World Wide Web, alegam que o termo carece de sentido pois a Web 2.0 utiliza muitos componentes tecnológicos criados antes mesmo do surgimento da Web[2]. Alguns críticos do termo afirmam também que este é apenas uma jogada de marketing (buzzword).[3]
WEB 2.0 (ou web dois ponto zero) - Breve histórico
O termo Web 2.0 foi usado pela primeira vez em Outubro de 2004 pela O'Reilly Media e pela MediaLive International como nome de uma série de conferências sobre o tema, popularizando-se rapidamente a partir de então. Tratou-se de uma constatação de que as empresas que conseguiram se manter através da crise da Internet possuíam características comuns entre si, o que criou uma série de conceitos agrupados que formam o que chamamos Web 2.0.
WEB 2.0 - Conceitualização
A conceitualização dada neste artigo segue os princípios ditados por Tim O'Reilly, sabidamente o precursor do uso do termo em seu artigo de conceitualização (e também de defesa) do termo Web 2.0. Tim [4] define que:
"Web 2.0 é a mudança para uma internet como plataforma, e um entendimento das regras para obter sucesso nesta nova plataforma. Entre outras, a regra mais importante é desenvolver aplicativos que aproveitem os efeitos de rede para se tornarem melhores quanto mais são usados pelas pessoas, aproveitando a inteligência coletiva"
— Tim O'Reilly
As regras a que se refere O'Reilly já foram discutidas antes do surgimento do termo, sob outros nomes como infoware[5], the internet operating system[6] e the open source paradigm shift[7] e são produto de um consenso entre empresas como Google, Amazon, Yahoo e Microsoft e estudiosos da Web (como Tim O'Reilly[8], Vinton Cerf[9] e Tim Berners-Lee [10]) e da consolidação do que realmente traz resultado na Internet. Segundo Tim O'Reilly, a regra mais importante seria desenvolver aplicativos que aproveitem os efeitos da rede para se tornarem melhores quanto mais são usados pelas pessoas, aproveitando a inteligência coletiva.
Regras
O'Reilly sugere algumas regras[11] que ajudam a definir sucintamente a Web 2.0:
O beta perpétuo - não trate o software como um artefato, mas como um processo de comprometimento com seus usuários.
Pequenas peças frouxamente unidas - abra seus dados e serviços para que sejam reutilizados por outros. Reutilize dados e serviços de outros sempre que possível.
Software acima do nível de um único dispositivo - não pense em aplicativos que estão no cliente ou servidor, mas desenvolva aplicativos que estão no espaço entre eles.
Lei da Conservação de Lucros, de Clayton Christensen - lembre-se de que em um ambiente de rede, APIs abertas e protocolos padrões vencem, mas isso não significa que a idéia de vantagem competitiva vá embora.
Dados são o novo “Intel inside” - a mais importante entre as futuras fontes de fechamento e vantagem competitiva serão os dados, seja através do aumento do retorno sobre dados gerados pelo usuário, sendo dono de um nome ou através de formatos de arquivo proprietários.
Web 2.0 e a programação
Começaram-se a desenvolver softwares que são usados pela Internet e vendidos não em pacotes mas como serviços, pagos mensalmente como uma conta de água. Além disso, mudou-se a forma de fazer softwares. Para que tudo funcionasse bem na Internet, foi necessário a união de várias tecnologias (como AJAX) que tornassem a experiência do usuário mais rica, com interfaces rápidas e muito fáceis de usar.
Definiu-se então que quanto mais simples e modular a programação, melhor. Assim é fácil tirar ou acrescentar uma funcionalidade ou compartilhar uma parte do seu software com outro software. Os módulos podem ser reutilizados em diversos softwares ou compartilhados para serem usados por programas de terceiros. Metodologias e conceitos como o Getting Real e Agile tem-se popularizado entre as empresas que desenvolvem aplicativos ditos "Web 2.0".
Segundo estes princípios, os softwares são desenvolvidos de modo que fiquem melhores quanto mais são usados, pois os usuários podem ajudar a torná-lo melhor. Por exemplo, quando um usuário avalia uma notícia, ele ajuda o software a saber qual notícia é a melhor. Da mesma maneira, quando um usuário organiza uma informação através de marcações, ele ajuda o software a entregar informações cada vez mais organizadas.
Interfaces com o utilizador
A Web 2.0 propõe uma experiência de uso semelhante à de aplicativos para desktop, frequentemente fazendo uso de uma combinação de tecnologias surgidas no final da década de 1990, que incluem Web services APIs (1998), AJAX (1998), Web syndication (1997), entre outras. Estas tecnologias aumentaram a velocidade e a facilidade de uso de aplicativos Web, sendo responsáveis por um aumento significativo no conteúdo (colaborativo ou meramente expositivo) existente na Internet. Estas também permitiram que usuários comuns, que até então não possuíam conhecimentos necessários para publicar conteúdo na Internet - pela ausência de ferramentas de uso simplificado - publicassem e consumissem informação de forma rápida e constante. Notadamente têm-se os blogs e wikis como expoentes desta massificação. Permitiu ainda o desenvolvimento de interfaces ricas, completas e funcionais, sendo que alguns aplicativos Web, ainda em versão beta, são considerados por muitos como "desktops on-line", proporcionando ao usuário um ambiente de trabalho inteiramente baseado na WWW, acessível de qualquer computador com conexão à Internet.
De forma particular, o AJAX permite ao usuário não esperar que uma página Web se recarregue ou que o processo seja terminado para continuar usando o software. Cada informação é processada separadamente, de forma assíncrona, de forma que não é mais necessário recarregar a página a cada clique.
A Web é a plataforma, o software um serviço
Na Web 2.0 os softwares funcionam pela Internet, não somente instalados no computador local, de forma que vários programas podem se integrar formando uma grande plataforma. Por exemplo, os seus contatos do programa de e-mail podem ser usados no programa de agenda, ou pode-se criar um novo evento numa agenda através do programa de e-mail. Os programas funcionam como serviços em vez de vendê-los em pacotes. Estes serviços podem ser cobrados com uma mensalidade, como a sua conta de água.
Outro conceito da web 2.0 que interfere na programação chama-se "Beta perpétuo". Na web 2.0 acabaram-se os ciclos de lançamento de programas. Os programas são corrigidos, alterados e melhorados o tempo todo, e o usuário participa deste processo dando sugestões, reportando erros e aproveitando as melhorias constantes. Em oposição ao que acontece com softwares tradicionais, em caixas, com instaladores e dependentes de um sistema operacional, aplicativos Web podem ser atualizados de forma constante, linear e independente da ação do usuário final. No caso de atualizações de segurança e desempenho, por exemplo, o usuário da aplicação seria imediatamente beneficiado sem mesmo tomar conhecimento.
Na web 2.0 os programas são abertos, ou seja, uma parte do programa pode ser utilizado por qualquer pessoa para se fazer outro programa. São utilizadas APIs para deixar que outros sites utilizem partes dos seus dados nos serviços deles. Em vez de grandes servidores provendo uma enorme quantidade de arquivos, na web 2.0 (web dois ponto zero) descobriu-se as redes P2P, na qual cada usuário é um servidor de arquivos e os arquivos são trocados diretamente entre eles.
Web 2.0 (web dois ponto zero) e o conteúdo
O conteúdo dos websites também sofreu um enorme impacto com a Web 2.0, dando ao usuário a possibilidade de participar, geralmente gerando e organizando as informações. Mesmo quando o conteúdo não é gerado pelos usuários, este pode ser enriquecido através de comentários, avaliação, ou personalização.
Algumas aplicações Web 2.0 (web dois ponto zero) permitem a personalização do conteúdo mostrado para cada usuário, sob forma de página pessoal, permitindo a ele a filtragem de informação que ele considera relevante.
O conceito usado é comparável com o do software livre: se há muitas pessoas olhando, todos os erros são corrigidos facilmente. Para isso existem comunidades que se auto-moderam, através da participação dos usuários indicando ao sistema qual usuário não deve mais participar da comunidade.
Dentro dos princípios da Web 2.0 o conteúdo deve ser aberto, utilizando licenças como "Creative Commons" que flexibilizam os direitos autorais permitindo que o usuário reutilize (republicando, alterando ou colaborando) o conteúdo. O compartilhamento de informações deve dar ao usuário a possibilidade de reutilizá-lo.
Além do conteúdo editorial e noticioso, na web 2.0 o conteúdo de alguns sites visa gerar comunidades, seja através de sites de relacionamento, seja através de comentários em notícias e blogues.
Tag's, não taxonomia: o usuário organiza o próprio conteúdo
A organização do conteúdo é feita também pelo próprio usuário sob forma de marcações, em contraste de uma taxonomia do sistema. Por exemplo, o aplicativo del.icio.us para guardar e compartilhar links favoritos criou o conceito de marcação de conteúdo. Em vez de criar pastas e categorias pré-definidas para o usuário escolher, cada usuário pode definir uma palavra-chave para um determinado conteúdo, assim, quanto mais usuários marcarem o conteúdo, melhor organizado ele será.
Consumer-Generated Media (CGM)
Consumer-Generated Media (CGM) ou mídia gerada pelo consumidor é um termo utilizado para descrever o conteúdo que é criado e divulgado pelo próprio consumidor. Com o surgimento da Internet e o avanço das tecnologias digitais, da mesma maneira que o acesso dos consumidores à informação teve um aumento significativo, aumentou também a facilidade dos consumidores em expressar suas opiniões.
Na Internet o CGM está presente em comentários, fóruns, lista de discussões, blogs e fotologs, comunidades, grupos, sites participativos, no YouTube, na própria Wikipedia. Os consumidores utilizam todas as ferramentas disponíveis (Messenger, sites, blogs, e-mails, mensagens, celulares, etc.) para divulgar, sobretudo, suas experiências pessoais e opiniões em relação a produtos, serviços, marcas, empresas, notícias.
Assim como acontecia com o boca-a-boca, o CGM tende a ter um maior poder de influência sobre outros consumidores do que as mídias tradicionais (TV, rádio, jornais impressos), pois tendem a passar mais credibilidade. A diferença é que, com a tecnologia disponível, o impacto do CGM é muito maior que o “boca-a-boca”.
Algumas empresas já estão incentivando a prática do CGM junto aos seus consumidores. Outras estão contratando empresas especializadas para pesquisar o que os consumidores estão comentando sobre a sua marca, produto ou serviço.
Novas formas de lucrar
Surgem novas formas de ganhar dinheiro com a internet. Uma delas se chama LongTail. Uma loja virtual pode ter um catalogo muito grande, cheio de itens que vendem pouco e não valem à pena para lojas comuns que têm um custo de manutenção alto para manter o produto na prateleira. Mas justamente por serem difíceis de se encontrar em lojas comuns que estes itens são os mais preciosos para quem gosta deles.
Por isso, o modelo de vendas na web 2.0 deve ter um sistema para fazer as pessoas descobrirem estes itens únicos do catálogo - por exemplo: “pessoas que compram este CD também compram…”. A venda de muitos itens que individualmente vendem pouco traz muito mais retorno financeiro que as vendas de produtos que individualmente vendem muito.
Outra forma de monetização da nova internet são os softwares como serviços. São programas que funcionam através da internet e são pagos mensalmente. Além destas duas, há outras como a venda do conteúdo de um site que foi gerado pelos usuários, a venda de informações usadas para fazer um programa (ex. as fotos aéreas que são usadas no Google Maps) e venda de espaço para publicidade onde se paga somente quando o usuário clica no anúncio.
Marketing e publicidade
O marketing e a publicidade online também mudaram muito com a web 2.0. Agora a empresa já não pode comunicar, ela deve aprender a interagir. A publicidade deixou de ser uma via de mão única, onde a empresa emite uma mensagem que o consumidor recebe. Como a Internet é feita de gente, a publicidade se tornou o relacionamento entre pessoas da empresa e pessoas que são consumidores.
Isso inclui o um novo conceito chamado marketing de performance. Neste novo conceito, você contrata o serviço de marketing e só paga pelos resultados que recebe. Nada de estar na Internet só para não ficar fora dela, agora toda ação online deve ser interessante do ponto de vista do retorno sobre o investimento.
Além disso, as antigas formas de publicidade online deram lugar a campanhas onde você só paga pelos cliques que seu banner recebe, marketing através de links patrocinados em sites de busca, otimização de sites para sites de busca e marketing viral.
Essas ações tornaram a exeperiência com as marcas muito mais interessantes, levando um número cada vez maior de empresas a apostar em ações de marketing com esse conceito.
A web 2.0 foi responsável também pelo surgimento de ações cross-media que unem a internet com outras mídias. São ações que começam eu um anúncio de jornal ou em um comercial na televisão e continuam na internet com a participação dos usuários.
Jornalismo
Os impactos da internet nas empresas e práticas jornalísticas foram potencializados com a popularização da web 2.0 (web dois ponto zero). O envolvimento de cidadãos comuns, antes considerados meros leitores, na publicação e edição de conteúdos jornalísticos tem se tornado uma prática cada vez mais comum. A esta tendência atribui-se o conceito de Jornalismo Participativo, Jornalismo Cidadão ou mesmo Jornalismo Open-Source.
Um dos sites mais representativos esta tendência é o Digg, que permite que usuários cadastrem artigos publicados em outros sites. Estes textos recebem votos (diggs) da comunidade e os mais populares ganham destaque na página principal do site. Ao permitir a influência direta do público na hierarquização da informação, este mecanismo traz inovações às técnicas tradicionais de edição jornalística, caracterizada pela centralização na figura do editor. Alguns sites brasileiros, como o Rec6 e Eu Curti têm propostas bem semelhantes ao Digg.
Crítica
Muitos desenvolvedores e especialistas discordam do termo, do conceito e das idéias envolvendo o termo Web 2.0 (web dois ponto zero). Notadamente alegam que o conceito é demasiado extenso, subjetivo, abrangente e vago [12], não existindo na Web 2.0 nenhuma nova tecnologia, conceitos e/ou idéias. Estes críticos consideram que não existe uma segunda geração de aplicativos web, apenas uma evolução natural, promovida principalmente pelo grande aumento no número de usuários de banda larga e da própria Internet[13] - de aplicativos web de outrora. Para muitos, o termo Web 2.0 não passa de uma jogada de marketing, uma buzzword[14][15], arquitetada por empresas e profissionais interessados numa nova rodada de negócios e investimentos de alto risco [16], (e resultados questionáveis), tal como os que precederam o chamado estouro da bolha.
Entre as críticas aos conceitos da Web 2.0 pode-se citar:
Conteúdo colaborativo e/ou participativo
Os blogs e a própria Wikipedia são frequentemente mencionados como ícones da Web 2.0. Entretanto interfaces colaborativas e participativas sempre existiram desde que a Internet dava seus primeiros passos (no berço das universidades). Listas e fóruns de discussão - até mesmo a Usenet - são exemplos antigos de colaboração e participação. Em 1995 o GeoCities (atualmente pertencente ao Yahoo!) oferecia espaço e ferramentas para que qualquer usuário relativamente leigo construísse seu website e publicasse suas idéias na Internet[17]. A loja virtual Amazon desde o seu lançamento (em 1995) permite que seus clientes e visitantes postem comentários e informações diversas sobre livros que são vendidos na loja. A Amazon também já sugeria produtos correlatos (“pessoas que compram este CD também compram…”) como forma de monetizar ainda mais a operação. Em 1998 o Yahoo! lançava o MyYahoo!, permitindo que a página de entrada do site fosse customizada e personalizada (com notícias, cores e afins) individualmente. Desta forma Conteúdo participativo e/ou colaborativo não seria uma idéia nova e revolucionária, surgida na Web 2.0. Ao contrário, estes seriam um dos pilares mais antigos da Internet, permitindo que virtualmente qualquer indivíduo ou empresa, publique e compartilhe informações na rede.
A Internet como plataforma
Ainda na metade da década de 90 a Sun Microsystems lançou e patenteou o slogan “The Network is the Computer”, demonstrando sua intenção e posicionamento comercial em fazer da Internet “a” plataforma para todo e qualquer sistema computacional existente (o slogan veio reforçar as promessas de interoperabilidade, portabilidade da linguagem multiplataforma Java (linguagem de programação) – “Write once, run everywhere”). Ainda em finais da década de 90, começou-se a desenvolver padrões de interação entre aplicativos Internet, para que as então chamadas transações B2B pudessem ser realizadas de forma padronizada. O termo Webservices e o protocolo SOAP ganharam força e popularizaram-se, sendo padronizados mais tarde pelo do W3C em 2001[18]. Em 2002, Amazon, Google e vários players importantes desenvolveram e publicaram APIs para que desenvolvedores de todo mundo pudessem integrar seus serviços com os destas empresas. Redes P2P surgiram e fizeram sucesso muito antes de se ouvir falar em Web 2.0. Em se tratando de redes P2P, cita-se o popular Napster, ícone desta “revolução” ocorrida em 1998. Exemplos são inúmeros (passando por sistemas de controle pessoal – ex. site Elefante.com.br), financeiros (câmbio), previsão do tempo, etc.
Tecnologias novas
Apesar de o termo AJAX ter sido usado pela primeira vez em 2005, as tecnologias que englobam o termo tiveram início ainda no final da década de 90, nos navegadores de geração “4” (Internet Explorer 4.0 e Netscape Navigator 4.0), que introduziram suporte a técnicas de Remote Scripting. Com o lançamento da versão 5.0 do Internet Explorer em 2000, e com a estagnação do Netscape Navigator (que mais tarde teve seu código fonte aberto gerando o Firefox), a Microsoft inaugurou uma forma mais elegante de remote Scripting com o XMLHttpRequest. Daí até os dias atuais o conceito só evoluiu, ganhando força e notoriedade recentemente. Linguagens e frameworks de desenvolvimento rápido para web (RAD) já existiam antes da Web 2.0 (web dois ponto zero). Pode-se citar a linguagem ColdFusion da Allaire (1995) e o Fusebox (1998)[19]. A sindicância de conteúdo (famosa hoje pelo RSS), já chamada no passado de “conteúdo push” já era conhecida de usuários do Internet Explorer 4.0 e o seu serviço ActiveChannels. Agências de notícias como a Reuters já utilizavam sistemas de intercâmbio de conteúdo e notícias entre agências e consumidores de notícias muito antes do surgimento da Web 2.0, sistemas estes que inclusive foram os precursores dos padrões atuais. O próprio XML data de 1997. A portabilidade de sistemas para dispositivos móveis (a tão aclamada "convergência"), é um discurso antigo, que antecede em muito a Web 2.0, e que sempre esteve em constante evolução, cujo passo inicial remonta os primeiros dispositivos móveis, sejam eles celulares ou PDAs.
Mudanças em marketing
Os críticos argumentam que não houve uma mudança significativa no marketing praticado pela Internet. Segundo eles, o dinheiro de ações de marketing continua sendo gerado da mesma maneira: via publicidade. Como exemplo: a maior parte dos lucros do Google vêm de anúncios vinculados às suas buscas e sites que utilizam seus serviços[20]. Conceitos como o de marketing viral são bastante antigos, sendo que seu vínculo com a Internet alvo de um livro (Idea Virus) de Seth Godin ainda em 2001. Empresas de publicidade na Web (ex. DoubleClick) já empregavam o pagamento por retorno antes do advento do termo Web 2.0. O próprio Google AdSense e AdWords não são serviços novos[21][22], derivam de empresas que já atuavam na Internet antes do Google (Applied Semantics - comprada pelo Google em 2003 e Goto/Overture, adquirida pelo Yahoo![23]).
Em decorrência disso, até o momento não existe consenso sobre o que exatamente é a Web 2.0[24], e as definições variam de forma a incluir determinadas características/conceitos de acordo com o entendimento de cada especialista. Esta indefinição também se deve ao fato de a Web 2.0 não ser um objeto, um produto, tampouco de uma marca, apesar de existir um ou mais pedidos de patente sob o termo, mas sim de um conceito relativamente novo.[carece de fontes?]
Para resolver definitivamente estas questões, alguns especialistas sugerem o uso do termo webware, relacionando estes aplicativos da Internet a verdadeiros softwares online.
www.internetdoispontozero.com.br
Total de amostras: 11948
pessoal: 97.48 %
empresa: 2.52 %
Masculino: 55.81 %
Feminino: 42.33 %
empresa: 1.86 %
Faixa etária
19 - 24: 43.74 %
25 - 30: 24.96 %
15 - 18: 13.9 %
31 - 35: 7.78 %
36 - 40: 3.28 %
menos de 15: 1.86 %
41 - 45: 1.63 %
46 - 55: 1.33 %
não aplica (empresa, etc.): 1.23 %
mais de 55: 0.29 %
SP: 38.31 %
RJ: 11.87 %
MG: 8.78 %
PR: 6.75 %
RS: 6.32 %
SC: 5.07 %
DF: 3.57 %
BA: 3.08 %
PE: 2.08 %
CE: 1.89 %
GO: 1.73 %
ES: 1.71 %
PB: 1.53 %
RN: 1.21 %
PA: 1.11 %
MS: 1.08 %
MA: 0.63 %
SE: 0.6 %
MT: 0.59 %
AM: 0.59 %
AL: 0.43 %
PI: 0.43 %
TO: 0.28 %
AC: 0.14 %
RO: 0.13 %
AP: 0.04 %
RR: 0.03 %
Somente em casa: 37.86 %
Somente no trabalho: 3.61 %
Somente em dispositivos móveis: 0.72 %
Casa e Trabalho: 31.65 %
Casa e Móvel: 8.13 %
Trabalho e Móvel: 0.45 %
Casa, Trabalho e Móvel: 17.17 %
Não responderam: 0.41 %
Somente via navegador: 66.73 %
Somente via celular: 2.38 %
Somente via aplicações: 1.11 %
Navegador e Celular: 16.78 %
Navegador e Apps: 2.23 %
Celular e aplicações: 0.34 %
Navegador, celular e plicações: 1.73 %
Não responderam: 8.69 %
Se você não tem muitos seguidores ou está seguindo poucas pessoas, uma boa dica é adicionar pessoas usando um script (ferramenta que automatiza), quanto mais pessoas você adicionar mais pessoas te seguirão.
Segundo uma declaração recente da Marissa Mayer, vice-presidente de Pesquisa de Produtos e Desempenho dos Usuários no Google (ou resumindo, a nossa geek preferida), isso acontece simplesmente por causa do fuso-horário. Tudo porque os brasileiros e indianos acessam a internet massivamente em um horário diferente aos dos países mais desenvolvidos, o que fez com que o Orkut oferecesse uma experiência mais satisfatória aos usuários daqui que de países onde o tráfego é concentrado em outros períodos. Resumindo: a gente acessa o Orkut na “madrugada” deles. Eu discordo. Já falei e volto a repetir: o Orkut faz sucesso no Brasil porque é simples! Compare com o Facebook e em cinco minutos você irá concordar comigo. Apesar de o Facebook ter muito mais funcionalidades (muitas delas depois copiadas pelo Orkut), o layout não é tão intuitivo e fácil de usar como nossa rede social preferida aqui no país. Tá certo que o Orkut não é lá o site mais bonito do mundo, mas é funcional e permite que a maioria das pessoas, com os mais diversos graus de familiaridade com a web, aprenda a usá-lo rapidamente. Se você entra no Facebook pela primeira vez, provavelmente ficará perdido entre tantas opções e sem saber exatamente aonde ir. Pesa também o fato de o Orkut ter sido traduzido para o português muito antes do Facebook e vale lembrar que muitos usuários deste fizeram uma campanha para que não fosse traduzido, justamente para que ele não se popularizasse no Brasil, como o Orkut. Mas também há outro fator que acho determinante: o Facebook é muito mais frio. Basta entrar no Orkut para ver as carinhas dos nossos amigos ao lado, os aniversariantes embaixo, etc. É realmente como estar numa “rede social” com pessoas de verdade. No Facebook não “vemos” as pessoas tão fácil e, por mais que possamos seguir via streaming quase tudo o que nossos contatos fazem, é praticamente impossível obter detalhes da vida de quem não nos autoriza a ser amigos. Ou seja, não permite um dos nossos passatempos preferidos: bisbilhotar a vida alheia.