Sociedade e Tecnologias Digitais/fichamentos

Fonte: Wikiversidade

Página dedicada à publicação dos resumos/fichamentos produzidos pelos alunos do curso Sociedade e Tecnologias Digitais (edição 2012).

Índice Fichamentos

Manuel Castells, A Galáxia da Internet, cap.1[editar | editar código-fonte]

(1° edição 2001).

Anotações/reproduções do texto


Cap. 1: Lições da história da Internet

A história da criação da internet mostra que a cooperação e liberdade de informação podem ser mais propícias à inovação do que a competição e os direitos de propriedade.


1962-1995: um panorama

ARPA - Advanced Research Projetcs Agency (criada em 1958), ligada ao Ministério da Defesa.

1969 - ARPANET - cria rede interna para que os pesquisadores possam compartilhar informações.

Paul Baran - Rand Corporation (california): desenvolve tecnologia de comutação por pacotes.

1964 - tinha pesquisa sobre redes distribuidas.

1969 - primeiros nós estavam em 4 universidades: California (Los Angeles e Santa Barbara), Stanford, Utah.

Em seguida, integrar ARPANET às outras redes administradas pela ARPA: PRNET e SATNET. (primeira rede de redes).

1973: Robert Kahn (ARPA) e Vint Cerf (Stanfort)

Seminário em Stanford: Kahn, Cerf, Gerard Lelann (frances da Cyclades), Robert Metcalfe (entao da Xerox PARC).

1978: dividem o TCP em dois protocolos: TCP e IP.


1975: Arpanet é transferida para Defense Communication Agency.

1983: Min.Defesa preocupado com possíveis falhas de segurança cria uma rede própria: MIlnet. A Arpanet torna-se então Arpa-Internet

1984: National Science Foundation, cria sua própria rede: NSFNET e em 1988 usa a Arpa-Internet como seu backbone.

1990 - Arpanet passa para a NSF (deixa portanto de ser de uso militar).

Já nos anos 80 os militares haviam decidido comercializar a tecnologia da internet, e os computadores pessoais já eram capazes de se conectar à rede. 1995: NSFNET foi extinta, e abre caminho para a entrada do setor comercial privado.


Mas a internet teve outras influencias:

BBS: bulletin board systems (interligava computadores já nos anos 80).

1977 - programa chamado de MODEM (criado por 2 estudantes) para transferir arquivos entre 2 computadores.

1978 - fizeram outro programa que permitia trocar mensagens.

Liberaram ambos em domínio público.

outras redes:

1983 - FIDONET

1981 - BITNET - usando um protocolo da IBM.


Unix: desenvolvido nos laboratórios da Bell.

1974 - foi liberado para as universidades.

1980 - Usenet, rodando fora do backbone da Arpanet.


1980 - Usenet chega em Berkeley, onde já havia um nó da Arpanet. Utilizando o Unix desenvolveram uma forma de conectar ambas as redes.

1984 - MIT - Richard Stallman: em reação à AT&T reivindicar propriedade sobre o Unix, lançou a Free Software Foundation

1991 - Linus Torvalds (entao com 22 anos) desenvolve o Linux.

1990 - WWW - Tim Berners-Lee (Lab.CERN - Genebra)

Vannevar Bush, Douglas Engelbart, Ted Nelson, Bil Atkinson (criador da interface grafica do Mac).

Tim, cria em 90 um editor/navegador. (cria protocolo HTTP, MTML e URL

Marc Andreessen - Mosaic 1994 - Netscape 1995 - Navigator 1995 - Microsoft - Internet Explorer

Meados da década de 90: a internet estava privatizada e dotada de uma arquitetura aberta.

Formula improvável: big sciences, pesquisa militar e a cultura da internet.

Cultura libertária (sentido político - JSMill), big science e militar.

Baran - na Arpa - cria uma arquitetura orientada por 3 princípios:

-estrutura de rede descentralizada.

-poder computacional distribuído

-redundância de funções na rede para diminuir o risco de desconexão.


Esses 3 princípios respondem a uma necessidade militar de capacidade de sobrevivẽncia do sistema: flexibilidade, ausencia de um centro de comando, autonomia máxima de cada nó.

Tese Castells - os cientistas da computação que gravitavam em torno da Arpa, estavam mais interessados em criar formas de conectar os computadores, e não estavam necessariamente pensando em estratégias militares. "Sorte" da Arpanet: o departamento de defesa, afim de obter inovação, criou a ARPA como uma agencia financiadora dotada de grande autonomia. A esperança dos militares era que se os cientistas fossem dotados de recursos e deixados livres para criar, algo de bom poderia ser criado e aproveitado pelos militares.

EUA obtiveram superioridade tecnológica e científica em diversas.

URSS foi captura pelos aparelhos de segurança, e isso bloqueou a inovação.

Quando a tecnologia de uso militar tornou-se acessível aos civis, os militares tiveram interesse em comercializa-la.

Tese: a internet nao teve origem no meio comercial porque: era cara demais, era muito ousada e arriscada demais para organizações que visam o lucro (em especial nos anos 60 quando as corporações eram mais conservadoras em termos de investimento em pesquisa e inovação).


A internet e os movimentos de base


Anos 60 e 70: universidades permitem o florescimento de uma cultura da liberdade individual.Algumas universidades mantem redes comunitárias.

As universidades foram o terreno comum para a circulação da inovação entre as redes da big sciences e as redes contraculturais.

RFC: caráter aberto e informal na construção dos protocolos.

Computador: como instrumento de resistencia e libertação (contra governo e contra corporações).

Anos 80: diversas empresas já ofereciam serviços de comunicação aos clientes dentro de suas próprias redes (redes autonomas).


Uma arquitetura de abertura

Abertura: arquitetura técnica e organização social/institucional.

Flexibilidade dos protocolos permitiu que backbones como da Arpanet se conectassem a diversas redes locais.

Guerra entre protocolos:

1976: empresas telecom propunha o X.25, aprovado pela Internacional Telecommunications Union.

Com o X.25 o controle da rede e a responsabilidade por ela ficariam sobretudo nas maos de provedores de redes públicos em detrimento de proprietários privados de computadores. As empresas europeias preferiam essa opção X.25.

Exemplo Minitel: rede mais centralizada e controlada pelo governo, os usuários simplesmente conectam seu computador diretamente à rede. Mas os protocolos desses modelo são refratários à uma diversidade de redes.

Modelo da Arpanet permitia uma maior diversidade.

Os protocolos X25 foram adotados por redes publicas de telecomunicações.

Internacional Organiz. for Standardization (ISO) como nao conseguiu conciliar os diferentes interesses dos vários governos e dos fabricantes de computadores e operadoras de telecom, aprovou o princípio dos protocolos em camadas sucessivas.

O protocolo Open Systems Interconnection (OSI) tornou-se o padrão internacional oficial.


A evolução autônoma da Internet: a modelagem da rede pelo uso

Tese (Claude Fischer): os usuários são os principais produtores da tecnologia, adaptando-a a seus usos e valores e acabando por transforma-la.

Condições pra a inovação e expansao da rede:

-arquitetura de interconexão deve ser ilimitada, descentralizada, distribuída e multidirecional em sua interatividades;

-todos os protocolos de comunicação e suas implementações devem ser abertos, distribuídos e suscetíveis de modificação.

-as instituições de governo da rede devem ser montadas em conformidade com os princípios da abertura e da cooperação.


Governo da Internet

Desenvolvimento de protocolos compatilhados, acordo sobre padrões, atribuições de nomes e endereços.

Anos 60: Arpa era flexivel. O Network Working Group (NWG) produzi padrões tecnicos por consenso. Usava os RFC (request for comments).

Com o funcionamento da Arpanet o NWG foi dispersado.

(anos 70)Seu papel foi absorvido dentro da Arpa por um grupo coordenado por Cerf e Kahn. Eles criaram um grupo consultivo de especialistas em redes: Internet Configuration Control Board (ICCB).


1984 - Barry Leiner (Arpa), amplia aquele comite e funda o Internet Activities Board (IAB), sob a presidencia de Dave Clark.

1989 - IAB divide-se em duas instâncias:

-IETF: Internet Engineering Task Force: desenvolvimento de protocolos e outros assuntos técnicos.

-IRTF: Internet Research Task Force: planejamento de longo prazo para a Internet.

Os RFC e protocolos emitidos por esses grupos passaram a ser adotados por varias orgãos governamentais americanos.

1992 - A NSF (desde 90), como estava pensando na privatização da Internet, decide tirar seu comando das asas do governo e funda a Internet Society, tendo Cerf e Kahn como primeiros diretores.

Ainda assim, com a crescente internacionalização da Internet, esta vinculação com o governo americano gerava tensões, em especial com os países europeus.

Durante esses anos, a IANA (Internet Assigned Numbers Authority), sob a coordenação de Jon Postel, funcionou sob amparo do governo americano.

Desde 1997, o Governo Clinton propoe a privatização da IANA. Em 1998, seguindo uma proposta de Postel, é criada o ICANN (pleno funcionamento em 2000).

ICANN (1998) - Internet Corporation for Assigned Names and Numbers.

-corporação privada, sem fins lucrativos.

-faz atribuição de nomes e dominios e administra o sistema de servidores de raiz.

Richard Barbrook, Andy Cameron - A Ideologia Californiana[editar | editar código-fonte]

Autor resumo: Rodrigo Pedro

- Hipermídia - convergência da tecnologia a serviço de quem?

- Trabalho humano é pressionado a ser cada vez mais diversificado e inventivo

- A convergencia da mídia é o foco do sistema econômico A criação dos meios tornam-se mais do que a soma das partes Implica na transformação das formas conhecidas de Trabalho e lazer (a ponto de se confundir, ao menos na intenção)

-A ideologia da Costa Oeste "Fruto de uma estranha aliança entre pioneiros e oportunistas, criou uma ortodoxia heterogenea para a era da informação vindoura" Crença na Nova Era + Desapego hippie + empreendedorismo yuppie + potencia emancipadora da rede = uma fusão de otimisto com princípios republicanos Uma famigerada ambiguidade de princpipios Grande popularidade, mesmo que com conhecimento superficial dos elementos que compõe a ideologia

Concenso entre a Nova Esquerda e a Nova Direita em torno da perpectiva liberal antiestatista promovida pela  Ideologia Californiana


Resta Perguntar: qual das utopias será realizada por essa ideologia? Evita negar qualquer uma das duas, acredita na "classe virtual" como linha de frente "na luta pela libertação social". (pag 5)

O Armistício promulgado pela Revista Wired e suas facetas http://www.gizmodo.com.br/revista-wired-explica-como-se-portar-no-mundo-da-tecnologia-social/  A promessa aos candidatos à classe virtual, ser lembrado como Vanguarda Uma carreira promissora e alternativa, interligada às ideologias Oitocentistas, tradicional individualismo arrebatador como projeto de sonho americano.

A beira da esquizofrenia, a ideologia californiana e os artesãos dos bits receiam atacar frontalmente o liberalismo econômico, por depender dele, ao mesmo tempo que não admitem interferências das autoridades, em sua autonomia individual. "Místicismo das atitudes contraditórias sustentadas pelos membros seus." - Princípios contra-culturais e "decididamente" não comercial (pag.6) - Dependendia dos investimentos (intervenções) do poder público para criação das estruturas industriais e economicas  (pag.7) - Antiestatismo: une idéias radicais e reacionárias sobre progresso tecnológico.

Toma forma como uma nova versão de uma "democracia jeffersoniana"

Símbolo da derrota no processo de construção desta classe virtual, a Ideologia Californiana garante margem para as políticas ao gosto da ala mais à direita enquanto os "artesãos hi-tec" comprometem-se, de fato, com suas liberdades individuais e, por fim, uma carreira segura. A ponto de colocar em risco sua  maior crença, o potencial emacipador do hi-tec, a Ideologia Californiana revela-se apreensiva com a possibilidade de um levante da sub-classe imigrante pobre que invade seus suburbios Enquanto isso "as tecnologias da liberdade estão se tornando os instrumentos da dominação".(pag.10)

"Apesar destas fantasias, os brancos da Califórnia continuam dependetes de seus colegas humanos de pele mais escura para trabalhaqr em suas fábricas, colher seus cereais, cuidar de suas crianças e cultivar seus jerdins. Após os tumultos de Los Angeles (http://pt.wikipedia.org/wiki/Dist%C3%BArbios_de_Los_Angeles_em_1992 - http://www.youtube.com/watch?v=SW1ZDIXiuS4), eles cada vez mais temem que esta "subclasse" vá um dia exigir sua libertação. Se escravos humanos não são totalmente confiáveis, então escravos mecânicos terão de ser inventados. A busca de pelo Santo Graal da "Inteligência Artificial" revela este desejo pelo Golem (http://letras.mus.br/fantomas/der-golem-fantomas/#traducao).

Cegos à polarização social e racial, a ideologia californiana é aceita ao redor de todo o mundo omo uma forma otimista e emacipadora de deterministo tecnológico;

Os autores apontam alternativas no desenvolvimento tecnologico que tomou outros rumos, como a operadora estatal de telefonia francesa Telecon. Resultado da intervenção estatal, foi um exemplo de monopólio que reverteu-se em reais benefícios à sociedade, proporcionando um sistema que substituiu as listas telefonicas em papel. Minitel conseguiu conectar e desenvolver a população, no ambito dos comércio, mas também na socialização através de chats e videoconferencias, durante a década de 80 quando estas plataformas eram restritas à pesquisadores e militares no resto do mundo. (http://globotv.globo.com/globo-news/pelo-mundo/v/minitel-foi-revolucao-na-experiencia-digital-da-franca/2040680/) (pag.11)

Refutando, nas palavras dos autores, anarquismos da esquerda ou da direita, conclui que a forma de transformar o papel da tecnologia na sociedade é visando a garantia de acesso sem restrição de classes ou genero. Contando com o papel preponsderante de um Estado trabalhando em conjunto da iniciativa privada e orientado pela ação coletiva. O texto apresenta as considerações sobre a importancia dos elementos abordados pela ideologia californiana, porém aposta em uma alternativa ao tecno-liberalismo  e a chamada classe virtual, incumbindo os indivíduos inseridos nestes processos a responsabilidade de criação de novos paradigmas. Assumindo ofícios que unem elementos das artes e da engenharia, devem os artesão digitais criar uma "nova máquina estética para a era da informação".  É papel desses artesãos digitais produzirem tecnologia a serviço da pupolação, de forma inclusiva e universal - transparente - promevendo o desenvolvimento não-elitista da consciência e da sociedade; (Pag.13)


Existe caminho para apropriação da tecnológica por parte das classes pobres? Para os Movimentos Sociais? Para o Governo, Estado, sociedade civil?  A quem beneficia o modelo atual de desenvolvimento tecnológico, e de qual maneira?


“Para minha geração, o êxito do capital era um problema. Agora muitos acreditam que isso é a solução. É uma perda da capacidade crítica: acreditar, nos dias de hoje, que a mercadoria emancipa.” Francisco de Oliveira http://www.companhiadolatao.com.br/blog/?page_id=320 

Da massificação da luta e da consciencia, para a massificação dos chips e da comunicação eletronica. (eu)

Vacas twittando - Superinteressante jan2011 http://super.abril.com.br/ciencia/vacas-agora-tambem-podem-twittar-619058.shtml  "O robô guiado por laser localizou minhas tetas." "Dei 15,4 litros de leite em 7 minutos e 12 segundos." "Tudo isso me deixou com fome: comi 1,408 kg". 

http://www.tiagodoria.ig.com.br/2009/10/05/o-que-aconteceu-no-1%C2%BA-transparencia-hackday/ 

http://www.wired.com/gadgetlab/2012/09/living-without-a-wallet/ 


Autor do Resumo:Ana Beatriz

Fichamento do texto “A ideologia californiana” de Richard Barbrook e Andy Cameron

1. Enquanto a represa se rompe...

-Século XX: mídia + computação + telecomunicação = hipermídia Capitalismo: diversificação e intensificação das forças criativas do trabalho Interferência qualitativa nas relações sociais Novas configurações de trabalho e lazer Escritores, hackers, capitalistas e artistas da costa oeste dos EUA


IDEOLOGIA CALIFORNIANA

-Boemia cultural de São Francisco e indústrias de alta tecnologia do Vale do Silício -espírito desgarrado hippie e zelo empreendedor yuppies ("Young Urban Professional"- se refere de forma pejorativa ao que seria mais conservador do que os hippies) Contradição acertada pela fé no potencial emancipador das novas tecnologias de informação “livre mercado” para construir a “superestrada da informação” Culto extropiano (valores que negam, mas não são o contrário; poderes sobre-humanos; “ a extensão da inteligência, ordem funcional, vitalidade, energia, vida, experiência e capacidade e motivação por crescimento e melhoramento de um sistema vivo ou organizacional”, Max More 1988) Forma política: “impecavelmente” libertária Democracia Jeffersoniana (governo sábio e os cidadãos livres para regular sua própria vida) Indivíduos se expressam livremente no ciberespaço Tecnofomentadores: visão utópica- cegueira voluntária}‽ como se dá o racismo e a pobreza no mundo vitual?


2. Ronald Reagan contra os hippies

-Governador da Califórnia de 1967 a 1975: iniciativa privada e invasão do Vietnã People’s Park : terreno abandonado da Universidade da Califórnia, do campus Berkeley, ocupado por manifestantes para construção do parque. Maio de 69, invasão policial} hoje é estacionamento -Nova Esquerda: prefiguravam a sociedade libertária do futuro Bay Area: movimento musical/político/cultural ocorrido na região da baía de São Francisco Luta política e rebelião cultural Crescimento econômico de 20 anos

Hippies: rejeição do progresso (retorno à natureza)-liberais no sentido social Progresso tecnológico tornariam os princípios libertários fatos sociais

Influência de Marshall McLuhan interferência dos meios de comunicação nas sensações humanas "meios de comunicaçao como extensões do homem"} ‽seria o mundo virtual? A força do capital e do governo hipertrofiado derrubado pelo indivíduo tecnológico Noção de dimensão espacial} ‽o que seria o cara-a- cara? Ágora eletrônica/ecotopia/democracia direta


3. O surgimento da classe virtual

-caretas + hippies -determinismo tecnológico e individualismo libertário -ativistas desbravadores: apropriação das indústrias de alta tecnologia -tecnointelligentsia -artesãos hi-tech bem pagos e com autonomia no horário ‽Qual a relação de produção desta nova classe? O que produz? Aristocracia trabalhista experimenta as recompensas e inseguranças do mercado Sem tempo livre, o trabalho é a auto-satisfação -disciplinas da economia de mercado e as liberdades do artesanato hippie -o futuro pode não ser a ecotopia (liberdade dos indivíduos no mercado)


4. Ágora eletrônica ou Mercado Eletrônico

-desenvolvimento da hipermídia: próximo estágio do caitalismo -tecnloga de mídia: separação de mão-de-obra do envolvimento direto na produção.}?alienação? -impacto social/cultural de trocas ilimitadas de informação -Nova esquerda: ágora eletrônica- ádivas hi-tech -Nova direita: mercado eletrônico (laissez faire) -Classe virtual: empreendedor de sucesso Ideal americano (liberade ao cyberespaço)


5. O mito do “livre mercado”

-1994 (partido de Gengrich ganha eleições): direitismo em ascendência -liberalismo econômico cotradito pela história da hipermídia subsídios do estado iniciativa privada economia mista -cultura faça-você-mesmo -programas de distribuição gratuita- função no avanço do design de soft wares -desenvolvimento da Rede: governo norte americano -planejamento dos americanos: orçamento de defesa -mídia comunitária: boemia cultural da costa oeste= ressonância com a cultura do faça-você-mesmo

6. Liberdade e Escravidão

-o “mito do livre mercado” influenciaram a Ideologia Californiana. Esta fornece uma “lução mística” às contradições das “classes virtuais”. O “anti-estatismo” reconcilia a esquerda e a direita. Ambas tem em comum a crítica ao governo, uma porque entende a intervenção estatal como prejudicial à competitividade, e outra pelo fato de que o governo financa a indústria militar -ati-estatismo libertarianista: anarquismo hippie+ liberalismo econômico determinismo tecnológico -as Novas Esquerdas e Direita não compreendem o capitalismo-mas, sim, defendem visões rivais e uma “democracia jeffersoniana” -explicia aos membros da “classe virtual” a repressão estatal e cooptação culural sofridas, nas décadas de 60 e 70, pelos hippies contrários à guerra do Vietnã -os artesãos hi-tech não se rebelam contra o sistema. Eles aceitam a liberdade individual ó será atingida dentro dos marcos do “progresso tecnológico” e do “livre mercado”

7. Em frente rumo ao Passado

-segregação -muitos membros da “classe virtual” querem ser seduzidos pela retórica libertária e entusiasmo tecnológico da Nova Direita – trabalhando para comanhias de mídia e alta tecnologia, eles gostariam de acreditar que o mercado eletrônico pode de alguma maneira resolver os complicados problemas sociais e econômicos amricanos sem nenhum sacrifício de sua parte -apartheid: ricos de informação e pobres de informação na democracia jeffersoniana de alta tecnologia, a relação entre senhores e escravos resiste sob nova forma


8. Mestres Ciborgues e escravos Robôs -crença no potencial emancipador das novas tecnologias -as tecnologias da liberdade estão se tornando os instrumentos de dominação -o final do século XX, a tecnologia está sendo mais uma vez utilizada para reforçr a diferença entre os sehores e os escravos -a busca pela perfeição da mente, corpo e espírito vai inevitavelmente levar ao surgimento do “pós-humano”: uma manifestação biotecológica dos privilégios sociais da “classe virtual” -desej de escapar para dentro do subúrbio gradeado do hipereal é apenas um aspecto deste profunda auto-obsessão privilégo social vai mais cedo ou mais tarde dotá-la de imortalidade -em vez de predizer a emancipação da humanidade, esta forma de determinismo tenológico pode somente conjeturar um apofundamente da segregação social -se escravos humanos não são totalmente confiáveis, então escravos mecânicos terão de ser inventados -os tecno-utópicos imagiam ser possível obter mão-de-ora como a escrava po meio d máquinas inanimadas -apesar de a tecnologia poder armazenar ou amplificar o trabalho, ela não pode nunca remover a ncessidade de os humaos invenarem, consttuírem e manterem estas máquinas em primeiro lugar -trabalho escravo não pode ser obtido sem escravizar alguém -Ideologia Californiana: forma otimista e emancipadora de determinismo ecnológico -cegueira frente à- dependência de- polarização social e acial da sociedade em que nasceu -fé exclusiva -pode ser uma visão profundamente pessimista e reressiva do futuro

9. Existem alternativas -Ideologia desenvolvida por um grupo em um local específico com uma mistura particular de escolhas sócio-econômicas e tecnológicas -Relatório Bangemann: autoridades européias determinadas a se envolver intimamente no desenvolvimento das novas tecnologias da informação. France Telecom lançou o sistema Minitel: como um monopólio, sta ompanhia estatal de telefone foi capaz de criar uma massa críica de usuários para seus sistema on-line pioneiro população francesa: mais intervenção pública é necessária para uma sociedade eficiete saudável -os ideólogos californianos tentam ignorar os dólares de constribuintes subidianos o desenvolvimento da hipermídia, o governo frances pode intervir abertamente neste stor da economia -o futuro digital será hibrido de intervenção estatal, empreendedorismo capitalista e cultura faça-você-mesmo -União Européia e seus estados membros: não deixand tudo ao capricho das forças mercadológicas, podem assegurar que todo cidadão tenha oportunidade de estar conectado à banda-larga de uma rede de fibra óic ao menor preço possível. -criação de empregos (desemprego de massa) -construção de uma rede de fibra ótica em lares e escritórios poderiam dar a todos acesso a novos serviços on-line e criar uma grane e vibrante comunidade de troca de conhecimento -intervenção coletiva será necessária para assegurar que todos os cidadãos estejam incluidos no futuro digital


10. O Renascimento Moderno

-os artesãos digitais europeus precisam desenvolver uma análise mais coerente do impacto da hipermídia do que a que pode ser encontrada na Ideologi Californiana -classe virtual euopéia deve criar uma identidade distinta- reijeição de qualquer forma de apartheid -novas tecnologias da informação devem reconhecer abertamente a inevitabilidade d algum tipo de economia mista -celebrar as forças criativas dos artesãos digitais, pois os membros da classe virtual exercem grande controle sobre a sua própria obra -os artesãos digitais precisam reconhecer a si mesmos com a teoria e prática da arte produtiva -são engenheiros-artistas: os criadores do póximo estágio de modernidade -engenheiros-artistas estão tentando expandir os limites tanto das tecnologias quanto de sua própria criatividade -diferente do elitismo da Ideologia Californiana, os engenheiros-artistas europeus devem construir um ciberespaço inclusivo e universal -Renascimento da Modernidade

Kevin Kelly - Adira à Coméia[editar | editar código-fonte]

Autor do resumo: Ramon Brandao

Kevin Kelly nos apresenta uma análise e reflexão sobre o processo de modernização e expansão da tecnologia, através da grande disseminação e implementação dos chips em diversos produtos, pertencentes as mais diferentes categorias presentes em nosso dia a dia. A utilização desses chips interconectados permite a criação de redes, como se fossem colmeias. O autor faz essa analogia para representar a possível estrutura defendida por ele; ou seja, uma estrutura descentralizada, cuja autonomia dos nós permita que o controle seja distribuído, permitindo que a difusão de informações e comandos sejam rápidas e precisas.

Para Kelly, A rede o ícone dos novos tempos. Relacionando-se com os mais diversos ramos da vida moderna. “A rede é o arquétipo surgido para representar todos os circuitos, toda a inteligência, toda a interdependência, todas as coisas econômicas, sócias ou ecológicas, todas as comunicações, toda a democracia, todas as famílias, todos os grandes sistemas, quase tudo que achamos interessante ou importante.” (Kelly, pp. 19).

Por essa passagem, podemos notar o fascínio que o autor tem pela influência que o mundo da informática pode proporcionar. Na sequencia, o autor relaciona a rede com a economia, tecendo alguns comentários sobre o desenvolvimento econômico do chip de silício, pois, foi tornando-se cada vez mais barato no mercado, devido ao fato de ter sido cada vez mais reduzido de tamanho. Segundo Kelly, “os chips estão se tornando suficientemente baratos e minúsculos para caber em qualquer objeto que fabricamos... Logo, todos os objetos manufaturados, de tênis a furadeira, a abajures, a latas de refrigerante, conterão uma lasquinha de pensamento.” (idem).

Devido à simplicidade desses chips, são chamados de “chips burros”. Individualmente não possuem inteligência que impressione, mas interconectados com outros sistemas, passam a disponibilizar informações e conhecimento, que os tornam fundamentais para esse mundo impressionante da tecnologia. “Quando interligados em colmeia, pensamentos medíocres tornam-se inteligentes” (Ibidem).

Assim, “chips burros”, ao estarem interconectados em colmeia, passam a trocar informações sem precisar de muita sofisticação. A rede, segundo Kelly, permite que computadores pessoais possam trabalhar conectados, aumentando e aprimorando a potencialidade de suas atividades e experiências. “O modelo da Internet oferece muitas lições para a nova economia, entretanto talvez a mais importante delas seja a adoção do poder do esquema-colmeia. O objetivo do poder-colmeia é alto desempenho em ambiente turbulento. Quando as coisas acontecem de forma veloz e desenfreada, elas tendem a desaguar no controle centralizado. Ao interligar muitas partes simples numa confederação flexível, o controle acaba fluindo do centro para a base ou para os pontos mais distantes, os quais, coletivamente, mantêm as coisas andando.” (ibidem).

Com isso, podemos perceber que, em determinados casos a total descentralização não permite que os comandos sejam executados de modo a permitir a total atividade da colmeia, pois, pode haver um choque entre as diversas opções de ação. Por isso, em algumas situações, pode ocorrer a necessidade de uma orientação vinda de um centro que “ative” a capacidade dos demais nós, através de informações que indiquem um caminho comum a ser seguido, por todos dessa colmeia. Como exemplo, Kelly nos conta o ocorrido com os co-capitães do simulador de submarino, que, só conseguiram guiá-lo, devido a um comando que receberam do topo, e que possibilitou, a partir disso, que pudessem guiá-lo tranquilamente, sem mais orientações. “Um grande número de pequenas coisas interligadas em rede gera um poder imenso. Mas esse poder-colmeia precisará de alguma orientação mínima do topo para maximizar sua utilidade.” (ibidem).

Portanto, segundo o autor, as redes têm de serem descentralizadas, e autônomas, porém, há a necessidades, em certos casos, de as ordens virem de cima. Não no sentido autoritário, mas como um indicador que ajude a organizar as ideias e objetivos da colmeia.

Todo o enfoque que Kelly demonstra sobre a transmissão de informação, na atual fase do que ficou conhecida como: revolução técnico-científico-informacional, deixa claro a importância que o autor atribui à troca de informações, através do uso da internet e das conexões entre os diversos usuários e máquinas, no processo de produzir e compartilhar conhecimento.

Durante seus argumentos e exemplos, para convencer-nos de toda a complexidade e amplitude do papel da informática em nossas vidas, o autor utiliza linguagem e exemplos que aproximam tanto a máquina, do homem, que podemos até notar certa “personificação” da máquina. Por exemplo, quando o autor compara o funcionamento dos chips, com o funcionamento dos neurônios do cérebro humano, que, produzem inteligência ao estarem interconectados e transmitindo informações, como o esquema de colmeia, no qual os chips precisam estar, para que possam produzir conhecimento, também.

Kelly analisa também o sucesso da revolução tecnológico-informacional, já que, para ele, a invisibilidade da tecnologia no nosso cotidiano, é a prova de que esta já faz parte de nós. “Na medida em que a tecnologia torna-se onipresente, ela se torna também invisível. Quanto mais os chips proliferarem, menos os notaremos. Quanto maior o sucesso da conexão na forma de rede, tanto menor será nossa consciência.” (ibidem).

Kelvin Kelly, para concluir, torna o artificial: natural, invisível. E equipara o sucesso desse processo de “naturalização” das tecnologias computacionais, com o desenrolar da revolução industrial. “Sabemos que a Revolução Industrial teve êxito porque não vemos mais seus soldados, os motores.” (ibidem).


Autor do resumo: Emerson


O autor coloca o átomo como o símbolo do século XX em paralelo com a rede, esta é o símbolo do século XXI. A rede é um modelo surgido para representar quase tudo que achamos interessante ou importante.

A Rede é o Nosso Futuro O entrelaçamento de nossas vidas, mentes e artefatos numa rede de escala global é talvez, a maior atividade que os humanos participam hoje. A dinâmica desse entrelaçamento seria uma nova dinâmica da sociedade, a dinâmica das redes. A “nova economia” obedecerá à lógica das redes, como o restante da sociedade. Por isso, é fundamental compreender a lógica das redes, para saber como funcionará a “lógica econômica”. Para K. Kelly, o gradativo o desenvolvimento tecnológico que faz os chips ficarem cada vez menores será fundamental para a expansão da rede, pois cada vez mais os objetos manufaturados são feitos com algum tipo de chip embutido. Cada objeto com chip embutido é um “comunicador” em potencial.

O autor argumenta que todos os objetos que contiverem chips deveriam ser interconectados para comunicar-se entre si de modo que fosse possível criar padrões de funcionamento, o que torna possível a resolução de alguns problemas através da observação desse padrão.

Estamos conectando tudo a tudo Eis a concepção de internet de Kelly: “A Internet não é apenas seres humanos participando de chats e trocando e-mails, embora isso faça parte dela e assim permanecerá enquanto persistir o prazer e paixão.

A Internet é, antes, a interação coletiva total de um trilhão de objetos e seres vivos interconectados por ar e matéria.” (pag. 24). Segundo estimativas apontadas pelo autor, em 2001 o tráfego de dados – “a conversa entre máquinas” – ultrapassará o tráfego de voz no planeta. Em 2005 o tráfego de dados será dez vezes maior que o tráfego de voz. A Internet funciona com a fragmentação dos volumes de tráfego para aperfeiçoar a velocidade da comunicação. Cada informação trocada na internet se divide em pequenas partes, que buscam – cada uma independente da outra – a rota mais rápida para chegar ao destino.

Estratégias

  • Levar a tecnologia à invisibilidade.
  • Se é inanimado, dê-lhe vida.
  • Se não está conectado, conecte-o.
  • Distribua Conhecimento.
  • Se você não estiver em tempo real, você está acabado.
  • Conte com mais sendo diferente.

Richard Stallmann: Sobre Software Livre[editar | editar código-fonte]

Autor resumo: Felipe Cabral

STALLMAN, Richard M. O que é o Software Livre? Disponível em: <http://www.gnu.org/philosophy/free-sw.pt-br.html> Acesso em 20 de setembro de 2012; ____________________. Porque o Software Deveria Ser Livre? Disponível em: <http://www.gnu.org/philosophy/shouldbefree.pt-br.html> Acesso em 20 de setembro de 2012; ____________________. Introdução ao Projeto GNU Disponível em: <http://www.gnu.org/gnu/gnu-history.pt-br.html> Acesso em 20 de setembro de 2012;


PALAVRAS-CHAVE

Software Livre, software privado, software proprietário, licença, patente, GNU, Free Software Foundation, liberdade;


FICHAMENTO

O primeiro texto - O que é o Software1 Livre? - trata das definições que compreendem para a comunidade do projeto GNU e para muitas outras comunidades de desenvolvimento de software a noção lógica e ética de software livre. Escrita em quase totalidade por Richard Matthew Stallman2 e por outros membros da comunidade GNU e atualmente traduzida do inglês para 39 idiomas essa definição teve sua primeira versão publicada em nome da Free Software Fundation3 em fevereiro de 1986. Logo no inicio do texto temos uma noção previa do que vem a ser o senso estabelecido e desenvolvido para os contornos semânticos principais do que vem a ser software livre. Diz que entende-se software livre como:

“[...] aquele software que respeita a liberdade e senso de comunidade dos usuários. A grosso modo, os usuários possuem a liberdade de executar, copiar, distribuir, estudar, mudar e melhorar o software. Com essas liberdades, os usuários (tanto individualmente quanto coletivamente) controlam o programa e o que ele faz por eles.”

Pois:

“Quando os usuários não controlam o programa, o programa controla os usuários. O desenvolvedor controla o programa e, por meio dele, controla os usuários. Esse programa não-livre e 'proprietário' é, portanto, um instrumento de poder injusto.”

Logo na sequencia há o conjunto de 4 (quatro) regras básicas que baliza a definição:

Um programa é software livre se os usuários possuem as quatro liberdades essenciais:

  • A liberdade de executar o programa, para qualquer propósito (liberdade 0).
  • A liberdade de estudar como o programa funciona, e adaptá-lo às suas necessidades (liberdade 1). Para tanto, acesso ao código-fonte é um pré-requisito.
  • A liberdade de redistribuir cópias de modo que você possa ajudar ao próximo (liberdade 2).
  • A liberdade de distribuir cópias de suas versões modificadas a outros (liberdade 3). Desta forma, você pode dar a toda comunidade a chance de beneficiar de suas mudanças. Para tanto, acesso ao código-fonte é um pré-requisito.

Sobre software livre e software comercial Stallman diz:

“ 'Software livre' não significa 'não comercial'. Um programa livre deve estar disponível para uso comercial, desenvolvimento comercial e distribuição comercial. Desenvolvimento comercial de software livre deixou de ser incomum; tais software livre comerciais são muito importantes. Você pode ter pago dinheiro por suas cópias de software livre, ou você pode tê-las obtido a custo zero, mas independentemente de como você conseguiu suas cópias, você sempre deve ter a liberdade para copiar e mudar o software, ou mesmo para vender cópias.” Posto isso, há a principal distinção entre software livre no quesito que diferencia livre de grátis. Sobre os licenciamento dos softwares do projeto GNU e sobre o conceito de ética do software livre, vale ressaltar o seguinte trecho que apresenta sem maiores adendos o conceito de copyleft4:

“No projeto GNU, nós usamos o copyleft para proteger legalmente essas liberdades para todos. Mas software que não usa o copyleft também existe. Nós acreditamos que existem razões importantes pelas quais é melhor usar o copyleft, mas se o seu programa é software livre que não faz uso do copyleft, ele ainda é basicamente ético.”

Sobre a governabilidade dos Estados sob os softwares livres há o apontamento de que independente das resoluções e/ou das conclusões e licenciamentos que autor de software pode tomar para torná-lo livre haveria questões de fronteira geográfica a serem consideradas em sua distribuição:

“Algumas vezes, as regulamentações de controle de exportação governamentais e sanções comerciais podem reprimir sua liberdade de distribuir cópias de programas internacionalmente. Desenvolvedores de software não têm o poder para eliminar ou passar por cima dessas restrições, mas o que eles podem e devem fazer é se recusar a impô-las como condições para o uso do programa. Dessa maneira, restrições não irão afetar as atividades e pessoas fora da jurisdição desses governos. Desta maneira, licenças de software livre não devem requerer a obediência a qualquer regulamentações de exportação como uma condição para qualquer das liberdades essenciais.”

Sobre o processo de definição de um software que submete-se ao conceito de licença livre através da Free Software Fundation há os seguintes apontamentos:

“Finalmente, note que os critérios como aqueles exprimidos nessa definição de software livre requerem cuidadosa deliberação quanto a sua interpretação. Para decidir se uma licença de software específica se qualifica como uma licença de software livre, nós a julgamos baseado nesses critérios para determinar se ela se encaixa no espírito bem como nas palavras precisas. Se uma licença inclui impensadas, nós a rejeitamos, mesmo que não tenhamos antecipados o problema nesses critérios. Algumas vezes, algum requerimento de uma licença cria um problema que requer extensiva reflexão, incluindo discussões com um advogado, antes que possamos decidir se o requerimento é aceitável. Quando chegamos a uma conclusão sobre uma nova questão, nós frequentemente atualizamos estes critérios para tornar mais fácil determinar se uma certa licença se qualifica ou não.”

E por fim mas não menos importante o texto chama a atenção para a necessidade e submissão do manuais e documentações dos softwares livres aos mesmos critérios de licenciamento destes:

“Manuais de software devem ser livres pelas mesmas razões que software deve ser livre, e porque manuais são, com efeito, parte do software. Os mesmos argumentos também fazem sentido para outros tipos de trabalhos de uso prático — isto é, trabalhos que englobam conhecimento útil, como obras educativas e de referência. A Wikipédia é o exemplo mais conhecido. Qualquer tipo de obra pode ser livre, e a definição de software livre pode ser estendida para a definição de obras culturais livres, aplicável a qualquer tipo de obra.”

O segundo texto - Porque o Software Deveria Ser Livre? - trata, em linguagem mais dialógica, argumentativa e com exemplos do cotidiano social, das premissas e dos contextos que justificariam na opinião do autor a necessidade, embasada por seus postulados éticos, dos softwares seres livres nas definições já citadas no texto anterior. Stallman busca desconstruir os argumentos daqueles que defendem o modelo do software proprietário5 e ressalta a importância de encorajar o desenvolvimento e o uso de softwares livres. Ao longo do texto diversos exemplos são citados para comparar os campos de produção do software com os campos de produção da vida em sociedade, como em estradas livres de pedágio versus estradas com pedágios, receitas culinárias de conhecimento comum versus receitas cuja formula seria de posse exclusiva de determinados chefes de cozinha criadores, entre outros exemplos. Este texto está dividido em 19 partes, compondo-se estruturalmente como um artigo no qual a última parte encera conclusões. Ressaltamos aqui algumas partes. No trecho "Como os proprietários justificam seu poder" Stallman apresenta os dois argumentos que na sua tese correspondem aos argumentos utilizados por programadores a não aderirem ao modelo de software livre. Segundo ele seriam os argumentos emocionais e econômicos. Ele diz:

"O argumento emocional é mais ou menos assim: 'Eu coloquei meu suor, meu coração, minha alma neste programa. Ele veio de mim, é meu!' Este argumento não requer uma refutação pesada. O sentimento de ligação pode ser cultivado pelos programadores quando lhes convém; não é inevitável. Considere, por exemplo, quão sinceramente os mesmos programadores transferem todos os seus direitos à uma grande empresa em troca de um salário; a ligação emocional misteriosamente desaparece. Contrastando, considere os grandes artistas e artesãos dos tempos medievais, que nem mesmo assinavam seus nomes na sua obra. Para eles, o nome do artista não era importante. O que importava era que o trabalho havia sido feito e o propósito ao qual ele serviria. Esta concepção prevaleceu durante séculos."

Já para o argumento econômico o programador que defenderia o software proprietário estaria propenso a dizer que quer "ganhar a vida [fazendo software]" e que sem isto não haveria produção de softwares. Stallman desconstrói esse argumento dizendo que essa justificativa desvirtua a questão por não considerar a possibilidade de outros modelos de produção. Em o "O argumento contra ter proprietários" Stallman inicia por uma pergunta: “O desenvolvimento de software deveria ser ligado a ter proprietários para restringir sua utilização?” (visto que a função dos proprietários tem sido em algum medida restringir a utilização). Então o autor fundamenta:

“Para que nós possamos escolher, nós temos que julgar o efeito na sociedade de cada uma destas duas atividades independentemente: o efeito de desenvolver software (sem levar em consideração seus termos de distribuição), e o efeito de restringir sua utilização (assumindo que o software tenha sido desenvolvido). Se uma destas atividades ajuda e a outra atrapalha, nós estaríamos melhor descartando esta ligação e fazendo apenas a atividade que ajuda.

Colocando em outras palavras, se restringir a distribuição de um programa já desenvolvido é prejudicial à sociedade como um todo, então um desenvolvedor ético irá rejeitar a opção de trabalhar deste modo.

Para determinar o efeito de restringir o compartilhamento, nós precisamos comparar o valor para a sociedade de um programa restrito (por exemplo proprietário) com o valor do mesmo programa, disponível para todos. Isto significa comparar dois mundos possíveis.


O terceiro texto - Introdução ao Projeto GNU – trata das explicações em torno da criação e dos objetivos do projeto GNU. Com informações bastante próximas de algumas já citadas no texto “O que é software livre?”, este texto contém também detalhes sobre as concepções e o histórico de formação da fusão do projeto GNU com o Linux para a produção das chamadas distros6 GNU/Linux.

Por fim uma questão ao leitor: “Quão longe o software livre pode ir?” A qual a resposta vem na sequencia:

“Não existem limites, exceto quando leis, tais como o sistema de patentes, impedem o software livre. O objetivo derradeiro é prover software livre para fazer tudo aquilo que os usuários de computadores desejam fazer — e assim tornar o software proprietário algo do passado.”


Considerações

Uma tentativa de definição sobre software livre aplicada ao entendimento das ciências sociais pode ser encontrada no livro “Software livre: a luta pela liberdade do conhecimento” do professor, sociólogo e ativista Sérgio Amadeu da Silveira. Ele diz:

“Software livre é um movimento pelo compartilhamento do conhecimento tecnológico. Começou nos anos 1980 e se espalhou pelo planeta levado pelas teias da rede mundial de computadores. Seus maiores defensores são os hackers7, um grande número de acadêmicos, cientistas, os mais diferentes combatentes pela causa da liberdade e, mais recentemente, as forças político-culturais que apoiam a distribuição mais equitativa dos benefícios da chamada era da informação.”

O software livre e a filosofia do movimento que o cerca, conforme indica Sérgio Amadeu, teve seu inicio pelos anos 80. Isto se deu, ao que consta também pelas leituras dos textos acima citados, quando Richard Stallman, o famoso hacker que na época trabalhava no laboratório de Inteligência Artificial do Instituto de Tecnologia de Massachusetts (MIT), começou a empreender ações, publicar artigos e desenvolver programas que tivessem como fundamento primeiro a ideia do espírito clássico da colaboração científica. É dessa época a escrita do Manifesto Software Livre (Manifesto GNU) e da concepção da 1° licença para software de código aberto, a GPL (General Public License ou Licença Pública Geral em tradução livre). O famoso projeto GNU, fundado nessa época também por Stallman, foi o 1° projeto comunitário de Software Livre que agregava diversos aplicativos (softwares). Ao que nos conta. no começo do desenvolvimento dos computadores e das máquinas que necessitavam de softwares para funcionar (décadas de 60, 70 e inicio dos 80), os únicos espaços que detinham conhecimento científico-tecnológico para lidar com programação de softwares eram empresas gigantes como a IBM, Xerox, grandes centros de inteligência acadêmica como o Instituto de Tecnologia de Massachusetts e grandes corporações militares como o exército estadunidense. A ideia de patentes de software ou de software como propriedade privada não existia nos dias atuais. Um programa de computador se compunha quase como parte de uma tecnologia física, de um computador, de uma calculadora, de um robô, etc. O acesso a estas tecnologias, especialmente para fins educativos, era liberado e seu desenvolvimento se dava como nos moldes da clássica colaboração científica na qual toda e qualquer nova descoberta, desenvolvimento e/ou ação era repassado todos aqueles que precisassem. Este cenário, porém, durou pouco tempo pois logo no início dos anos 80 algumas empresas montaram modelos de negócio baseados no cerceamento e contingenciamento tecnológico inventando o software proprietário ou o software privado. Um software privado é um programa de computador fechado, em geral pago e que permite ao usuário apenas a concessão do uso. Diferente do software livre, o software proprietário tem como objetivo o lucro de venda e está inserido dentro da lógica da obsolescência programada8. Neste contexto, como contra-força à mercantilização de um bem que antes era livre e não tinha a necessidade de maiores jurisprudências, nasceu o Software Livre ou para alguns ainda o software de código aberto. Toda essa mudança de paradigma tem influenciado cada vez mais diversas áreas do pensamento. Modelos de educação, de Propriedade Intelectual, o Direito Autoral, as Artes, as Ciências, entre outros aspectos fundamentais que envolvem a existência humana no século XXI passaram a ser influenciados pelo modo “Código Aberto” de operar.

Questões

A noção de software enquanto instrumento de poder, ao que parece, foi identificada por Stallman, mas é pouco difundida ou sequer discutida na sociedade mesmo entre os pares que constroem softwares na atualidade (desenvolvedores, engenheiros de software, programadores em geral). É possível mapear as instâncias de poder que envolvem a construção e os usos dos softwares livres? Elas ficam apenas entre o desenvolvedor e o usuário? Quais seriam os atores envolvidos?

Na perspectiva de um olhar econômico, quais seriam as diferencias sistêmicas do modelo de software livre e de software privado? Por si só esses modelos são capazes de operar mudanças nas estruturas macro econômicas presentes em uma determinada sociedade?

Os potenciais e ativos econômicos estariam melhores distribuídos com algum tipo de cadeia produtiva de software livre?


Autor: Pedro Araújo

O MANIFESTO GNU - Richard Stallman

- Escrito para pedir participação e ajuda no desenvolvimento do GNU.

O Que é o GNU? GNU Não é Unix!

- GNU é o nome para um sistema de software completo e compatível com o Unix. - e espera fornecer tudo de útil que normalmente vem com um sistema Unix, e ainda mais.

Por que eu tenho que escrever o GNU

- Regra de ouro: Compartilhar! - “ [...] se eu gosto de um programa, eu devo compartilha-lo com outras pessoas que gostem dele”.

Como o GNU estará disponível

- “Qualquer um terá permissão para modificar e redistribuir o GNU, mas nenhum distribuidor terá permissão para restringir a sua nova redistribuição”.

Por que muitos outros programadores desejam ajudar

-“O ato fundamental da amizade entre programadores é o compartilhamento de programas; acordos comerciais usados hoje em dia tipicamente proíbem programadores de se tratarem uns aos outros como amigos.” - Com a GNU pode-se ser haver a amizade entre os programadores e também estarem dentro da lei (quando ocorrer os compartilhamentos de informação, de softwares...)

Por que todos os usuários de computadores serão beneficiados

- “todos poderão obter um bom software de sistema gratuitamente, assim como o ar.” - código-fonte disponível para todos. - modificações no sistema será sempre livre. - Questão econômica: Não será preciso assinar contrato e pagar pelo uso de um programa, incluindo a licença.

Algumas objeções facilmente refutadas aos objetivos do GNU

"Ninguém vai utiliza-lo se for gratuito, porque isto significa que não se pode contar com nenhum suporte." "Você tem que cobrar pelo programa para pagar pelo suporte."

- “[...] você pode contratar qualquer pessoa disponível para resolver o seu problema; você não depende de nenhum indivíduo.” - “As empresas de serviços irão competir em preço e qualidade, enquanto que os usuários não estarão amarrados a nenhuma delas em particular. Enquanto isso, os usuários que não necessitam do serviço poderão usar o programa sem ter que pagar pelo serviço.”

"Minha empresa necessita de um sistema operacional proprietário para obter uma vantagem competitiva."

- “Você não será capaz de obter uma vantagem nesta área, mas nenhum dos seus competidores será capaz. Você e eles terão que competir em outras áreas, e se beneficiarão mutuamente nesta área.”

"Os programadores não irão morrer de fome?"

- “Restringir a cópia não é a única base para negócios com software. Ela é a mais comum porque é a que traz mais dinheiro. Se ela fosse proibida, ou rejeitada pelos consumidores, as empresas de software iriam mover suas bases para outras formas de organização que hoje são utilizadas menos frequentemente. Existem várias formas de se organizar qualquer tipo de negócios.” - Os salários dos programadores diminuíram, mas ter salario baixo não é uma injustiça. [Relação com outras profissões que recebem baixo salário] - - “Se alguma coisa realmente merece uma recompensa, é a sua contribuição social.”

"Competição faz com que as coisas sejam feitas melhor."

- “O paradigma da competição é uma corrida: recompensando o vencedor, nós encorajamos todos a correr mais rápido. Quando o capitalismo realmente funciona deste modo, ele faz um bom trabalho; mas os defensores estão errados em assumir que as coisas sempre funcionam desta forma. Se os corredores se esquecem do porque a recompensa ser oferecida e buscarem vencer, não importa como, eles podem encontrar outras estratégias -- como, por exemplo, atacar os outros corredores. Se os corredores se envolverem em uma luta corpo-a-corpo, todos eles chegarão mais tarde. [...] Software proprietário e secreto é o equivalente moral aos corredores em uma luta corpo-a-corpo.”

"Não irão todos parar de programar sem um incentivo monetário?"

- “Não há falta de músicos profissionais que se mantém na carreira mesmo quando não há esperança de se ganhar a vida desta forma.” - “Não se deixará de pagar para os programadores, apenas se pagará menos. Então a questão é, alguém irá programar com um incentivo monetário reduzido? Minha experiência mostra que sim.”

"Os programadores tem que ganhar a vida de algum jeito."

- Vender o direito de uso de um programa [...] é comum hoje porque ele traz aos programadores e aos homens de negócios o máximo em dinheiro, não porque é o único modo de se ganhar a vida. - Exemplo: - Financiamento com um Imposto do Software. X por cento do preço do computador é o Imposto do Software. Esse imposto é destinado para desenvolvimento de softwares.

Autor: Renato Racin

Software Livre é questão de liberdade, não de preço

Por Software Livre (SL) devemos entender: liberdade e senso de comunidade. Liberdade de executar, copiar, distribuir, estudar, mudar e melhorar o software.

Controle do programa é controle do usuário

O software não-livre e proprietário exerce um instrumento de poder injusto. O desenvolvedor controla o programa, e por meio dele, controla o usuário.

4 liberdades essenciais para um programa ser SL:

executar programa para qualquer propósito - o usuário é livre para rodar o programa para seus propósitos, sem a necessidade de comunicar a ninguém e nem impor seus propósitos caso distribua a outra pessoa.

estudar e adaptar o programa às suas necessidades - liberdade de usar sua versão modificada no lugar da original.

redistribuição de cópias - incluídas formas executáveis ou binárias do programa e o código-fonte.

distribuição de cópias modificadas - dar a comunidade a chance de beneficiar suas mudanças

Acesso ao código-fonte é uma condição necessária para o SL. Para que as liberdades sejam reais é preciso que sejam permanentes e irrevogáveis. Licenças restritivas não são qualificadas como livres.

Regras de distribuição do software

Projeto GNU utiliza Copyleft: “quando redistribuindo um programa, você não pode adicionar restrições que neguem as liberdades centrais de outras pessoas”. Liberdade de usar, modificar e redistribuir o programa se os termos de distribuição não forem modificados. O copyleft é utilizado para proteger legalmente as liberdades, servindo para encorajar o software livre.

Software livre é diferente de “não comercial”

Um SL pode estar disponível para o uso comercial, ou seja, a liberdade de vender cópias. Software comercial livre é uma contribuição para a comunidade, sendo que software comercial não pode ser considerado “não livre”. Pequenas regras são aceitáveis: mudar nome da versão modificada, remover logo ou identificar alterações como suas, desde que essas regras (modificações) não impeçam a distribuição de suas mudanças.

Questão de Liberdade

SL não significa “de graça”. SL não se trata de preço, mas de questões que envolvem a liberdade (executar, copiar, distribuir, estudar, mudar e melhorar o software).


Porque o software deveria ser livre – Richard Stallman

Introdução

Pela lei atual, o programa tem um proprietário. Os efeitos de ter proprietário são malignos, sempre tentando maximizar o lucro dos desenvolvedores. Programadores devem encorajar o software livre, respeitando a liberdade individual como a produção de bens materiais.

Como os proprietários justificam o seu poder

Dois argumentos: emocional e econômico. Falácia em opor software proprietário à inexistência do programa, assumindo que não existem outras possibilidades.

O argumento contra ter proprietários

- Efeito de desenvolver software (sem levar em consideração seus termos de distribuição); - Efeito de restringir sua utilização (assumindo que o software tenha sido desenvolvido).

Restringir a utilização de um programa já desenvolvido é prejudicial, um desenvolvedor ético rejeitará este modo de trabalhar. Comparar o valor de um programa restrito e um programa disponível para todos. “Isto significa comparar dois mundos possíveis”. Contra-argumento de “o benefício ao próximo de lhe dar uma cópia de um programa é cancelado pelo dano feito ao proprietário.” Analisar essas duas grandezas mostra que o benefício é maior.

O dano causado por software obstruído

Decidir pelo software proprietário ou de livre uso e compartilhamento, depois de todos os pagamentos para o seu desenvolvimento tenham sido feitos. Restrições na distribuição e modificação do programa não facilitam seu uso e implicam em três níveis de danos materiais: 1) menos pessoas usam; 2) nenhum usuário pode adaptar ou corrigir programa; 3) outros desenvolvedores não aprenderão a partir do programa, nem se basear para um novo trabalho. Cada dano material implica em um efeito posterior no seu relacionamento em sociedade, podendo ter conseqüências materiais. (efeito psico-social). Não existem limites que o desenvolvimento de um software proprietário pode causar.

Obstruindo o uso de programas -

“O primeiro nível de dano impede o simples uso do programa”. Muito menos pessoas utilizarão um programa se for proprietário. Contribuição para a sociedade é reduzida quando atribuído um proprietário. Quando se escolhe pagar por um software há uma distribuição de riquezas entre duas partes, mas quando não se escolhe pagar ninguém é beneficiado, causando dano a pessoa. “A soma dos números negativos e zeros deve ser negativa” Ao abrir mão de uso do programa não se reduz o montante de trabalho no desenvolvimento do programa, reduzindo a eficiência do processo total. Diferença entre cópia de programas e cópia de objetos materiais. Programas são fáceis de gerar cópia e não demanda matéria prima; é facilmente copiado. “Impor um preço em algo [software] que de outro modo seria gratuito é uma mudança qualitativa”. A produção centralizada é um desperdício causado por ter proprietários.

Obstruindo a adaptação personalizada do programa

“O segundo nível de dano material é a impossibilidade de adaptar programas”. Facilidade em adaptar software é a vantagem em relação às tecnologias mais antigas. Maioria dos softwares comerciais estão disponíveis para compra-los e não modificá-los. Código fonte é útil para qualquer usuário, mas a maioria não tem acesso. Programas proprietários evitam que as pessoas aprendam a partir deles, somente o proprietário pode alterá-los. Com o acesso ao software, se utilizando um SL, é possível adicionar funcionalidades convenientes. Com o monopólio das alterações tende a elevar o preço dos softwares.

Obstruindo o desenvolvimento do software

“O terceiro nível de dano material afeta o desenvolvimento do software”. Desenvolvimento de software costumava ser um processo evolutivo. Reescrevendo partes do programa para obter novas funcionalidades, formar princípios de outros programas. O sistema proprietário necessita de se começar a programar o software do zero, obstruindo o aprendizado e o desenvolvimento de novas técnicas.

O software deveria ser livre

Software proprietário restringe alterações e cópias, sendo obstrusivo, torna-se um substituto pobre ao SL.

Porque as pessoas irão desenvolver software

Eliminando a propriedade intelectual menos softwares serão produzidos no início, mas serão mais úteis. Retirar a possibilidade de grandes riquezas reajustaria a atitude dos desenvolvedores que trabalhariam na área “pelo prazer da conquista”. “Programadores de SL podem ganhar a vida vendendo serviços relacionados ao software”. Empresas fornecem suporte comercial para software livre; indústria de suporte ao software independente. Fundações podem pagar desenvolvedores com o dinheiro obtido nas vendas dos softwares ou doações de fabricantes. Satisfação em saber que o trabalho não foi obstruído, a desburocratização e a diversão em programar fazem com que não tenham medo de que ninguém queira programar.

O que os usuários devem aos desenvolvedores?

Programadores estão contribuindo para atividade dos usuários, sendo assim os usuários, mesmo que a longo prazo, sentirão uma obrigação moral em contribuir. Não se aplica ao software proprietário que desestimula com seu obstrucionismo. Paradoxo: pode merecer ou exigir a recompensa, mas não ambos. Um desenvolvedor ético irá merecer a recompensa, mas solicitará donativos voluntários, sem coerção.

O que é produtividade de software?

Uso amplo; habilidade de adaptar ao invés de começar do zero; educação dos programadores; eliminação do esforço de desenvolvimento duplicado. Produtividade de software pode significar produtividade geral de todo o desenvolvimento ou a produtividade e projetos individuais. Eliminando obstáculos artificiais à cooperação aumenta a produtividade geral. Cooperação é produtividade melhorada.

A competição é inevitável?

Competição pode estimular, diferenciando-se de combate, que torna-se prejudicial. Combate existe quando um tenta impedir o outro de avançar. Comparação entre o sistema de centralização de cópias soviético com o sistema de propriedade intelectual dos Estados Unidos para evitar cópia ilegal. Cooperação voluntária e descentralização (desenvolvimento coletivo e liberdade individual – ideologia californiana)

A questão das premissas

O usuário de software não é menos importante que o autor. Essa premissa não é universalmente aceita, elevando a importância do desenvolvedor acima da do usuário, sem contar como isso pode afetar o público.

Conclusão

Ao recompensar alguém por seu obstrucionismo estamos enviando uma mensagem oposta ao auxílio mútuo. “Este espírito anti-social alimenta a si mesmo; porque quanto mais nós vemos que outras pessoas não irão nos ajudar, mais nos parece fútil ajudá-las. Assim a sociedade vai decaindo até se tornar uma selva”. É preciso mudar as atitudes, sendo que o movimento pelo Software Livre estimula e encoraja a cooperação voluntária.

Visão Geral do Sistema GNU

“Quão longe o software livre pode ir? Não existem limites, exceto quando leis, tais como o sistema de patentes, impedem o software livre. O objetivo derradeiro é prover software livre para fazer tudo aquilo que os usuários de computadores desejam fazer — e assim tornar o software proprietário algo do passado.”

GNU é um acrônimo de GNU's Not Unix (GNU não é Unix). Stallman anuncia projeto em setembro de 1983. Em 1985 é publicado o Manifesto GNU. SL se refere à liberdade, não a preço. Pagando ou não pelo software você possui quatro liberdades essenciais: “a liberdade de executar o programa como você desejar; a liberdade de copiá-lo e dá-lo a seus amigos e colegas; a liberdade de modificar o programa como você desejar, por ter acesso total ao código-fonte; a liberdade de distribuir versões melhoradas e, portanto, ajudar a construir a comunidade”

Concebido em 1983, o Projeto GNU (que desenvolve o Sistema GNU) tem como princípio a volta do espírito cooperativo em detrimento dos obstáculos impostos pelos donos de software proprietário.

Diferente dos anos 70, quando até empresas de informática distribuíam software livre, nos anos 1980 a maioria dos softwares eram proprietários, tornando o Projeto GNU necessário. Optou-se por desenvolver um sistema operacional livre para não ter que recorrer a um software proprietário ao usar um computador.

O sistema foi baseado no Unix pela compatibilidade dos usuários migrarem para o GNU. O projeto começou em 1984, sendo que em 1985 foi fundada a FSL (Free Software Fundation) para levantar fundos e ajudar a desenvolver o GNU. Em 1991 Linus Torvalds desenvolveu um kernel (núcleo do sistema – ponte entre hardware e software) do tipo Unix transformando-o em SL em 1992, resultando no sistema GNU/Linux.

O Projeto GNU não se limita ao kernel do sistema operacional, mas inclui também aplicativos livres e softwares para usuários não-especialistas. É desenvolvido o ambiente gráfico GNOME para iniciantes no sistema GNU. Também são desenvolvidos jogos livres (Open Arena!!!)

Lawrence Lessig - Cultura Livre - cap.10. Propriedade[editar | editar código-fonte]

Autor: William Marinho Introdução

O texto relata a questão da propriedade intelectual vista do âmbito da lei do copyright, e com advento da internet, os desdobramentos e influências que o copyright tem exercido com esta tecnologia. Nessa perspectiva, Lawrence Lessig demonstra uma análise comparativa dos efeitos do copyright antes e depois do advento da Internet. O ponto específico do autor é qual a influência da lei do copyright com o advento da internet para a criatividade e para a Cultura Livre. A evolução da questão do copyright no decorrer da história e as leis que foram criadas e reformuladas para esse fim, é o ponto de partida do texto. Para o autor “a criatividade depende dos donos de criatividade terem menor controle sobre suas obras” (pg. 107). Desta forma, compreender como o acesso e o uso de uma obra se torna possível é fundamental. Segundo ele, a Constituição americana definiu os direitos e limites da propriedade intelectual, definindo que toda produção cultural tenha um limite de tempo, no qual após esse período a obra seria passada ao domínio público. Toda regulamentação depende da relação de quatro modalidades: as Leis (cuja punição pela transgressão é realizada pelo governo), as Normas (cuja punição pela transgressão é dada pela comunidade), o Mercado (economicamente, o mercado impõe restrições no comportamento de usuários, produtores, editores e etc.), e a Arquitetura (restrições do mundo real). Essas modalidades de regulamentação interagem entre si, influenciando o impacto que o copyright possui sobre as pessoas. O objetivo do autor não é apontar que a propriedade intelectual e os direitos por leis garantidos estejam errados, mas criticar como a defesa desses direitos por meio do copyright tem sido feito, diminuindo um ambiente que propicie a criatividade.

10.1 Por que Hollywood está certa

Antes da internet, a lei do copyright possuía um equilíbrio, tendo por base as quatro modalidades de regulamentação. Com o advento da rede, a amplitude do uso de uma produção cultural é imensa, tornando a lei copyright ineficiente na internet. A conseqüência foi uma pressão pelas grandes empresas para o governo aumentar a legislação bem como o controle do copyright com o advento da tecnologia. Entretanto, o autor enfatiza que, conforme a Constituição, o aumento da proteção da propriedade intelectual não pode prejudicar a criatividade e a livre produção cultural.

10.2 Começos

A limitação do tempo da propriedade intelectual teve como princípio, na Constituição americana, a promoção do Progresso e da Ciência, e seu efeito foi o equilíbrio entre os interesses dos autores de uma produção com as editoras e distribuidores dessas produções.

10.3 Lei: Duração

A lei do copyright no decorrer da história, especificamente a limitação do tempo e uso desse direito, teve algumas alterações. Em 1790, o tempo do copyright era de apenas 14 anos, prorrogáveis, caso houvesse renovação, por mais 14 anos. No século XX algumas mudanças foram realizadas, no qual atualmente o copyright não possui mais o período inicial e de renovação, mas apenas um período único. Atualmente o tempo médio de um copyright é de 95 anos.

10.4 Lei: Escopo

A gama de direitos (escopo) que a lei do copyright abrangia também teve alterações no decorrer da história. Em 1790, a lei protegia apenas mapas, gráficos e livros. De acordo com o autor “de modo geral, os direitos cobrem atualmente praticamente todos os trabalhos criativos que podem ser reduzidos a um resultado tangível, cobrindo igualmente de música, a arquitetura, de peças teatrais e programas de computado” (pg. 122). Além disso, o copyright atual possui maior amplitude, já que a restrição não se dá apenas na cópia de uma obra, mas estende-se também a obras derivativas influenciadas pela obra original. No início da lei, uma obra estaria sobre a proteção do copyright a partir do momento que fosse registrada para tal fim, recebendo a marca da lei do copyright. No presente, qualquer obra, independente de registro, está sobre a proteção do copyright. Em referência às obras derivativas de uma produção, antes não existia a restrição da lei, mas nos dias atuais estas são restritas, necessitando de autorização e permissão expressa do autor original para serem realizadas. Para Lawrence Lessig a conseqüência dessa amplitude é a inibição da criatividade.

10.5 Lei e Arquitetura: Alcance

Se em 1790 o alcance da lei era principalmente os editores, no presente ela regulamente autores, editores e usuários. O copyright foi desenvolvido no princípio para coibir as cópias de uma obra, mas permitia dois tipos de usos: os usos não restritivos pela lei (como as obras derivativas) e os usos justos (como a leitura de um livro, ou o empréstimo desse livro a um amigo). Na internet, o poder da lei se estende, pois “como cada uso da internet gera cópias de conteúdo, o uso da internet torna-se sujeita ao controle do detentor do copyright. A tecnologia expande o escopo do controle efetivo, já que a tecnologia cria uma cópia do material a cada transação” (pg. 132). Desta forma: “Permitir que a tecnologia amplie o controle exercido pelos detentores do copyright significa que o controle do copyright não é mais definido por políticas equilibradas. O controle do copyright agora é simplesmente aquele que os donos privados decidirem exercer. Em alguns contextos, ao menos, esse fato é inofensivo. Mas em outros contextos, ele é uma receita para o desastre” (pg. 132).

10. 6 Arquitetura e Lei: Força

A força da lei na internet torna-se muito mais eficiente. Para o autor, as regras dessa regulamentação passam a ser exercidas pelas máquinas, e não mais pelas pessoas, ou seja, as regras são embutidas na tecnologia, tornando esse processo um código que determina a regulamentação de uma obra. Como exemplo, é apresentado o exemplo de um e-book. A obra de Alice no país das Maravilhas, já esta em domínio público, já que o período do seu copyright já terminou. Entretanto, ao utilizar um e-book desse livro, a tecnologia permite que algumas restrições sejam impostas, conforme o interesse do distribuidor. No caso, o programa de e-book da empresa Adobe possibilita que algumas permissões (como imprimir páginas de um livro, ou a leitura em voz alta pelo computador, ou ainda sua cópia), sejam restritas, mesmo que o copyright já tenha se expirado. Ou seja, são controles impostos por meio da tecnologia. Esse poder também abrange o campo da música e de obras derivativas. No caso, todo esse processo demonstra que a tecnologia torna-se um meio pelo qual o uso justo pode ser eliminado, conforme os interesses econômicos do mercado (empresas, editores, autores e etc.).

10.7 Mercado: Concentração

Além de todas as mudanças que a lei do copyright teve e a influência que ela exerce com o advento da internet, outro aspecto relevante para o autor é que nos últimos 30 anos, a concentração das mídias como emissoras de TV´s, Rádios, Jornais, aumentou, formando grandes conglomerados proprietários dos meios de comunicação. A concentração dos meios de comunicação permitiu uma mudança na relação da produção com a distribuição de uma obra. Antes, a lei exigia uma separação entre esses dois elementos (produção e distribuição). Atualmente, como a produção é oriunda da empresa que a distribui, o impacto na produção independente (e na criatividade), é enorme, já que a emissora só irá reproduzir aquilo que lhe convém. Sendo assim: “Se um pequeno grupo de companhias controla o acesso à mídia, e se esse pequeno grupo de companhias decide o tipo de posições políticas que serão promovidas em seus canais, então, de uma forma óbvia e importante, a concentração preocupa. Você pode gostar das posições selecionadas pelo pequeno grupo de companhias. Mas você pode não gostar nem um pouco de um mundo aonde alguns poucos decidem sobre que assuntos o resto de nós ficará sabendo” (pg. 152).

10.8 Juntos

Diante da realidade atual do copyright com o advento da tecnologia, o autor propõe algumas mudanças que poderiam restituir o equilíbrio da propriedade intelectual com o uso da tecnologia. A primeira delas é a diminuição do controle que o copyright alcança com a tecnologia. A segunda é a permissão para a criação das obras derivativas (já que estas são propulsoras para a criatividade), e a transformação não comercial. Por fim, o copyright não é um inimigo, ou um problema. A regulamentação que não produz nenhum bem é que deve ser combatida.


Questionamento com base no texto?

Qual a influência do copyright para a produção e compartilhamento de um Software Livre? Quais os impactos políticos da concentração dos meios de comunicação no Brasil?


Autor: Erika Sigg

Nesse trabalho o autor questiona as leis de direitos autorais, o copyright;qual significado de propriedade quando nos referimos à propriedades intelectuais e que ponto chega o copyright com as novas tecnologias e com a internet. A idéia de copyright surge na legislação como intuito de evitar que editoras tenham poder excessivo sobre as publicações e obras e dessa forma controlem a cultura. Assim, inicialmente, o copyright era aplicado somente àqueles autores que procurassem o registro e seria válido por um tempo definido na legislação (inicialmente 14 anos, mas foi modificado de tempos em tempos) podendo ser prorrogado por mais algum tempo, caso houvesse interesse do autor. Após esse tempo de exploração comercial o trabalho torna-se domínio público e então pode ser publicado, copiado, utilizado sem a necessidade de gerar gastos com o autor. Muitas pessoas, como Jack Valenti, presidente da Associação Cinematográfica da América, argumentam que donos de propriedades intelectuais deveriam ter os mesmos direitos que quaisquer outros proprietários. E discutir propriedade nos Estados Unidos da América é algo sério, pois é uma cultura de extrema valorização da propriedade. Mas a Constituição, apesar de não negar o fato que de que há uma propriedade intelectual, não concede os mesmos direitos que qualquer outro proprietário. A princípio pode parecer uma idéia ilógica dentro de um sistema capitalista diferenciar propriedades, mas a Constituição estava apenas procurando uma forma de promover desenvolvimento cultural sem prejudicar o autor. Veremos no decorrer do texto que as grandes corporações utilizam-se da tecnologia para levar as leis do copyright ao extremo. Dessa forma, a idéia é “não se a propriedade intelectual deve ser defendida, mas sim como” (pág. 108) Existem quatro formas de regulamentação: a lei, o mercado, a norma e a arquitetura. A lei é a restrição que irá punir caso a regulamentação seja violada, é imposta pelo Estado. A norma não é estabelecida pelo Estado, mas sim pela comunidade e as regras sociais, e a punição pode ser mais ou menos grave que as punições garantidas pelo Estado. A questão aqui é a garantia de cumprimento da punição. O mercado é outra forma de restrição e é dado por restrições, se pagar um determinado valor terá determinada mercadoria. Claro que as leis de propriedade regulam o mercado, assim como as normas, mas é inegável o fato de que o mercado dita como grupos de indivíduos devem se comportar. Por fim a arquitetura, que impõe suas restrições antes delas aconteceram (diferente das leis que punem posteriormente). Envolve as questões físicas do ambiente onde vivemos, que podem impedir fisicamente algo de acontecer. As quatro modalidades interagem entre si e podem reforçar ou minar a outra. Após surgir a Internet, esse equilíbrio é modificado, pois a arquitetura, as restrições do mercado e as normas se afroxam. É baseado nisso que os ativistas do copyright pedem mudanças na lei, para acompanhar as mudanças tecnológicas. O departamento de negócios prepara um documento com uma estratégia definida para novamente se alcançar o equilíbrio. A questão é: o governo deve criar leispara garantir o interesse de uma parte do mercado? Seria como proibir a máquina fotográfica digital para a Kodak não perder seu mercado de filmes fotográficos. Nesse contexto as novas ideias e novos competidores nunca serão aceitos, pois devem lutar contra os competidores e o governo. Portanto é função dos legisladores garantir que essas leis não sejam feitas para garantir o progresso. O autor coloca o conceito de “ambientalismo cultural”, no qual deve se manter o equilíbrio; e tentar proteger o copyright a qualquer custo pode gerar consequências inimagináveis no contexto cultural. Como dito no início desse texto o copyright quando criado tinha o objetivo de não garantir que o mercado cultural não fosse dominado pelas editoras. Por isso as obras de copyright deviam ser procuradas pelos seus autores para garantir a proteção caso houvesse interesse comercial, e a renovação viria apenas se esse interesse ainda existisse depois de alguns anos. Com as mudanças da legislação esse tempo de copyright começou a se estender cada vez mais, fazendo com que cada vez menos obras entrassem em domínio público e por fim o copyright passou a ser automático para qualquer obra, independente da requisição do autor. Assim o tempo para a passagem das obras para domínio público foi bastante atrasado. O que modificou muito também foi o escopo do copyright. “o ‘escopo’ de um copyright é a gama de direitos garantidos a eles garantidos por lei. Inicialmente referia-se apenas às obras originais, impedindo que fossem copiadas, mas após algum tempo passam também a se referir às “obras derivativas”, por exemplo adaptações de livros para a linguagem teatral. Mas dentro da lei do copyright, que tem como foco principal evitar a cópia, existe o que chamam de “uso justo”, ou seja, algumas situações nas quais posso copiar o autor sem infringir a lei do copyright. Desse texto por exemplo, uso citações do autor sem seu conhecimento mas não estou cometendo algo contra lei, porque me enquadro no ‘uso-justo’. E então surge a internet, na qual o simples uso do trabalho já gera uma cópia. Então a lei do copyright, feita muito antes da possibilidade do amplo acesso à internet, tem seus escopos dramaticamente modificadas. Quando você compra um livro pode lê-lo quantas vezes você quiser, porque a leitura de um livro não gera cópias. Agora um e-book pode ser controlado o número de leituras pelo detentor do copyright, porque cada leitura gera cópias; e essa limitação ainda é respaldada pela lei. A mudança de arquitetura faz com que a lei do copyright mude de foco, e agora quem define são os interesses de donos privados. O autor utiliza o exemplo o Adobe eBook Reader. Para cada e-book há diferentes permissões, assim alguns livros poderão ser lidos um x números de vezes em y tempo. Outros tem a impressão limitada, por exemplo, dez páginas a cada cinco dias. Outros ainda não possuem ao menos o recurso de leitura em voz alta do texto. E essas limitações do cpyright não são mais executadas pelo juiz em caso de um descumprimento. Esses descumprimentos simplesmente não acontecem porque o programador já o impediu antes de acontecer. Se não há permissão para ler o livro mais do que cinco vezes, na sexta vez o computador simplesmente não abrirá o texto. Isso não é permissão. É controle! O medo de que o ciberespaço tivesse acabado com a proteção da lei do copyright fez com que novas tecnologias fossem criadas. O Digital Millenium copyright Act – DMCA veio como resposta a esse medo. A DMCA proibia os dispositivos que eram criados para contornar os copyright. Não interessava se estavam dentro da idéiade ‘uso justo’ previsto em lei. Elas eram proibidas e pronto. Em 1981 uma corte na Califórnia chegou a proibir o videocassete, pois este permitia a cópia de imagens sem a permissão do detentor do copyright. Com os códigos a tecnologia elimina o ‘uso-justo’ e DMCA pune os que tentarem driblar os códigos para utilizar-se do ‘uso-justo’. Existe ainda mais um ponto quando tratamos da questão da arquitetura no ciberespaço. Com a tecnologia é cada vez mais fácil identificar aqueles que estão forjando a lei do copyright através de rastreamentos tecnológicos. A lei do copyright torna-se extremamente eficiente, porém dentro de um contexto modificado de quando ela foi criada. Há ainda mais um ponto, o da concentração dos meios de comunicação. Cada vez mais as mídias estão nas mão de cada vez menos companhias. A concentração dos meios de comunicação faz com que a cultura seja cada vez mais controlada. Apesar do numero de canais de TV terem aumentado, os seus donos diminuíram, conseguindo passar uma informação de acordo com seus interesses de uma forma cada vez mais segura e com poucas posicionamentos contrários. E a lei do copyright teve uma mudança que ajuda essa concentração. Primeiramente o copyright de um programa era de seu produtor e não da companhia, o que permitia que produtoras independentes criassem programas e procurassem um canal para comprar o formato. Após uma mudança da lei as companhias podem deter copyright de programas, fazendo com que as produtoras independentes sumam; além de que, essas produtoras ficam rendidas aos donos da mídias, porque são poucas as opções de “compradores” dos formatos, obrigando-as a se enquadrar nos desejos das companhias e limitando o processo criativo. Essa concentração de mídias também trás problemas de veiculação de notícias, que cada vez está reduzido às mensagens que as companhias desejam passar. É a conhecido no mundo jornalístico de agenda settingou agenda de notícias, a mídia decidindo o que devemos assistir, quais notícias devemos saber e até quando. Assim as redes de TV criaram,or exemplo, a política de não passarem anúncios controversos. Logo, o que é anpuncio do governo é válido, e o que é contra o governo torna-se controverso, a ponto de as estações de TV se negaram a passar vídeos que contradigam campanhas governamentais. O autor defende um mundo de cultura livre. Assim apóia os copyrights enquanto interesse comercial inclusive para retorno financeiro ao seu detentor, mas apenas por um tempo, para que torne-se domínio público posteriormente. É claro que essa forma não é interesse para o mercado nem para os capitalistas da cultura. Mas a lei quando é criada é justamente para evitar a concentração nas mãos do mercado editorial. Isso não quer dizer que o mercado conformou-se com essa condição. Com o surgimento da internet a lei do copyright poderia se extinguir e na luta contra a pirataria a lei do copyright toma o rumo inverso, e acaba por tornar-se mais rígida – ao, na prática, por exemplo, eliminar o uso justo. Quem aproveita-se dessa rigidez e fácil aplicabilidade das leis do copyright são os capitalistas da indústria cultural - nem os artistas nem o consumidor de cultura. E essa indústria cultural controla cada vez mais o que devemos ler, assistir, ouvir, gostar. Fazendo o caminho inverso das leis do copyright de quando foram criadas – que era justamente evitar cópias, mas não permitir o controle do mercado editorial sobre a cultura. Mas acho inocência ausentar o governo dessas mudanças, como pareceu fazer o autor, que várias vezes elogia a Constituição que não tinha interesses em uma cultura que não fosse livre, uma vez que trata-se de uma democracia. Em épocas de neoliberalismo avançado economia e Estado se apoiam. “A oportunidade de criar e transformar é enfraquecida em um mundo aonde a criação exige permissão e a criatividade precisa ter a participação de um advogado” (pág. 156)

Yochai Benkler – Cap.1 - A Riqueza das Redes[editar | editar código-fonte]

Autor do resumo: Lucas Jardim

Partindo da premissa de que as tecnologias digitais engendram mudanças estruturais na organização da produção de informação, Benkler contrapõe dois tipos de economia: de um lado, as economias industriais, pautadas pela lógica de mercado, pela noção de propriedade e limitadas pelas imposições físicas do capital; de outro, as economias em rede [networked economies], não orientadas para o mercado, baseadas fortemente em ações individuais ou comunitárias, mas que se afastam da ideia tradicional de propriedade na medida em que reconhecem o caráter coletivo e participativo da construção do conhecimento. Neste último tipo de economia, a ação individual descentralizada neutraliza, em grande parte, as restrições materiais estabelecidas pelos sistemas de comunicação em massa [mass media], possibilitando que indivíduos interajam de “seres humanos para seres humanos”, não como “atores do mercado pelo sistema de preços”. Esta descentralização é tornada possível, ou ao menos catalisada, pelo desenvolvimento das tecnologias da computação. O autor atribui, assim, notório papel para o desenvolvimento tecnológico e sua capacidade de estabelecer parâmetros para as mudanças nos modelos de organização social e de ação individual, buscando evitar, contudo, um determinismo tecnológico à la MacLuhan, mas também uma concepção “totalmente maleável” das mudanças tecnológicas.

Seguindo o argumento do autor, a economia da informação do século XXI é, portanto, fundada neste modelo radicalmente diferente do padrão hegemônico que vigorou ao longo de boa parte do século XX. A “imposição” de conteúdos culturais para determinados públicos consumidores e a limitação que a lógica do capital historicamente colocou para uma produção livre de informação dão lugar a novas oportunidades de produção de conhecimento entre pares [peer production], troca de experiências culturais, livres da mediação do mercado e mais próximas de um modelo colaborativo no qual os indivíduos exercem papéis mais ativos neste processo. A noção de propriedade não é eliminada, mas flexibilizada por um regime de commons: o exemplo de uma estrada na propriedade do vizinho, que eu ou qualquer um pode usar embora não deixe de pertencer ao vizinho, é bastante ilustrativo.

No entanto, Benkler reconhece que, evidentemente, na contramão da tendência de descentralização há uma série de interesses daqueles que historicamente detiveram os oligopólios sobre os meios de comunicação, o que gera uma “batalha na ecologia institucional dos ambientes digitais”. Ou seja, os setores industriais da produção de informação, que historicamente detêm maior poder e maior capital, articulam estratégias que controlem e disciplinem a produção do conhecimento, fortemente apoiadas sobre a lógica de mercado e ideia de propriedade intelectual, adaptando e cooptando modelos de produção descentralizada. O autor reconhece que o momento histórico em que nos encontramos é de contingência, em que disputas e conflitos são travados em torno da produção de informação. Cabe àqueles que acreditam em maior “liberdade”, “justiça” e “desenvolvimento humano” posicionarem-se nesta batalha, evitando que “os vencedores de ontem ditem os termos da concorrência econômica de amanhã”, o que seria “desastroso”. Eis, para o autor, o grande desafio da sociedade contemporânea, ao qual não há garantia de sucesso. Trata-se, desta maneira, de uma aposta do autor no poder de gerar mais “liberdade e justiça” que uma produção descentralizada do conhecimento e da informação possui.

Com base nesta aposta, é possível mapear o debate mais amplo em que o autor se insere, e de que maneira este se posiciona. O próprio título do livro – A riqueza das redes – sugere claramente uma posição política, na medida em que remete ao clássico de Adam Smith, A riqueza das nações, obra canônica da tradição liberal. Em outras palavras, o autor explicita sua “filiação” ao pensamento liberal, opondo-se todavia (com o uso do trocadilho no título) às concepções mais tradicionais, industriais e centradas na nação, e aproximando-se de uma concepção liberal pautada pela ideia de rede, em um cenário global. Distancia-se, ainda, de uma abordagem “comunitarista ou crítica”. Mais especificamente, fica claro este distanciamento em relação a uma perspectiva comunitarista na exposição acerca do individualismo metodológico (3ª consideração metodológica): o autor concebe as reivindicações individuais como uma “âncora moral para considerar a estrutura de poder e as oportunidades”. Ancorado no indivíduo, portanto, Benkler empreende uma crítica ao papel que o Estado tem tradicionalmente exercido, garantindo respaldo aos interesses mercadológicos da grande indústria. O autor não se opõe essencialmente à ideia do Estado, mas tem uma objeção fundada em um “diagnóstico prático das oportunidades”, ou melhor, das barreiras que o Estado impõe para a ação individual. Em outras palavras, a perspectiva do autor está fundamentada mais na aposta na eficácia e na centralidade do indivíduo; daí sua opção por posições claramente liberais.

Por outro lado, se o comunitarismo não está no horizonte do autor, Benkler abandona qualquer tipo de referencial crítico, o que fica particularmente evidente nas discussões sobre autonomia. A autonomia, para ele, é conceituada a partir da “experiência prática vivida, ao invés de uma concepção formal preferida por muitos que pensam a autonomia como um conceito filosófico”. Uma concepção semelhante pode ser encontrada na defesa da internet como uma ferramenta democratizante: “É importante entender que qualquer consideração dos efeitos democratizantes da internet devem medir seus efeitos comparados à esfera pública baseada na comunicação comercial, em massa, não comparada a uma utopia idealizada à qual aderimos uma década atrás sobre como a internet deveria ser”. Os trechos deixam evidente o distanciamento de uma reflexão crítica sobre a possibilidade emancipatória em um sentido mais amplo, o que limita o debate do autor a um embate político claramente circunscrito.

Se esta definição clara do posicionamento político de Benkler garante uma proposta de ação bastante concreta perante o problema colocado pela oligopolização da produção de informação – parece razoável que um modelo econômico em redes, teoricamente, possui a capacidade de romper com o controle centralizado sobre o conhecimento produzido –, o distanciamento de uma abordagem crítica empobrece o diagnóstico sobre a situação e as perspectivas deste sistema de produção de informação hoje. A dicotomização tipológica praticamente estanque entre uma produção industrial e uma produção em rede não permite compreender as contradições e os movimentos dialéticos entre estes dois tipos de economia; ou seja, não permite enxergar os movimentos de reestruturação do capital industrial diante dos novos “desafios” colocados ao establishment – a história da economia política dos meios de comunicação nos mostra que, grosso modo, a indústria tende a se adaptar de maneira surpreendente a invenções que, antes da cristalização de seus usos correntes, possuíam um potencial verdadeiramente enorme de democratização da comunicação.

Ademais, a concepção liberal de liberdade na qual Benkler se apoia para a análise da internet parece reproduzir uma confusão entre liberdade de consumo e liberdade, no sentido filosófico do termo. Pois se, a internet de fato democratiza a comunicação – o que, em si, é um fato discutível se nos debruçarmos sobre os usos desta tecnologia, embora Benkler argumente que mecanismos de interação online e de recomendação descentralizem o acesso aos grandes sites pela criação de “comunidades de interesse” -, democratiza-se o consumo de determinados tipos de conhecimento, de informação, de cultura, mas não toda a cultura, no sentido sociológico-antropológico do termo. Novamente, a análise de Benkler é relevante para um posicionamento contra a grande indústria, mas deficiente em um diagnóstico analítico-crítico mais amplo. O que equivale a dizer que há, de fato, uma riqueza potencial das redes, riqueza esta que está longe de se consolidar se olharmos aos jogos de poder entre diversos agentes, distribuídos de maneira tão desigual nas hierarquias do espaço social global.

Imre Simon e Miguel Said Vieira: Propriedade Intelectual e a Emergência da Produção Sociais[editar | editar código-fonte]

Autora resumo: Angelina Moreno


EMERGÊNCIA DA PRODUÇÃO SOCIAL

No curto período de bloqueio brasileiro ao portal YouTube, uma vaga movimentou-se. A MTV, emissora onde trabalha uma das protagonistas da crise, recebeu mais de 80 mil mensagens de protesto, em apenas um dia de bloqueio [G1]. Antes mesmo que o bloqueio fosse efetivado, já havia sido criado um blog que propunha ações de “boicote” à protagonista. [...] Vemos, nas duas faces desse exemplo, as características principais da produção social mediada pela Internet. A emergência desse novo tipo de produção será o tema desta seção. (1-2)

Por meio do exemplo deste episódio, Simon e Vieira introduz a temática central desse artigo, a saber, a que além deste fenômeno não ser raro ou novo, este exaltaria características de um novo tipo de produção social exemplificadas pela produção por pares baseada em commons. A idéia central desenvolvida neste artigo é apontar a existência de uma relação inversamente proporcional entre commons de conhecimento e propriedade intelectual, demonstrando também a necessidade de valorização da commons e da produção social. O maior exemplo apontado nesse sentido é o sucesso da Wikipedia. Segundo os autores, a inovação crucial da plataforma wiki é a possibilidade de cada leitor se tornar um autor em potencial. O segundo maior exemplo consistiria no movimento do software livre, em que 60% dos sítios da internet seriam hospedados em servidores que se utilizam de softwares livres, caracterizando o sistema GNU como o exemplo mais significativo do movimento.

Seria possível continuar com diversos exemplos. E, ao que parece, a cada ano surgem outros tantos novos, de menor ou maior grau de sucesso, que incorporam inovações anteriores, seja na forma de seus produtos (os softwares ou conteúdos disponibilizados por copyleft), seja na forma de suas metodologias de trabalho (4).

PRODUÇÃO POR PARES BASEADA EM COMMONS

Até hoje, a melhor tentativa de explicar a emergência recente desses esforços, de identificar contornos comuns, e de prever suas consequências possíveis para nossa sociedade foi a de Yochai Benkler. A transdisciplinaridade de seu estudo sobre esses fenômenos (que enfeixa reflexões baseadas na economia, ciência política, direito, antropologia etc.) destaca a interconexão revelada neles por sua teoria. (4).

A partir dessa premissa, e por meio do referencial de “The Wealth of Networks”, Vieira e Simon referenciam Benkler no aspecto que a produção colaborativa só foi possível devido a profundas mudanças tecnológicas, principalmente por meio da internet e da queda dos preços dos recursos informacionais. A fragmentação e a comunicação difusa entre vários participantes é também um dos fatores ressaltados, em que apesar dos avanços do projeto GNU, é com a produção por pares a partir de Linus que o desenvolvimento de software é mais aprimorado.

MODULARIDADE, GRANULARIDADE E INTREGRAÇÃO

Dessa forma, quais os fatores que possibilitam o sucesso da produção por pares? Quais características estariam ligadas ao gerenciamento do projeto? Segundo Simon e Vieira, destacando Benkler novamente, a eficiência da produção por pares estaria ligada a duas características: a granularidade e a modularidade. A modularidade consistiria em um projeto que pode ser organizado e dividido em tarefas variadas e independentes, possibilitando a atuação de diversos atores simultaneamente. A granularidade esta na execução de tarefas em variados tamanhos. Além dessas duas características, é possível exaltar uma terceira: o desenvolvimento de ferramentas integralizadas, tomando, por exemplo, o Kernel Linux.

COMMONS

A noção de commons está veiculada a recursos utilizados em comum em uma determinada comunidade. Todos os integrantes desta comunidade teriam acesso ao seu uso sem a necessidade de pedir permissão. Os Commons materiais são intitulados como “competitivos” pois sua utilização “rivaliza” com o uso de outro individuo.

OS BENS NÃO RIVAIS E O COMMONS INTELECTUAL Contudo, é possível conceber Commons não-rivais. É o caso do Commons intelectual. Esse tipo de Commons seria constituído pelo conhecimento-saber, e pela possibilidade de multiplicar-se indefinidamente. Na produção cultural, os bens intelectuais atuariam tanto como produto final, quanto matéria prima.

Os bens intelectuais são não-rivais porque não é possível provocar a escassez de um determinado conhecimento pelo seu uso excessivo: a cada vez que uma pessoa entra em contato com esse conhecimento, ele se multiplica; pertence `a pessoa que entrou em contato com ele, mas nem por isso deixa de existir em sua fonte original (seja ela um livro, outra pessoa etc.). Eles são abundantes; o uso por um indivíduo não interfere no uso de outro. (8)

A INSTITUIÇÃO DA PRODUÇÃO CULTURAL

Hoje, a Commons não-rivais é cada vez mais evidente. Um exemplo é o do livro na biblioteca: se você pega emprestado um livro, outra pessoa não poderá consultá-lo. Não é o caso quando este livro está alocado em um acervo digital. Embora haja custos, estes são efetivamente menores. Embora a distribuição desses recursos tenha que ser aperfeiçoada, o panorama é otimista - a de que esse tipo de produção social apresenta possibilidade de destacar-se continuamente e prosseguir como uma força transformadora da sociedade.

O que convencionou-se chamar de propriedade intelectual é na verdade um conjunto complexo de sistemas de proteção. Os elementos mais importantes desse conjunto são a proteção a marcas registradas, a patentes, e ao direito autoral. O direito autoral é o foco principal deste artigo, pois é o que projeta mais influências sobre a produção social — o que não quer dizer, no entanto, que marcas e patentes não o façam (vide, por exemplo, as discussões sobre patentes de softwares). (11)

Primeiramente, quando falamos em “propriedade intelectual”, é necessário destacar a importância da transparência em relação a seu funcionamento, suas vantagens e desvantagens, algo que não está ainda plenamente desenvolvido até recentemente. A questão fundamental é que todo bem intelectual que passa a ser protegido deixa de possuir sua liberdade como Commons intelectual. Se a Commons intelectual não “rivaliza”, esta não seria necessária a sua exclusão de utilização.

Se um uso não autorizado é “roubo”, há algo profunda e moralmente errado com ele; não caberia discutir sua eventual legitimidade, mas sim discutir como se pode coibi-lo. Essa discussão é técnica, e o assunto passa a ser da alçada de juristas e advogados. Assim, a sociedade passa a aceitar que usuários (e em menor medida os próprios autores) não sejam claramente informados dos seus direitos e obrigações. (14).

Em relação às licenças vigentes, ainda pode-se destacar, segundo os autores, a ausência de transparência, clareza, exigências justas e alternativa para o uso do produto.

COMO A PROPRIEDADE INTELECTUAL É ADMINISTRADA NA PRODUÇÃO SOCIAL?

De que maneira a produção intelectual é utilizada hoje? Alguns exemplos importantes são destacados, como o conceito de copyleft, criado por Stallman nos anos 1990, que se caracteriza pela principal inovação na área de direito autoral. Além desta é possível destacar o exemplo da Creative Commons, que incentiva o Commons intelectual por permitir no mínimo a redistribuição comercial do produto, com a utilização de 140 milhões de páginas na Web com esse tipo de licença.

Por fim, os autores ressaltam a importância de valorização da Commons intelectual, pois ao valorizá-la estaremos fortalecendo a produção social. Utilizando-se de uma metáfora, a produção cultural não é uma fotografia estática (tempo e espaço único) e sim, estaria mais próxima de um filme, com movimento e não-estático. Esta noção é importante pois evidencia que a proteção a propriedade intelectual não pode ser encarada como um fim em si mesma, sem submissão ao público.

Michel Bauwens: Economia Politica da Produção entre Pares[editar | editar código-fonte]

Autora resumo: Angelina Moreno

Nesse artigo, Bauwens delineará as principais características dos processos “Peer to Peer”. O P2P teria por função designar o aumento da participação generalizada. Entre suas principais características, é possível citar: A) A produção de valor de uso através da cooperação livre entre produtores; B) Não segue uma lógica empresarial, sendo administrado por uma comunidade de produtores; C) A utilização de novos regimes de propriedades comuns. Qual a infra-estrutura requisitada pelo P2P? O primeiro requisito para atuação entre os pares é a atuação de computadores individuais que possam operacionalizar a distribuição de capital fixo, e em segundo, uma estrutura que permita a comunicação desses agentes. Além do capital fixo, destaca-se os softwares destinados a contribuição autônoma, a possibilidade de criação de valor de uso e produção cultural. Somados esses elementos, os processos P2P atuariam em redes distribuídas. O P2P é frequentemente descrito como uma 'economia da dádiva' (ver Richard Barbrook para um exemplo). Consideramos, contudo, que isto é um pouco incorrecto. A principal razão é que o peer to peer não é uma forma de correspondência por igualdade: não se baseia na reciprocidade. O P2P segue a máxima “cada um contribui de acordo com as suas capacidades e vontade e cada um retira de acordo com as suas necessidades". (5)

Dessa forma, através do P2P, é possível construir cada qual a seu modo voluntário de acordo com o principio comunista e sobretudo com suas necessidades e capacidades. Apesar do P2P não possuir características do mercado capitalista, ambos, de certo forma, dependeriam mutuamente um do outro. O capitalismo, nesse sentido, estaria ancorado em redes distribuídas como as P2P. Isso também é passível de demonstração a medida que o capitalismo torna-se cada vez mais um sistema descentralizado. A produção entre pares possibilitaria a cooperação livre entre produtores com seus próprios meios de produção. Nesse sentido, o P2P estaria inserido em um processo de mudança do cenário vigente. Entre as possibilidades de aplicação e utilização do P2P, podemos ressaltar o seu surgimento nos mais variados contextos material-imaterial além da possibilidade de ser alargada a sua introdução como rendimento básico universal, através de uma alternativa de produção de valores de uso.

A partir dos dois artigos mencionados anteriormente, suscita-se algumas questões. Primeiramente, pensando-se na problemática da produção de bens imateriais, qual o potencial “transformador” real do P2P na sociedade capitalista vigente? Sua dependência mútua do mercado capitalista não seria um entrave para esta tentativa de “transformação”? E caso sim, de que forma poderíamos pensar sua aplicação no contexto social brasileiro?


Don Slater - Relacionamento Social e Identidade Online-Offline[editar | editar código-fonte]

autores: Flavia, Estela e Carolina

Internet como uma nova possibilidade de relações e identidades novas. É estudada menos enquanto mídia e mais enquanto espaço social, constituindo suas próprias relações e práticas. O foco da pesquisa é entender essa mídia nos tipos de vida social e culturas, e como a sustentação de certas socializações on-line se relacionam com as off-line.

Distinguindo a vida on-line

Internet como cultura, entendendo seus artifícios culturais, investigando os contextos sociais e considerando-a como uma localização social, contextualizando s­eus espaços. Ou seja, entender a internet, como forma de construção de comunicações, socialização e identificação, que são produzidas dentro deste espaço social, e assim, compreender como se sustentam. Internet como um meio revolucionário das novas mídias, pois constitui novas formas e espaços de socialização que foram absorvidas no cotidiano. Logo a internet “não é um meio, e sim um lugar para estar ou habitar” (pp. 02) Internet como espaço de socialização possui quatro propriedades: Virtualidade, Espacialidade, Desterritorialização e Descarnamento. Cada uma dessas propriedades enfatiza a relação on-line / off-line.

Virtualidade

Corresponde a construção de um espaço de representação, como “se fosse real”, causando assim, uma separação do “realmente real”. Realidade virtual: é um espaço de representações, e todos os sentidos são representados de forma que essa “realidade” seja totalmente imersiva, em que o participante simula uma experiência real de forma regrada e não arbitrária. A realidade virtual é uma multimídia imersiva, devido à sua virtualidade quase que inteiramente textual. Virtual enquanto simulação para o virtual como espaço social: novas regras e formas permitem o relacionamento devido ao afastamento de constrangimentos provindos do “realmente real”.

Espacialidade

Ciberespaço: espaço de representação e comunicação. Existe dentro do computador, e é distribuído através de redes complexas e fluídas. Sua espacialidade reside nas conexões que faz a rede. Porém, as qualidades espaciais do mundo on-line são variáveis, pois ultrapassa qualquer instituição central, organização social e tecnológica. Ou seja, a espacialidade ultrapassa também qualquer localização no mundo real.

Desterritorialização e comunidade

Comunicação mediado por computador: permite que as pessoas se comuniquem espacialmente separadas. A noção de desterritorialização está relacionada á compreensão do tempo e do espaço, em que a velocidade da interconexão diminui a distância social entre as partes conectadas, ou seja, está ligado à simultaneidade e sua existência é ampla ou completamente virtual. Esse processo permite que pessoas se comuniquem de qualquer lugar do mundo, baseado em interesses e prazeres em comum, se libertando do confinamento de localizações.

Descarnamento e identidade

Descarnamento: identidade on-line de uma pessoa que é, aparentemente, separada de sua presença física, condição que é associada ao anonimato e textualidade. A identidade online de uma pessoa deve ser analisada conforme o que ela escreve, sua textualidade, pois não existe outra informação para avaliar. Esse tipo de avaliação é diferente na identidade off-line, pois idade, sexo e raça ficam visíveis, fixando uma identidade no corpo.

Quatro tipos de separação e liberação das identidades e relacionamentos: é possível representar a identidade como bem entender; é possível criar novas identidades que são inconcebíveis em mundos off-line (são controlados social e corporalmente); por ser textual, a presença on-line são performances evidentes por si mesmas, dessa forma, fica possível se libertar do conceito de autenticidade e forjar outras éticas e políticas dentro dessas performances; tais éticas e políticas são definidas não por uma individualização fixa, mas sim, por fluidez e interconexão. Dessa maneira, o ciberespaço aparece como o local de uma sociologia do futuro, em que as identidades são móveis, fluidas e abertamente experimentadas, mais como performáticas do que como autênticas.

Investindo na vida on-line

Importância de reconhecer que a distinção on-line/off-line tem também um status político e social poderoso, não somente uma questão acadêmica. Três componentes importantes para estabelecer a mídia como um espaço social.

1º - Dados históricos mostram um mundo contra-cultural. Essa característica das origens da cibercultura pode gerar dúvidas com relação à distinção on-line/off-line, pois ela fez surgir possibilidades de virtualidade; novos modelos de organização política descentralizada. “Cibercultura” como um amontoado muito diversificado de conjunturas culturais, nem todos originados na nova mídia. Esses “fios perdidos” de cibercultura contribuíram para um sistema de valores que se focou em uma larga cadeia de liberdades. O liberalismo da internet envolveu a reivindicação de liberdade no sentido do direito cívico de qualquer tipo de discurso, interação em associação, em oposição a toda censura e na ideia da circulação livre de coisas, sem os convencionais preços e direitos autorais.

2º - Ciberespaço como uma diferente conversão com outra pauta: a nova economia e a desmaterialização dos fluxos e relações econômicas. Pós-modernos e consultores de negócios poderiam afirmar que a nova mídia constitui um espaço de vanguarda socioeconômico nos quais os princípios do futuro podem ser discernidos: conectividade, rede, desintermediação, desmaterialização, etc. o on-line viria para tomar conta e superar o off-line.

3º - A distinção on-line/off-line oferece o espaço para uma exploração prática ou mesmo realização de uma trajetória intelectual que desenha o pós-estruturalismo, pós-modernismo e (pós) feminismo. Onde a intenção é desconstruir a noção do real e das identidades autênticas em favor de um modelo de identidade como performance. Tem geralmente envolvido uma abrangência de descentralização ou fragmentação, e as identidades fluidas constituem uma estratégia político-ética e um novo tipo de verdade. Por exemplo, Butler (1990; 1993) e Haraway (1990) estão preocupados principalmente com a crítica da política convencional de representação que presume identidades “reais” (“mulher”, “negro”, “gay”) que podem ser mais ou menos verdadeiramente representadas (na política ou discursos). A nova mídia aponta a outras formas de representação e organização correspondente, nas quais as pessoas identificam a si mesmas através de performances estruturadas pela sua interação com outros constantemente mutáveis. Um passo a frente, tem sido identificar esse modelo de identidade performativa e conectiva, e sua privilegiada representação on-line, como uma modalidade essencialmente feminina e, dessa forma, interpretar a internet como um espaço fundamentalmente feminino. Em todas essas versões, a nova mídia parece como um espaço à parte da vida off-line, do qual podem ser tiradas a crítica do mundo convencional e a exploração de modos alternativos de ser, agir e se relacionar.

Esse investimento político-intelectual num ciberespaço separável é paradoxal, particularmente no que diz respeito aos corpos e identidades. O ciberliberalismo proclama a realização técnica do sonho de esclarecimento do dualismo mente/corpo e a liberação da mente do corpo. O ciberespaço parece prometer um domínio, ou transcendência, da mente sobre o corpo, onde se pode ser qualquer coisa que invocar ou datilografar; os limites físicos do off-line são deixados para trás e refeitos pela mente e pelo desejo. Mas mitos autores têm interpretado essa fantasia extravagante como compensatória e escapista, responsável pela fragmentação e perda de controle dentro da barreira social na vida das pessoas. Esse relacionamento paradoxal parece ser confirmado pela observação de que muito, se não a maioria, do comportamento on-line não se conforma com as expectativas ciberlibertárias. Portanto, pode ser que essas desconstruções pós-estruturalistas e diagnósticos pós-modernos para os corpos e as identidades estejam corretas, assim como são esperanças colocadas em prática, as quais alteram os termos da identidade performática, mas isso não significa que os atuais usuários da nova mídia são, de fato, engajados nisso. O trabalho de Slater mostra que a preocupação dos participantes numa aparentemente cena social não-constrangedora de sexualidade explícita esmaga a manutenção de uma norma off-line de pornografia, além do mais, mesmo onde há uma exploração criativa da sexualidade, ela foi altamente regulada e estrategicamente associada ao tema autenticidade (performance foi tratada como falsa). Claudia Springer analisa a hipergeneralização de identidades não só no ciberespaço, mas também na cultura popular, geralmente como uma reação à problematização do corpo e as sexualidade que é completamente oposta ao que é esperado pelos ciberutópicos: é precisamente porque a destruição de ambiguidades de sexo e corpos heterossexuais está no centro das identidades sociais que qualquer problematização do corpo provocará medo e retração. O corpo está, de fato, se tornando mais problemático enquanto um terreno essencial de identidade e é precisamente porque várias novas tecnologias, como a internet, fazem corpo problemático que as pessoas exageram, ou ainda abandonam o gênero. O trabalho de Butler pressiona a regulação da performance através de discursos e poderes, tais como a heterossexualidade compulsória, que moldam a normatividade sexualidade/gênero/sexo, e deve ser esperada tão urgentemente quanto essa estrutura regulatória é tecnologicamente desafiadora.

Virtualidade como prática

Muita discussão sobre relações sociais e identidades on-line parece procurar uma resposta generalizada e por isso tendem para o determinismo tecnológico: a impressão é de que, pela virtude de conectar-se, a pessoa é automaticamente envolvida em um novo processo social. Há uma tendência a reduzir as “características da mídia” para uma variável entre outras, o que não desconstrói o positivismo dessas aproximações. Necessidade de questionar sobre “a natureza dos relacionamentos e identidades on-line”, questionando a questão inteiramente diversa: “o que as pessoas fazem on-line?”. Acima de tudo, deixa aberta a possibilidade de que o relacionamento entre os processos sociais on-line e off-line seja uma questão para participantes ou usuários e que eles possam vir com respostas bastante diferentes. Portanto, conceitos como “virtualidade” ou “ciberespaço” podem ser tratados como resultado das práticas das pessoas.

Life on the Screen (1995), de Sherry Turkle, é um exemplo dessa aproximação e dá uma visão do extremo envolvimento em meio ambientes simulados, que permitem anexação intensa a identidades construídas, de si próprio e dos outros. Ela foca muito mais em como e por que os participantes constroem e investem nessas vidas on-line. O valor da participação on-line para o participante está ligado à noção de um tempo e um espaço no qual as ações são protegidas das consequências, comprometimentos e responsabilidades da realidade. Por outro lado, entrevistas aumentam consistentemente a noção de liberação dos confinamentos das identidades do mundo real, que são frequentemente autocaracterizadas como inadequadas. Turkle está, portanto, observando como os participantes estão usando certos potenciais comunicativos e construindo espaços sociais de acordo com a necessidade de uma estratégica separação da vida real. Nessa pesquisa, virtualidade não é a premissa ou uma característica assumida da internet, pelo contrário, é uma realização social. A questão importante, então, aparece: porque e quando os participantes escolhem construir “ciberespaços” como separados de outras esferas de ação social, e até que extensão; como eles alcançam isso; e como eles entendem as relações asseguradas?

Slater contrasta o mundo investigado por Turkle com a etnografia do uso da internet de Miller e Slater (2000) em relação a Trindade. Começando pelas práticas das pessoas tornou-se claro que a distinção on-line/off-line teve pouco, se teve algum, papel no uso ou experiência das pessoas com a internet: as pessoas integram a variedade de mídias da internet com as identidades e práticas sociais existentes. Os relacionamentos on-line foram frequentemente tratados como estando no mesmo plano que os relacionamentos off-line, e foram integrados com eles; ou relacionamentos foram semelhantemente perseguidos do off-line para o on-line e vice-versa. O uso da Internet objetiva realizar concretamente uma identidade virtual previsível. O lugar mínimo da distinção on-line e off-line é um argumento segundo o qual a virtualidade é uma característica emergente possível, e não necessária, da assimilação de um novo meio feita pelas pessoas, e deve ser estabelecida empiricamente em qualquer caso dado. É também crucial reconhecer que a questão da virtualidade e do status de identidades e relacionamentos on-line é frequentemente um problema de discussão extensiva, articulada e reflexiva entre os participantes em cenários particulares da internet.

Metodologias

Buscando comprovar a importância e legitimidade em pesquisar o mundo online, o autor começa por criticar a visão de que, se desligadas da sociabilidade off-line, as questões endereçadas às novas mídias se tornariam empobrecidas. As ferramentas metodológicas teriam, portanto, papel fundamental na a realização das pesquisas envolvendo as novas mídias e o online, já que a interação ganhou contornos específicos dentro destas mídias (vistas como espaços sociais). Um exemplo disto são diversos estudos e artigos online sobre a ‘netquette’ – conjunto de regras de boa conduta online.

Segundo Slater, a metodologia mais comumente utilizada nestes estudos tem sido a etnografia, principalmente por estes estudos serem conduzidos não só por acadêmicos, como também por não acadêmicos, que utilizam sua própria história de participação nestas novas mídias como objeto de estudo. Além disso, a comunicação mediada por computadores possibilita abundantes formas de socialização, podendo até criar um ambiente de comunidade com estrutura própria, único, e que poderia ser estudado de acordo com seus próprios termos, algo propicio para uma avaliação etnográfica. Esta versão da etnografia online acreditava ser possível entender a história, linguagem, as regras e os valores de determinada comunidade online através da participação na mesma, fazendo com que essas comunidades virassem o ‘ciberespaço’. Nas palavras do autor: “Essa versão da etnografia on-line levou literalmente à extrapolação da “comunidade” para o ‘ciberespaço’ e, portanto, fez duas suposições que acabaram levando a uma separação radical entre on-line e off-line: aquela sociabilidade on-line realmente teve esse tipo de coerência cultural; e mesmo aquela descrição ou explicação disso, inteiramente nos seus próprios termos, foi uma iniciativa válida e frutífera.”

A metodologia etnográfica está sempre ligada a um conceito de comunidade delimitada, algo que teria ‘casado’ com a estrutura das comunidades online de acordo com as primeiras literaturas sobre o assunto, que tratavam a vida-online como algo integral, e que poderia ser pesquisado em si mesmo. Já nos últimos usos, a pesquisa do online busca relacionar o online dentro do off-line. Esta visão das comunidades online acompanhou uma discussão da metodologia etnográfica, que antes acreditava que uma comunidade poderia ser observada como delimitada e alheia ao observador (Clifford e Georg, 1986; Clifford 1998); os objetos da etnografia contemporânea já não são mais estas comunidades delimitadas, compostas por indivíduos diferentes e distantes de ‘nós’. A relação entre cultura e lugar deve ser o ponto central de um estudo etnográfico, e não deve ser algo assumido:

“Essas críticas têm uma implicação com duas etapas para as etnografias da vida on-line. Por um lado, elas tiram o tapete debaixo da proposição de que as comunidades da Internet existem em qualquer sentido não-problemático ou de que nós podemos saber antecipadamente o que alguma coisa é e, então, estuda-la. Por outro lado, elas abrem o campo para noções de etnografia que são muito mais apropriados para a Internet como objeto.” Para exemplificar esta questão, o autor cita a obra Virtual Ethnography (2000), em que a autora Chistine Hine investiga a formação de uma rede online, em que pode ser observado que existe uma relação dialética entre a internet como cultura e como artefato cultural. Descrevendo as várias mídias da internet como ‘potencialmente diversos, mas localmente estabilizados’, a autora chega a esta conclusão pois os participantes da rede a utilizarem como espaço social em que monitoram a si mesmos e as performances dos outros, em suas palavras: “A Internet tem sido tratada como um espaço performático no qual os usuários precisam agir apropriadamente. Assim, a tecnologia é estabelecida pelos próprios usuários.”.

Porém, Slater levanta a questão da dificuldade metodológica em realizar uma etnografia exclusivamente online, ainda que as principais criticas sejam feitas em cima de conclusões errôneas. Frequentemente, observa-se uma comparação romântica do online com relações off-line, ou seja, cara a cara – levantando uma questão comum na etnografia, a autenticidade – porém, Slater faz uma crítica ao dizer que ‘a presença física não é garantia de verdade, também não é que a presença mediada seja necessariamente não verdadeira’. Metodologicamente, o autor argumenta para o fato de que em ambientes off-line também há chance para a mentira (pesquisa através de carta, por exemplo), e que cabe ao pesquisador avaliar a situação e as questões de sua pesquisa, de forma que entre o online e o off-line há espaço para negociação metodológica, em termos de critério de relevância e níveis de análise.

Ou questão importante abordada é a de que o online não é necessariamente o virtual, de forma que os indivíduos podem tratar algumas de suas vivências online como virtuais, mas também outras como reais. E também, não necessariamente o off-line é todo real.

A desconstrução e a convergência de on-line e off-line

A maior questão estudada neste capítulo se da em torno de como a distinção entre o off-line e o online tem proporcionado diferentes interpretações e conclusões, proporcionando a internet diversas visões de significâncias sociológicas e inovação social. O consenso entre defensores e críticos da internet está apenas no fato de a considerarem fora da realidade off-line. Para Slater, o ponto de consenso não deveria ser considerar a internet como fora da realidade off-line, mas sim buscar entender se, de fato, na prática e experiência dos indivíduos há efetivamente uma distinção entre off-line e online. As pesquisas deveriam se concentrar nesta questão central, e, a partir dela, buscar entender porque e como se dá essa distinção entre os indivíduos: “É o surgimento da distinção que precisa ser estudado, ao invés de assumir sua existência e então estudar suas consequências”. Ou seja, a virtualidade não deve ser colocada como exclusividade destas novas mídias.

Esta distinção entre off-line e online tem sido associada a uma oposição simples entre o cara a cara e a comunicação mediada por computares, quando, esta nova mídia deveria ser vista como um elemento dentro do novo cenário social, o que deixa pouco clara esta distinção. Erroneamente também, tem-se considerado a relação entre o online e off-line como fenômeno e contexto, interpretação esta que faz com que o online seja apenas um elemento do off-line – segundo o autor, colocar o online dentro do off-line faz om que, no máximo, se pesquise de que forma uma afeta a outra (internet x relações sociais / sociedade).

No mesmo tempo em que temos diversas formas de interpretação e contextos para as novas mídias e a distinção do off-line e o online, temos também forças reguladoras agindo nestas mídias. Muitas das medidas que estão sendo tomadas atualmente visam atender políticas centrais, reformulando o uso da internet através da busca de validação da identidade online, para que os indivíduos participem como sujeitos legais, com direitos e deveres. Ou seja, há um movimento para a remoção da distinção entre identidades e relacionamentos off-line e online, porém, ainda é um tema muito complexo, como exemplifica o autor:

“O ato de oferecer seu cartão de crédito e clicar “entra” em uma transação é tão real quanto a ação face-a-face. Por outro lado, seria difícil imaginar uma corte legal premiando com pensão um parceiro sexual on-line, depois do fim da relação.”

O comércio eletrônico é um dos grandes responsáveis pela união do online com o off-line, buscando quebrar a fronteira e facilitar as oportunidades de negócios. Isto se dá tanto em uma empresa física adentrando e se fortalecendo no online – o que vemos acontecer com maior frequência – como o contrário: uma empresa online crescendo e capitalizando suas ‘atividades’ para algo físico. De acordo com Slater, há uma tendência para que as relações que hoje são consideradas virtuais se tornem, nos próximos 10 anos, reais.

Conclusão

Os temas abordados pelo autor não são específicos aos estudos da internet – rádio, tv e telefone também são as novas mídias e devem ser considerados de acordo com as suas especificidades. Historicamente, há uma tendência e assumir novas formas de mediação e interação como ‘virtuais’, já que elas surgem como uma alternativa as formas tidas como ‘reais’, nas palavras do autor: “Por que as pessoas parecem pensar que conversas ao telefone são mais reais do que chats na Internet?”. Os aspectos particulares da internet e do ciberespaço que fazem com que, segundo a visão dos indivíduos, sejam vistos como um ‘lugar a parte’.

Porém, dado o fato de que as novas formas de mediação serem tratadas como virtuais, a distinção do off-line/online pode ser vista como uma transição histórica, que será tratada com maior familiaridade nos próximos anos.

Raquel Recuero - Diga-me com quem andas e direi quem tu és[editar | editar código-fonte]

autor resumo: Rafael Odaguiri

Diga-me com quem falas e dir-te-ei quem és: a conversação medida pelo computador e as redes sociais na internet

RESUMO: Raquel Recuero defende que as conversações entre os atores de um site de rede social podem indicar os laços sociais e o capital social negociado nas interações. Essas conversações seriam capazes de criar, complexificar e até destruir as estruturas sociais estabelecidas no ciberespaço, comportando grande parte dos impactos na dinâmica das redes decorrentes desses sites de redes sociais. E a fim de entender as conversações mediadas pelo computador em redes sociais, aponta cinco modos de analisar os aspectos estruturais, que indicam as relações estabelecidas entre os atores e as possibilidades de existência de laços sociais entre eles, e os aspectos semânticos, que irão contribuir diretamente na qualidade da conexão estabelecida entre aqueles atores.

A autora, Raquel Recuero, inicia o texto levantando questões que guiarão seu trabalho: “Como compreender as redes estabelecidas nos sites de redes sociais a partir do estudo da conversação? Como observar essas redes a partir da conversação? Que tipo de informações podemos obter através desta perspectiva?”.

Raquel Recuero volta sua atenção para a conversação medida pelo computador, que apesar de suas limitações impostas pelas ferramentas tecnológicas, como a dificuldade do uso de linguagem não verbal e de negociação de turnos, apresenta alguns elementos diferenciais e de grande interesse. O primeiro deles é o fato de ser uma comunicação que privilegia o anonimato, além de proporciona o distanciamento físico entre os integrantes, e também caracterizado pela persistência. Esse último elemento se deve ao fato de que conversação mediada pelo computador persiste no tempo, podendo ser acessada em diferentes momentos. Dessa forma, as conversações podem ser síncronas, quando há a expectativa de uma resposta imediata, semelhante a uma conversa face-a-face, ou assíncronas, quando a expectativa de resposta é mais larga no tempo, por exemplo, o email. Outro fenômeno levantado pela autora é o de que esse tipo de conversação tende a se espalhar por diversas ferramentas ou sistemas, processo relacionado a persistência das conversações assíncronas. Entretanto, o espalhamento da conversação não é determinante para que essa seja assíncrona, é comum o uso de ferramentas síncronas para a conversação assíncrona e vice-versa.

E finalmente, é através da conversação mediada pelo computador que são estabelecidas as trocas informacionais associadas à construção de valor social e à conseqüente construção de redes sociais na internet. Sendo de interesse da autora as redes que são efetivamente constituídas através da apropriação de sites como ferramentas de conversação, que são denominadas de redes emergentes. Essa seria a rede social viva, que mostra com quem o indivíduo interage e como essas interações influenciam sua rede estruturada pelo sistema. E por outro lado, temos as redes sociais decorrentes das conexões estruturais de um sistema, representando uma rede estática, que seria a rede social expressa por seus atores em sua lista de amigos, conhecidos e seguidores.

O estudo da estrutura dessas conversações pode indicar elementos da qualidade das conexões estabelecidas entre os atores, constituindo o aspecto estrutural das conversações mediadas, que pode ser observado através da análise e negociação dos turnos estabelecidos entre os atores, bem como de aspectos entre as mensagens, de onde é possível se depreender a estrutura da rede social. Já o aspecto semântico, nos auxilia na compreensão do significado das mensagens, onde podemos analisar o conteúdo dos laços sociais.

Partindo dessa premissa, Raquel Recuero enumera cinco aspectos a serem mapeados nos sites de redes sociais: Conteúdo e Seqüenciamento das Interações- Os aspectos estruturais são analisados através de elementos como as marcações de direcionamento, links, data e horário das interações e assinaturas. Os semânticos, através do estudo do conteúdo das mensagens. Esses elementos permitem que se compreenda quem fala com quem e como a conversa está organizada. Vale lembrar que conversações assíncronas, possuem um seqüenciamento diferente daquelas síncronas.

Identificação e Estrutura dos pares conversacionais- Em conversas síncronas, geralmente os pares aparecem no mesmo espaço ou ferramenta de conversação, permitindo que esses pares sejam mais facilmente identificados. O que não ocorre em conversações assíncronas, na qual os pares podem aparecer em ferramentas diferentes e mesmo em espaços diferentes dentro da mesma ferramenta. Ou seja, pode migrar de um weblog para outro, de um espaço de comentários para uma postagem, sendo fundamental que identifiquemos os pares conversacionais para identificar quais mensagens estão relacionadas a quais e que são seus autores, auxiliando na compreensão da estrutura da conversação e das interações.

Negociação e Organização dos turnos da fala- Esse aspecto é fundamental para que as interações possam ser seguidas pelo observador, podendo dar-se pelo próprio sistema ou pela apropriação do mesmo pelo usuário, por exemplo, a marcação “@” do twitter, como todas as interações ocorrem na mesma página, o uso do sinal direciona a quem se fala, organizando os turnos de fala.

Reciprocidade e Persistência- Analisar uma única mensagem trocada entre um par de atores é insuficiente para que se percebam as relações sociais envolvidas. O nível de reciprocidade indica o nível de persistência da conversação em termos da quantidade e do valor das interações, além de permitir que se entenda o capital social envolvido no laço social. E a persistência é um aspecto importante para que o seguimento da conversação, que permite aos atores estabelecer as respostas e a interação.

Multiplexidade e Migração- É comum a conversação migrar de um sistema para outro e vice-versa, essa migração indica a existência de outras relações entre os atores envolvidos. Dessa forma, a conversação síncrona tende a ser menos multiplexa que a assíncrona, por utilizar menos ferramentas para estabelecer as relações sociais. A estrutura e conteúdo da conversação podem indicar a qualidade do laço social estabelecido entre os atores, a existência de mais de um tipo de relação social auxilia na construção de um laço multiplexo, indicando laços mais fortes entre os atores. Além disso, elementos como intimidade, apoio social e informação dividida, típicos do capital social* e construídos pelo grupo, ajudam a entender a qualidade do laço que conecta os atores.

  • Capital Social- Medida do valor construído entre os atores, o conceito auxilia na compreensão daquilo que é construído entre os atores da conversação. Esse capital social pode ser depreendido de conversações estabelecidas entre os atores nos diversos sistemas.


Laymert Garcia dos Santos: Modernidade, pós-modernidade e metamorfoses da percepção[editar | editar código-fonte]

Autora resumo: Pamela

Principais tópicos:

Concepção de Benjamin sobre metamorfoses da percepção como impacto da tecnologia moderna;

Oposição entre valor de culto e valor de exposição da arte- a primeira como o homem percebe a imagem artística até até o Acien Regimé (dotada de aura) e a segunda, a arte refuncionalizada dos tempos modernos (presença dessacralizada);

Atget inaugura, segundo Benjamin, a mudança de plano da percepçãomvisual: fotografia como uma nova possibilidade de leitura de mundo e de investigação da realidade;

Segundo Benjamin, o especialista em imagens precisa investigar os indícios e os vestígios, como o psicanalista acede à realidade do inconsciente através do lapso, do trocadilho...

Técnica do cinema e fotografia é instrumento de conhecimento, isto é, de poder, e como tal deve ser utilizada politicamente; Teoria do choque em Benjamin: “o cinema é a forma de arte correspondente aos perigos existenciais mais intensos com os quais se confronta o homem contemporâneo.”

“A reestruturação do sistema perceptivo consistiria em distrair deliberadamente o homem moderno, habituando-o a expor –se ao tratamento de choque..”

1980 o autor Gianni Vattimo coloca como sendo a passagem da moderndade para a pós-modernidade;

Questões apresentadas por Vattimo: é a sociedade pós-moderna uma sociedade transparente¿

Hipótese de Vattimo é que a modernidade chega ao fim quando não é mais possível falar da história como fenômeno unitário em virtude, principalmente, da multiplicidade de culturas e de povos que adentraram a cena mundial com a descolonização e o fim do imperialismo, e da multiplicidade de visões de mundo suscitada pela explosão fenomenal da comunicação;

Vattimo põe em evidência o “principio de realidade”, devido à erosão que nele acontece devido a essa pluralidade;

Vattimo elege a experiência estética como a expressão do movimento de emancipação do homem pós-moderno;

Ideia de grande liquidação do valor tradicional do patrimônio cultural;

Vattimo compara os autores Benjamin e Heidegger: o conceito de CHOQUE, por um lado, e o conceito de GOLPE por Heidegger- esse ultimo a experiência existencial da angustia, o deslocamento, e, por outro lado, o choque de Benjamin acontece com o advento da visão cinematográfica devido as rápidas sequencias de imagens. Vattimo encontra no estranhamento o elemento em comum entre esses autores. Ambos vêm possibilidade do homem superar o esquecimento e a alienação metafísica vivida até então;

Para Benjamin a arte técnica do cinema se tornou um problema pois o homem moderno fica oscilando continuamente entre o pertencimento e o deslocamento. Também vê como consequência a despolitização total no processo, pois as experiências se tornaram, com a mídia atual, superficiais;

O autor Virilio entra com o conceito de “amnésia topográfica”, como sendo uma “incapacidade de se imaginar o espaço em virtude da impossibilidade de se lembrar das coisasno espaço e no tempo.” ... “ pela incapacidadede selecionar lugares e de formar imagens, isto é, de construir imagens mental.”

Virilio coloca a invenção do telescópio como o responsável pela dislexia da imagem, pois as imagens nítidas e precisas, tiraria a capacidade representativa do homem. E não somente o telescópio, mas outros instrumentos óticos como: microscópio, lente, lunetaastronomica... “é um fenômeno da aceleração” que abole nosso conhecimento das distancias e das dimensões”;

Sec.XIX “.instrumentos visuais e audiovisuais e sua utilização cada vez mais intensa e mais precoce aceleram a transferência do olhar e introduzem uma codificação da imagens mentais cada vez mais elaborada, que interfere na percepção e compromete a consolidação da memória.” diferença entre visão e visualização dada por Paul Virilio é que a visão trataria do olhar humano, que representa mentalmente, é o sujeito que lidaria com o principio de realidade o “eu posso do olhar”, enquanto que a visualização trataria do olhar da máquina, olhar técnico, incapaz de representar , “uma visão sem olhar”;

Para Virilio as novas técnicas de visão fazem com que o homem perca a capacidade de imaginar e perceber, de produzir imagens que conferem à sua experiência;

Questões levantadas por Benjamin e Virilio:

1-a possibilidade de uma política da visão em tempos de aceleramento da transformação tecnológica. 

2- como lidar com a cegueira que progressivamente toma conta de nós., Laymerte conclui que uma possibilidade é o exercício da percepção do olhar. Toma partido do ponto de vista de Paul Virilio sobre a necessidade de politizar uma questão que muitas vezes é tida como neutra em tempos de aceleramento das transformações tecnológicas.; O autor ainda cita o filme “Dançando no escuro”, filme de Lars Von Trier, como exemplo dessa superação do olhar mecanizado.

Arlindo Machado - Caps. 11 e 15. In: O sujeito na tela: modos de enunciação no cinema e no ciberespaço[editar | editar código-fonte]

Resumo: Rodrigo Nascimento

MACHADO, Arlindo. Caps. 11 e 15. In: O sujeito na tela: modos de enunciação no cinema e no ciberespaço. São Paulo: Paulus, 2007. Capítulo 11: A automatização do sujeito

Na abordagem desse capítulo o autor trata dos fatores para a crise das teorias de enunciação, que seriam o advento de novas técnicas audiovisuais como o videocassete, o laserdisc e posteriormente o DVD.

Essas novas técnicas mudaram todas as relações com o sujeito numa mudança de dispositivo, texto e de expectador e não mais da forma subjetiva como era com o cinema. A nova produção audiovisual é caracterizada pela interpelação entre o expectador e o apresentador, mas esta não lhe é exigida uma relação de continuidade, seu comportamento é disperso e distraído através de um envolvimento bem menos rígido, pois por meio do controle remoto o espectador introduz uma descontinuidade por meio da prática de zaping.

Podemos ver por esses aspectos as diferenças entre o cinema e o vídeo onde o primeiro se mostra mais relacionado com a construção de uma subjetividade, já a televisão e o vídeo essa subjetividade foi perdida, pois a tela pequena não proporcionava tal sensação ao espectador. Arlindo Machado se utiliza da reflexão de diversos autores para falar da produção de questões relacionadas ao tema, mas para ele carecem de uma abordagem mais geral. Desses autores Edmond Couchot foi o que melhor formulou a ideia de sujeito no ciberespaço, onde a atividade subconsciente é priorizada sobre a consciente. Seu conceito-chave é a do sujeito SE, derivado do conceito de Merleau-Ponty – “a percepção existe sempre no modo se”.

Para Couchot a um momento em que tais processos na construção dessa automatização ganham autonomia: funcionam sem ou com o mínimo de intervenção de um operador. Um exemplo para ele é o surgimento da fotografia no século XIX: “... a pintura começa a se libertar do olho e da mão do pintor, transferindo parte do processo construtivo a dispositivos ópticos e a uma série hierarquizada de operações matemáticas, que corresponde a uma espécie de algoritmo geométrico.”.

Esse sujeito é chamado por Couchot de “o sujeito aparelhado” fortemente dependente dessas máquinas que substituem totalmente ou em parte a operação humana e que, para o autor passa a funcionar de modo impessoal, o eu se ausenta, sob o modo SE, mas, mesmo com essa questão mecanicista o sujeito não se perde, mas se despersonaliza, fica anônimo. Mas no seu papel estrutural ele não se perde, ele é potencializado, se tornando como uma espécie de sujeito-máquina.

Além do sujeito-máquina para Couchot o inconsciente psíquico já não estaria mais atuante, mas sim uma espécie de inconsciente maquinal. Esse inconsciente pode até funcionar de maneira semelhante ao psíquico, por meio de um sintoma insinuante podendo inclusive ser incorporados nos trabalhos de artistas mais inquietos. Para Arlindo Machado o tema principal do livro de Couchot, está na mediação tecnológica de duas características do sujeito: um sujeito SE, inserido no campo tecnológico e em seus processos e o sujeito EU expressado através de uma subjetividade irredutível de mecanismos tecnológicos. Não seria o tema central, mas é de caráter original do livro de Couchot, um dos poucos que tratam sobre o tema da subjetividade nos meios tecnológicos.

Capitulo 15: Técnicas do observador

Nesse capítulo o estudo esta agora relacionada com as mídias e as novas subjetividades originadas das mídias digitais. Arlindo Machado utiliza-se de um autor chamado Jonathan Crary, cujo livro Techniques of the observer é considerado por ele com um dos mais influentes livros sobre o tema.

Para Jonathan Crary o modelo renascentista de representação da subjetividade é radicalmente diferente das novas figuras esboçadas no começo do séc. XIX. O modelo renascentista foi amplamente utilizado. Ela era uma câmera obscura que gerava um efeito de subjetividade por meio de uma operação de individualização. Essa maneira servia tanto para explicar os processos de visão como também para representar a relação do sujeito com o mundo era amplamente utilizada. A camara obscura também subsistiu como metáfora platônica do mito da caverna. Para Platão todos nós estamos condenados a ver sombras a nossa frente tomando-as como verdadeiras. Jonathan Crary acredita que com a hegemonia da camara obscura a ideia de ver, foi separada do corpo físico do observador, ou seja, sofreu uma descorporalização. Com as novas técnicas e dispositivos “corpo que observa torna-se ele próprio um componente das novas máquinas”, sendo o estereoscópio o ponto de intersecção. Sua obra busca exprimir esse momento de ruptura e suas razões para com os modelos de visão e subjetividade do renascimento.

Crary passa a utilizar-se do termo observador ao invés de espectador, por achar que a palavra ficava restrita ao campo da visão, do olhar. Já a palavra observador tem um campo semântico maior incluindo também o ato de olhar. O que para Crary faz todo o sentido, pois alem da visão com os novos dispositivos envolve também a disposição dos corpos no espaço e a regulamentação da atividade do observador inserido nesse novo sistema de consumo.


Como mencionado anteriormente para ele o estereoscópio foi a forma dominante de difusão da fotografia do séc. XIX representando uma reconsideração sobre o individuo como observador, a estereoscopia dominava o mercado fotográfico se diferenciando dos demais aparelhos visualizadores pela imagem tridimensional pois na sua construção foram utilizados espelhos, lentes e prismas. Seus elementos individuais são planos (multiplanar) e separados um do outro. Essa separação é o que fez a diferença em relação aos outros aparelhos da época que implicava um espaço homogêneo e contínuo.

A grande diferença na verdade se dá no cérebro do observador, pois esta se encarregava de construir a imagem, ou seja, o cérebro se encarregava de reconstituir a sensação estereoscópica. Com isso ela modifica a ideia do “ponto de vista” tradicionalmente estabelecida durante séculos a um único ponto de fuga.

Mesmo sendo tão difundida no século XIX a estereoscopia declinou no século XIX, pois trazia consigo algo de obsceno pois seu modo de visualização sugere um ato de espiar de maneira pornográfica.O que para a sociedade moralista da época fez com que a estereoscopia se associasse a um comportamento regresso.

Para Crary “os atuais progressos no campo da modelação e animação, bem como da simulação e visualização em ambientes digitais, fazem parte dessa impetuosa reconfiguração das relações entre um sujeito observador e os modos de representação que se iniciam no século XIX.”. Uma nova iconografia gerada por computador com implantação de espaços “artificiais”, diferentes de tudo o que havia desde o século XV e também da fotografia do século XIX e de seus derivados, cinema, vídeo e televisão. Diferença essa na questão do observador e sua relação com o espaço dado, onde já não há uma referencia dele próprio definido por um mundo “real” opticamente percebido. Seriam formas geradas pelo computador não por meio da ação física, mas por matrizes matemáticas resultando na sua visualização por meio do monitor.

A possibilidade de visualização não é esgotada devido às infinitas maneiras de exibir cada objeto. Isso seria o que Philippe Quéau chamou de metaimagem, que seria uma composição de pequenas imagens, ou fotos que quando visto de longe formam uma imagem principal. Essa imagem gerada no computador só é possível graças as variáveis, conjuntos numéricos depositados na memória do computador. Muito utilizado no século XIX a estereoscopia retornou com essa nova iconografia do computador por meio dos dispositivos de realidade virtual. Se antes seria muito forçada a ideia de que o corpo do observador se tornaria um de seus componentes hoje esse novo observador está muito mais ligado a máquina graças a esse novo campo da realidade virtual.


O que ocorreu de real no século XIXI foi que a estereoscopia não conflitou com a fotografia esta potencializou o efeito ilusório da perspectiva e com a chegada do computador a estereoscopia se liberta de seu vinculo com a fotografia que também está fora da ilusão figurativa e fora do modelo perceptivo da câmera obscura.

Paul Virilio - Terceiro Intervalo,Perspectiva do Tempo Real In: Velocidade de Libertação[editar | editar código-fonte]

Resumo: Natalia Borges

Para compreender o fenômeno da Dromocracia e Glocalização é necessário traçar um paralelo entre duas importantes revoluções das quais trata Paul Virilo: A Revolução dos transportes ocorrida no século XIX e a Revolução das Transmissões do século XX.

A urbanização decorrente da revolução dos transportes suplantou o nomadismo. A possibilidade de possuir um local fixo permitiu um novo ordenamento da relação tempo-espaço, promovendo um encurtamento das distâncias e consequentemente uma maior sedentarização da vida. Esse processo alterou a percepção de próximo e longínquo, pois, o transporte reduziu o intervalo entre as viagens afetando assim a duração(tempo) e a dinâmica das relações sociais.

A Revolução das transmissões ocorrida com o surgimento das tecnologias como a televisão, a internet, e a possibilidade de transmissões de dados via satélite em tempo real, alteraram novamente a percepção do tempo-espaço e da dinâmica das relações sociais ao eliminar a noção de distância anteriormente encurtada pela revolução dos transportes.

As novas tecnologias criaram o fenômeno da Dromocracia, do grego dromos/corrida. Que trata dessa nova relação de exclusão do meio geofísico e da imediatidade das interações humanas. As relações em tempo real anulam a ideia de tempo cronológico pois tudo acontece no aqui e agora. O passado e o futuro deixam de existir e são substituídos pela fixação do presente causando a perda de memória por transformar a duração em imediata.

O segundo fenômeno conhecido como Glocalização (globalização+localização) aborda a telepresença no mundo como resultado do esgotamento das distâncias, ou seja, é possível estar virtualmente em muitos lugares ao mesmo tempo. A representação do mundo por meio do ecrã(monitor), deforma a percepção de perspectiva, grandeza e relevo ao reduzir o mundo a uma projeção de imagem. Ao relativizar o tempo-espaço urbaniza-se o corpo, pois há uma perda da locomoção e do trajeto que invalida a necessidade de movimento por substituir a interação com o meio por uma representação virtual.

Resumo: Wilian Sinkai

A dimensão crítica é renovada a partir da transferência de tecnologia, passagem da infra-estrutura do espaço real(portos, estacoes de caminho e ferro e aeroportos, para o controle dos lugares em tempo real devido as tecnologias interativas(teleportos, etc ) O autor diz haver uma incerteza dentro do espaço publico e do espaço domestico, pois a urbanização do espaço real esta sendo influenciada pela urbanização do tempo real influenciadas pela tele-ação.

O instante real criado pela tele-ação, vem criar problemas filosóficos e políticos anteriormente presos à noção de utopia Por exemplo: Reunir-se á distancia estar telepresente, ao mesmo tempo aqui e ali, utilizado normalmente em teleconferências por pessoas que estão fisicamente distantes, mas virtualmente conectadas.

Electro-óptica, as faculdades preceptivas do corpo do individuo são transferidas, uma após outra, para maquinas que tomam ações a distancia do telecomando.

A quarta dimensão, o PRESENTE, se torna critica no momento que o tempo real se opõe a ela. O autor Paul Klee diz que definir isoladamente o presente é mata-lo. As tecnológicas do tempo real isolam o aqui e agora do Presente e tirano da presença concreta do mundo, para uma tele presença discreta.

Existem mudanças no ambiente humano causados pelos sinais digitais, sinais de vídeo e de radio perturbando o corpo animal do homem, que se torna completo a partir do teclado, mouse ou protocolo de dados.

Trazendo uma inercia do próprio corpo humano perante a uma ilusão de mundo, um mundo tele presente a cada instante, fazendo-se esquecer do próprio corpo. Tornando as relações sociais intimas cada vez mais distante, para uma relação supostamente global do eu individual.

Cidades de hiper-concentrações como Nova York e Toquio são resultado da rapidez acrescida de intercâmbios, e é necessário considerar as noções de aceleração e desaceleração, mas igualmente as noções de velocidade atual e velocidade virtual.

A velocidade, como se sabe, não é um fenômeno, mas a relação entre os fenômenos, dito de outro modo, a própria relatividade, donde a importância da constante da velocidade da luz, não apenas em física ou em astrofísica, mas na nossa vida quotidiana, a partir do momento em que entramos, para além da era dos transportes, na era da organização e no condicionamento eletromagnético do território. (pag. 34) A velocidade não serve só para nos deslocarmos, mas serve antes, para ver, para escutar e conceber mais intensamente o mundo presente. Servirá cada vez mais para agir à distância, para além da área de influencia do corpo humano e da sua ergonomia comportamental. O tempo e o espaço orientam a geografia pelo intermédio da geometrização dos dominós agrários, a organização dos calendários e o tempo. Agora com a intervenção da velocidade da luz alterando o Tempo (duração) e o Espaço (extensão) faz mudar profundamente a relação do homem com o seu local de vida. A velocidade da luz tira a percepção fenomenológica da duração e extensão do mundo. Agora os políticos e urbanas além de se preocuparem com as questões geométricas e espaciais, precisam e pensar sobre o tempo real da imediatividade e da ubiquidade, seus protocolos de acesso, dos nos e das redes interconectadas. Quais são os problemas causados pela ligação da luz na sociedade?

-Crise econômicas causas por transações econômicas instantaneamente pelo mundo.

-Perca do presente real.

-Serviço e público

-Global/Local e Transnacional/Nacional

-Meio ambiente

- Planeta poluído, retraído e reduzido pelas tecnologias da interatividades generalizada.

Eugenio Trivinho - Velocidade e violência: dromocracia como regime transpolítico da cibercultura[editar | editar código-fonte]

Resumo: Flavio Negreiros No Presente ensaio, Eugênio Trivinho procura demonstrar o vetor organizatório e estruturante da vida contemporânea. Dessa maneira, verifica que a velocidade do tempo-espacial é o fator que engendra o mundo contemporâneo e, com isso, chega-se apresentar a forma mais sutil da violência, isto é, a violência da técnica. Para isso, o autor busca na obra de Paul Virilo a base teórica e metodológica para abordar o tema. Com isso, divide o texto em duas partes. Primeiro: aborda as relações entre velocidade e violência. Segundo: explora os fatores da primeira parte do texto em relação com a cibercultura, traçando as relações entre esta e a dromocracia. Nessa perspectiva, procura categorizar e caracterizar a velocidade como fundamento de um império tecnológico transpolítico.

Primeira Parte: Dromoaptidão

-Violência da Velocidade Cibertecnológica Talvez a violência mais silenciosa e invisível e, por isso, a mais implacável é a violência da velocidade. Mas, o assunto continua sendo, pelo menos no Brasil, ignorado ou pouco avaliado, sobretudo do ponto de vista da crítica teórica. O ponto de referência para uma reflexão substancial a respeito do assunto encontra-se na obra de Paul Virilo.

1. Conceito de Velocidade A velocidade impõe-se como eixo de organização e modulação de toda a existência social, cultural, política e econômica. Ela reestrutura a vida humana contemporânea conforme as necessidades de reprodução das maquinarias. Na atualidade a velocidade encontra-se materializada no próprio aparato produtivo, operando dessa maneira como violência.

2. Violência da Velocidade A velocidade é a forma atual mais velada da violência da técnica. A velocidade é a forma mais eficaz de perpetuar esta violência, mas sem deixar-se apreender como tal. Assim, a violência não se apresenta como violência, tornando-se invisível (onipresente). A violência da velocidade esta alçada à categoria de “fato social” total. Isto mostra que a velocidade é violência destilada em processo estrutural naturalizado. Nesse sentido, ela não precisa de discurso ideológico para legitimar-se, pois permeia-se e impõe-se por seu caráter flexível e o seu aspecto dissuasivo. Não há vida social que prescinda desse ingrediente estrutural. A violência da velocidade é o combustível da contemporaneidade (a parteira da história no axioma marxista), movida no mundo pela racionalidade técnica e atrelada para sempre ao vetor tecnológico. A violência da velocidade é o estado propulsor do desenvolvimento de objetos técnicos e, também no âmbito econômico-financeiro. Então, por isso, ela entrelaça seres e máquinas, trabalho e consumo. Encadeia, assim, estas às decisões políticas e técnicas do alcance macroeconômico. Nesse sentido, ela é o modo como se opera o capitalismo globalizado. Na era da tecnologia avançada, o mundo é que segue, a reboque a velocidade e não o contrário. Por isso, a violência da velocidade é que dita os rumos e o ritmo, a lei, o destino do mundo.

3. Dromoaptidão A violência da velocidade se autojustifica pela transformação compulsória da dromoaptidão (aptidão tecnicamente treinada). Sua significação compreende não somente a manutenção das taxas da velocidade conquistadas, mas também a permanente otimização destas. Por essa razão, no plano individual a alteridade real apresenta-se como um espectro e, com a seguinte questão: ser ou não ser veloz. Assim, a violência da velocidade estrutura os seres a se fazerem à sua imagem.

4. Dromopatologias A aptidão tecnicamente treinada traz consigo as enfermidade que lhe são correspondentes, ao seu caráter patogênico. Assim, a exigência da dromoaptidão aplicada no ocidente mostra a disparidade com os atributos históricos do conhecimento, isto é, no ocidente há um sistema cultural de absorvição lento do conhecimento. Dessa maneira, a velocidade preserva apenas a carcaça dos seres, destruindo assim qualquer vida interior (vazio existencial).

Segunda Parte: Dromocracia e Cibercultura

-Regime da Velocidade Cibertecnológica No contexto social-histórico que a teoria social contemporânea vem designando sob o conceito de cibercultura, aqui compreendida como a configuração material e a atmosfera simbólica e imaginária internacionais da era pós-industrial avançada, correspondente à informatização e virtualização generalizada da vida social.

1. Dromocracia Cibercultural

A dromoaptidão propulsada pela violência da velocidade funda um novo regime: a dromocracia cibercultural. Assim, a dromocracia cibercultural refere-se à articulação e modulação da sociedade, da economia e da cultura pela lei da velocidade. A dromocracia cibercultural é a rigor um regime transpolítico invisível assim como a violência da velocidade. A dromocracia cibercultural aparece como um regime na dinâmica tecnológica da democracia contemporânea.

2. Gerenciamento Infotécnico da existência

As conseqüências da aptidão tecnicamente treinada (dromoaptidão) não foram devidamente dissecadas: o gerenciamento infotécnico da existência. Nesse contexto, o valor universal a ser seguido, como valor vital, é a competência dromoapta (cognitivo e pragmático). Propriamente o domínio de fatores de eficiência e de trânsito, as senha infotécnicas de acesso à cibercultura, a saber: 1 objeto infotecnológico (hardware), 2 produtos ciberculturais (softwares), 3 status irrestrito de usuário da rede, 4 capital cognitivo necessário para operar os três fatores e 5 capacidade geral de acompanhamento regular das reciclagens estruturais dos objetos. Por isso, o domínio cognitivo e pragmático da dromoaptidão garante acesso ao mercado de trabalho e a sobrevivência relativamente satisfatória (dromocracia).

3. Dromoaptidão Cibercultural

Nesse sentido, a dromoapto é um conservador e perpetuador da dromoaptia. O dromoapto internaliza, assim, esses valores. Ser veloz, nesse caso, é assumir o ritmo social ditado não somente pela lógica da máquina em sua versão mais sofisticada, mas também, por extensão, pelo universo cibercultural como um todo. Significa introjetar e incorporar a estrutura a estrutura e a dinâmica sociotécnicas mais fincadas. Nova estigmatização Com a nova ordem da violência da velocidade (dromoaptidão) surge a figura do dromoinapto. Sobre ele recai então o peso de um novo preconceito, por referencialização ao desempenho veloz socialmente aceitável como paradigma de normalidade. É sob a cláusula da dromoinaptidão que gravitam e se legitimam os os traços de uma nova forma tecnológica de estigmatização da alteridade.


Resumo: Bruna Lin

“A velocidade, longe de vigorar como simples processo social, impõe-se como eixo de organização e modulação de toda a existência social, cultural, política e econômica”. Ela está implicada na reestruturação inteira da civilização contemporânea, e agora também é ela quem faz a organização social.

O vetor que acompanha a evolução da humanidade não se põe mais como o poder capitalista (aquele identificado como produção e apropriação de bens materiais), mas de velocidade. A análise que antes era feita pela ótica do capitalismo e, portanto, dos meios de produção e dos processos produtivos, agora é feita à luz da velocidade.

Se velocidade e informação (os vetores da cibercultura) permitem o controle, a subjugação do outro (o que rege no capitalismo) seria realizado por meio dos processos comunicacionais. Isto posto, devemos entender que poder, velocidade e informação são os que de fato ditam o controle. O conceito de dromocracia foi colocado por Paul Virilio na sua obra Velocidade e política (1996), sinalizando fundamentos teóricos para a compreensão da história e dos processos políticos e sociais pelo prisma do vetor dromológico. Ele estava interessado em mostrar os elos de ligação entre os vetores da velocidade, da política e da guerra. E a partir disso, Trivinho traz o conceito de dromocracia para o contexto da cibercultura.

O modus operandi da cibercultura vai apontar a dromocracia dos tempos atuais como um vetor para intensificar a alteridade e a distância entre aqueles que dominam as senhas infotécnicas de acesso às novas tecnologias de informação (os dromoaptos) e os dromoinaptos(os excluídos). As grandes corporações e demais controladores das novas tecnologias, nos obrigam a fazer reciclagens estruturais constantes e velozes, que em seu bojo vão excluindo do acesso os que, por motivos diversos, sobretudo cognitivos e econômicos, vão ficando à margem do processo. A vitória é dada àquele que tem o domínio informacional dromocrático.

Em outras palavras, não ter o domínio das senhas infotécnicas de acesso à vida cotidiana na cibercultura é estar condenado a uma forma de aprisionamento de situação de miséria. E tê-la não é condição definitiva já que a reciclagem imposta exige que estes códigos devam ser, mais que aprendidos, dominados, possuídos por todos os seres, empresas, entidades e governos, sob risco de exclusão.

Sabe-se, desde muito, que a detenção da informação não vai servir por igual a todos os países, todas as cidades, todas as regiões, todos os grupos sociais que constituem a sociedade civil global. Estratificações intensificam, produzindo mais desigualdades e exclusões num espaço que se desenhava democrático. Ainda, tudo isso acontecendo em um ritmo aceleradíssimo, tendo em vista o predomínio da dromocracia, também como um estilo de vida contemporâneo. Chega-se numa conclusão de que a cibercultura, ao contrário do que comumente se pensa, não é a inclusão, e sim a exclusão.

Antonio Lafuente - Ciencia 2.0[editar | editar código-fonte]

Texto 1 - Marina P.

Introdução

Após 20 anos da aprovação da Lei da ciência, nota-se que poucos foram os problemas solucionados ou discutidos. Alguns problemas continuam sem solução como a escassez de recursos, a indiferença perante as inovações, falta de bons gestores, entre outros. Além disso, há uma barreira que distancia os cidadãos espanhóis da cultura da tecnologia, não há uma abertura para quem não faz parte do meio científico. Para o autor é necessário complementar a política já existente com o envolvimento da população nesta cultura científica. O objetivo deste texto é propor a discussão das mudanças mais importantes ocorridas na cultura da ciência e, com isso, contribuir com o debate que busca encontrar respostas aos problemas mais urgentes do nosso tempo. A inovação aberta Muitas vezes o lugar onde aparecem os problemas não coincide com o local de onde aparecerão as soluções. Assim aconteceu com uma empresa de biotecnologia que ao não conseguir desvendar um problema na sequencia de ADN (ácido desoxirribonucleico) resolveu fazer algo inovador: abrir o assunto para fora da empresa e oferecer um prêmio para quem conseguisse desvendar o problema. O plano foi bem sucedido, 574 cientistas participaram sendo que 42 acertaram o desafio. O ganhador vivia na Finlândia e o mais inesperado era que ele trabalhava em outra área de conhecimento. A conclusão parece óbvia: a inovação emerge da intersecção disciplinar. Chamado de boundary objects (objetos de fronteira) termo que defende a mistura entre diferentes áreas do conhecimento, essa noção foi retirada do Actor-Network Theory (ANT) teoria criada pelos estudos sociais do campo da ciência e tecnologia que diz que uma rede de ator é um ato vinculado com todos fatores de influência produzindo uma rede. O que este exemplo nos propõe é que demos valor a novas situações. De um lado implica tirar os problemas do espaço reservado de um laboratório, pois sem dúvida as formas como é construído condicionará as estratégias que desenvolvem para buscar soluções. De outra, é muito atrativo aceitarmos a possibilidade que a solução venha de campos disciplinares distantes e diferentes. Em ambos os casos fala-se de uma abertura, openess. A estratégia correta consiste em criar estruturas que permitam as organizações aproveitar toda a inteligência e experiência que há no mundo, mas está dispersa. Porém, esta abertura cria um problema quanto à propriedade intelectual. Ao fim da pesquisa quem resolveu o problema e teve que demonstrar, explicar, a solução obtida acaba com isso revelando seu segredo, sua propriedade intelectual. Seria necessário a criação de leis que regulam a propriedade intelectual e o fechamento das bases de dados alegando que esta é a única forma de evitar que os competidores se apropriem do trabalho. Mesmo assim há pessoas que entendem essa proteção da propriedade como um discurso vazio, e continua atuando contra as pessoas que querem contribuir para o desenvolvimento da cultura tecnológica. Por isso estão sendo realizados estudos para o desenvolvimento do open source (código aberto) e da comunidade do software livre esses estudos provam que a produção colaborativa é possível, conseguindo uma vantagem tecnológica e também nos valores e práticas que argumentam e contribuem com a segurança. Lafuentes diz: “É de conhecimento de todos que quando falamos de software livre estamos nos referindo a comunidades de desenvolvedores, testadores e tradutores que adotam uma estrutura aberta, colaborativa e horizontal, distribuída, desinteressada e cosmopolita que se regula num regime meritocrático, baseado na economia do dom.” A cultura aberta As empresas flutuantes (como são chamadas as empresas abertas) não possuem uma forma única de serem organizadas. Temos como exemplo o Google, eBay, Amazon, Flickr, entre outros. Empresas que possuem em comum a natureza aberta do negócio que representam. É verdade que muitas iniciativas que sucumbiram no início do chamado capitalismo fictício, é verdade também que outros projetos foram consolidados capaz de se adaptarem melhor às possibilidades oferecidas pelas novas tecnologias. Todos que deram certo tem em comum favorecer a formação de redes sociais descentralizadas e a interação com/entre os usuários. A convergência de todas essa mudanças permitiu com que Dale Dougherty criasse o termo Web 2.0 uma forma de nomear a nova estrutura que a web está tomando através da proliferação de tecnologias que favorecem a participação de três formas distintas e convergentes: a primeira refere-se a forma que temos de produzir conteúdos seja de forma individual, corporativa ou colaborativa; a segunda consiste em dar a possibilidade dos usuários introduzirem informação substituindo a organização inicial dos conteúdos (um modelo hierárquico, tradicional e estético) por um modelo que qualquer um pode assinar (tag, key words) e qualquer página. E, a terceira, tem origem na dupla circunstância de que as máquinas tem a capacidade de se comunicar entre si e mediantes agregadores; cada uma delas, por outro lado pode personalizar as fontes (sites) que lhe interessa consultar e extrair deles a notícia como se cada página fosse uma laranja que pode espremer o suco (conteúdos) e deixar as cascas (o projeto). Com isso, percebe-se que a fronteira entre o escritor e o leitor como a que existia entre o editor e o crítico se dissolvem de forma acelerada. Um mundo crescentemente governado pela rede reescreve-se as regras dos negócios, do mercado, da política e da ciência. A internet tornou-se um meio de busca de saberes de todas as áreas. As pessoas deixam de buscar bibliotecas para procurar na rede as informações que necessitam. Assim ao desconfiar de alguma informação dada pelo governo a pessoa tem a possibilidade de tirar suas dúvidas na rede fazendo com que eclodam reações contra o governo decorrente de informações negligenciadas mas conseguidas pela internet. Temos aqui novas formas de entender as relações entre ciência, cidadania e res publica.

A ciência Aberta

Neste ponto Lafuente indaga se a ciência, seguindo o modelo de difusão e co-participação de informações da WEB 2.0 (que obrigatoriamente nos faz repensar o conceito de cultura), não estaria caminhando para um modelo similar, o qual o próprio autor denomina de ciência 2.0. Um exemplo indicativo da relevância desta indagação seria o próximo lançamento da revista PLosOne, pertencente ao grupo Public Library of Science, o qual postula a utilização do sistema open peer review para avaliação de artigos científicos. Geralmente os artigos e publicações científicas de prestígio são avaliados, quanto a sua qualidade e relevância, pelo sistema peer review (Revisão por pares). O processo de peer review consiste em submeter o artigo a uma comissão revisora ,geralmente composta de três pesquisadores, que devem opinar pela aceitação integral do paper proposto, ou pela aceitação mediante alterações, ou pela simples rejeição do artigo. Uma Revista Acadêmica é considerada de padrão aceitável quando adota procedimentos bem definidos e divulgados de peer review e escolhe os revisores entre pequisadores experientes na área de conhecimento do artigo a ser analisado. Lafuente expõem a crise neste sistema de avaliação e pontua seus principais problemas, sendo eles: - A ineficácia em identificar autores com objetivos “obscuros”(ocultar ou falsear informações) - A probabilidade dos avaliadores, valendo-se do sigilo prévio, roubarem ideias, realizarem análises superficiais ou até mesmo o utilizarem como forma de vingança pessoal. - O favorecimento a instituições e pesquisadores mais renomados e consequente penalização aos desconhecidos. Tais problemas seriam facilmente resolvidos caso o julgamento dos artigos fosse realizado abertamente, em rede, de forma horizontal e coletiva. Isto também tornaria o processo dinâmico, pois se estenderia para além da publicação permitindo assim melhorias futuras. Este sistema, open peer review, está em ressonância com o movimento de open access e open data (acesso livre e gratuito a informação) e já vem sendo discutido não somente em muitas instituições científicas e órgão públicos como também tem sido estimulado por fundações de capital privado (A fundação Bill e Melinda Gates, por Exemplo, que não financia nenhum projeto cujo o autor não se comprometa a dispor os dados em domínio público). Neste sentido, razoável seria se toda e qualquer pesquisa, financiada a partir de fundos públicos, disponibilizasse seus dados para domínio público. Lafuente ressalta também que, geralmente, nas publicações científicas, 80% os dados colhidos em laboratório não são disponibilizados na sua forma “pura” mas sim em representações gráficas e em imagens analíticas, de forma que se torna difícil a comparação de dados entre pesquisadores distintos e muitas vezes retrabalhos desnecessários, gerando incertezas e desperdício de recursos. Logo, a ciência 2.0 tem como pré requisitos o livre acesso aos bancos de dados, ou seja, o compartilhamento irrestrito das informações. Em outro aspecto, o autor chama atenção para o fato de que, hoje, a tecnologia proporciona uma estrutura muito mais confiável para o acesso, a manutenção, interação e reposição de bancos de dados, face os panoramas passados. Citando exemplos do Google e Amazon, ambos, em seus respectivos ramos de mercado, conseguiram incrementar seus lucros agregando informações através da integração de banco de dados e/ou interação com seus clientes. Tais exemplos apenas enaltecem a necessidade de uma rede aberta em todos os sentidos, onde o compartilhamento do conhecimento proporcionasse uma dinamicidade tal qual o próprio conhecimento. No entanto, é necessário também garantir que a infraestrutura da rede permita o acesso livre e sem restrições ou obrigatoriedade a utilização de software e hardwares de direito privado. A rede deve ser neutra, condicionada a utilização de protocolos de comunicação abertos, compatíveis com os bancos de dados de forma universal. Lafuente ressalta também a importância da participação de todos na construção de uma ciência 2.0 e que, apesar do ceticismo de muitos, exemplos claros da possibilidade de tal projeto vir a se tornar realidade são a OpenWetWare que utiliza a plataforma Wiki para colaboração de dados entre laboratórios de biologia, além de projetos voluntários utilizando a plataforma p2p. Tais exemplos enfatizam o caráter altruísta, comunitário, filantrópico e internacional do compartilhamento gratuito da informação. Por fim Lafuente argumenta que tal como a ciência, a política caminha em paralelo em direção ao “mundo 2.0”, visto que no modelo social onde a coparticipação e interação entre os indivíduos prevalecerá sobre os conceitos conservadores de “se fazer política”, programas de governo pré-fabricados por um punhado de peritos e especialistas darão lugar a projetos compartilhados, onde a sociedade exigirá ser questionada acerca das prioridades e demandas pontuais de cada grupo ou população.


Discente: Fernando Luis de Almeida Texto: Ciência 2.0 - Antônio Lafuente

Antônio Lafuente, em Ciência 2.0, discute a elaboração de pesquisas científicas em um contexto decorrido de 20 anos após a lei de Ciências na Espanha, e aborda temas de acesso aberto à inovação tecnológica, cultura, ciência e política de comunicação. Os avanços da ciência e da cultura científica, entre os cidadãos, passam por uma desconfiança, seja com os governantes e com as instituições políticas. Ao mesmo tempo, a expansão da Internet vem introduzindo praticas culturais (costumes) e científicas de nossa época. A forma de relacionamento se transforma com a comunicação de redes (Netscape, Orkut, Hotmail, Yahoo, Facebook). Logo, não se pode ignorar o avanço tecnológico, seria a possibilidade de vetar oportunidades de compreender as mudanças sociais vigentes.

Sobre a inovação aberta, ele comenta da experiência de Karim Lakhani, que a partir da sociabilização de um problema de sequenciamento de DNA, aparentemente sem solução específica pelos pesquisadores locais, foi possível encontrar uma resposta. Com a exportação do problema, o resultado foi impressionante (diversas soluções de distintas partes do mundo e de especialidades diferentes (indício de trabalho coletivo). Formatar um problema para que possa ser reconhecido por diversas especialidades é mais que interdisciplinaridade do conhecimento, traz o conceito de transversatilidade do saber. Outro exemplo, no século XVIII, após o esgotamento dos pesquisadores renomados da Royal Society, foi através de um concurso que resolveram o problema de cálculo de longitude média em alto mar.

O Trabalho Coletivo nas ciências permite o avanço tecnológico e a transformação de valores e práticas culturais. O sucesso da ciência de natureza aberta vem do empenho de experiências baseadas na estrutura aberta, horizontal, colaborativa, distribuída, pautada pela meritocracia (sobrevive a melhor solução). Portanto, as grandes mudanças, advindas a partir dos anos 2000, com a introdução de novas tecnologias, permitiram maior interatividade entre usuários e a interconexão de diversas redes atuantes na disseminação de informação/dados de forma individual (TAGs - catalogação de alimentos) ou coletiva/colaborativa (blogs, Facebook, wikis e outros).

Comunicação entre máquinas pela interface web possibilita ampliar a propagação de informação em redes altamente integradas, alterando as regras sociais, de negócios, de mercado e, consequentemente, da política de comunicação. As novas tecnologias modificam o entendimento por cultura, obrigam a repensar a ciência diante dos problemas atuais, cito Antônio Lafuente em Ciência 2.0,

“Entre ellos, citaré sólo tres: el primero es que no está concebido para atrapar a los autores cuyo ánimo sea falsear u ocultar información; el segundo, es que la práctica del secretismo en los informes permite el desarrollo de múltiples corruptelas, como el robo de ideas, la vendetta personal o la crítica superficial; el tercero, para terminar, es que favorece claramente a las instituciones o científicos más famosos y penaliza a los laboratorios e investigadores desconocidos.”

Outro problema em ciência aberta é a perda de dados, pois o mau gerencialmente, as mudanças ou o abandono de bases de dados pode emperrar o dinamismo de pesquisa pela rede, resolver isso estaria na aplicação de recursos e conhecimentos. Os dados compartilhados em rede de forma aberta e compatível com as tecnologias existentes, para que possa ser acessível por uma empresa ou por um indivíduo, ambos não poderiam edita-lo, formatá-lo, enviá-lo, gravá-lo a não ser com uma tecnologia existente, amplamente difundida e de acesso e código aberto.

Por este ponto de vista, todos os problemas científicos poderiam ser resolvidos se disponibilizados na rede de forma pública, horizontal, permitindo a opinião, o aperfeiçoamento por investigadores de forma dinâmica (diversas locais e especialidades do conhecimento). O open access e open data, em outras palavras o acesso livre e gratuito (domínio público) da informação científica está ganhando força após a A Declaração de Berlin (2003), o apoio de FAO e da OMS. A Bill e Melinda Gates Foundation só fomenta pesquisas que se comprometam a colocar os resultados da pesquisa científica em domínio público imediatamente a sua obtenção.

O autor reafirma que as novas tecnologias permitem ampliar a forma de conhecimento de como a sociedade se transforma diante este cenário. Limitar-se aos instrumentos das novas tecnologias e visualizá-los no sentido, somente, de gestão de velhos problemas, impossibilitará o conhecimento do relacionamento dos indivíduos com as tecnologias. Porém, quando o assunto for ciência aberta irá envolver a política que deverá ser compreendida como tal. Diante disso, a princípio, podemos explorar duas vertentes trazidas por Lafuente.

Primeiro, a ciência aberta permite atestar mérito e a reputação do pesquisador com mais dinamismo e eficiência, enquanto aos laboratórios virtuais passam por um momento de emancipação e reconhecimento dos resultados. A tecnologia (P2P) permite a participação dos os cidadãos em projetos distintos (busca de sinais de inteligência em planeta distante, desenvolvimento de pesquisa SIDA e estudo das mudanças climáticas são alguns exemplos). Tudo baseado na natureza voluntária (altruísta), comunitária, filantrópica, desafiante e internacional.

Em segundo, Lafuente traz o desafio atual passa pelo rompimento de uma forma tradicional de se fazer pesquisa, em que o pesquisador possui domínio méritos nos resultados, tem medo de perder prestígio, privilégios e recursos governamentais. Neste mesmo sentido, o desafio também está posto para os agentes políticos que devem agir contendo abusos realizados na rede de comunicação que poderiam emperrar a prosperação da ciência aberta nos termos discutidos.


Perguntas que instigam a discussão:

O acesso, a transformação e a veiculação de forma aberta possibilitará a democratização dos resultados científicos?

A emancipação de laboratórios virtuais com o reconhecimento de resultados científicos permitirá o dinamismo na busca de solução científica?



Texto 2 - Izabella Romanoff Paiva

Sobre o autor: Antonio Lafuente é cientista de pesquisa no Instituto de História da CSIC. Seu livro mais recente é intitulado Carnaval da Tecnociência (Gadir, 2007)

O autor inicia o presente texto indicando o que significa o termo utilizado pelo mesmo autoridade expandida, clafissicando-a como um enxame heterogêneo de experiência na produção deslocalizada, ou seja, contraste e rigorosa, fora dos limites e fronteiras da Acadêmia, fora do laboratorial. Afirmando ainda que existem milhares de experiências, em milhares de lugares diferentes, muito interessantes que demonstram a emergência dessa forma de produção.

Em seguida o autor dá maiores detalhes sobre o que seria de fato tal produção, afirmando que acredita ser interessante falar nisto como sendo o terceiro setor de conhecimento, asseverando ser, ao lado do mercado e Estado, um terceiro setor, com base essencialmente, mas não exclusivamente, na economia da dádiva. O que são as ONGs, movimentos anti-nucleares, pacifistas ou ambientalistas, o movimento local ou coletivos afetadas ou em causa ("preocupação"), isto é, os pacientes cuja identidade foi concebida a partir da ciência e se rebelam contra o que parece mais uma declaração do que um diagnóstico, lutando para construir a sua própria identidade. O experimentar mais avançado, mais reconhecido, que é o carro-chefe do terceiro setor, é o movimento hacker e tudo sobre GNU-Linux do sistema operacional, não só sistema operacional, mas também o navegador Firefox, o Apache e outras tecnologias não desenvolvidas "para o povo", mas "do povo". O autor realiza, ainda, menção especial às pessoas afetadas pela Aids que lutoram e lutam para obter um diagnóstico, considerando os mesmos "especialistas de experiência" O entrevistador segue questionando quanto às possibilidades de reconhecimento da autoridade expandida, como sendo algo alternativo, oficial, ou considerado conhecimento complementar, sobre Lafuente responde que todas as experiências partem de um lugar na autoridade expandida, mas que estes podem ser diversos, exemplifica mencionando os ambientalistas como a prova da existência de tensões dentro da República "da Ciência ". Afirma o mesmo: ‘’ Eles lutam por um mundo diferente e, assim, dão valor a outros objetos, produzem fatos de outra forma. Não há resultado melhor do que divulgar as evidências.’’ Rapidamente menciona o papel da Web 2.0., assunto que será melhor desenvolvido no próximo texto.

O intrevistador questiona sobre o fato do livro de Lafuente conter diversos estudos sobre a extensão da Wikipedia, sobre o assunto o autor afirma que um estudo da IBM (realizado pelo Grupo de Pesquisa Colaborativa Experiência do Usuário) para conhecer a taxa em que os conteúdos são purgados errôneamente na Wikipedia concluiu que um erro leva seis minutos em média para ser detectado. E no que diz respeito à qualidade, houve dois grandes estudos para avaliar a Wikipedia. A Natureza (2005) comparando o conteúdo da Wikipédia e da Enciclopédia Britânica. E conclui que o nível de erro é comparável, isto é, que a cultura de pagamento tem a mesma qualidade que a cultura de graça. Este estudo concluiu aconselhando Natureza olhos dos cientistas, você tem que dar muito mais valor à idéia de publicar na Wikipédia e tomar cuidado com o grande impacto do que está escrito lá. " O outro estudo, realizado pela Sociedade Americana de História e publicado no Journal of American History, analisa o conteúdo de Humanidades. Aqui o desafio é enorme, pois uma enciclopédia, por sua própria natureza, inclui uma elevada porcentagem de conteúdo humano, como conteúdos científicos gerais. Este estudo analisou as biografias e concluiu que os índices de qualidade Wikipedia são acima do ideal. Ou seja, para o autor não há, nestes sentidos, crítica razoável à Wikipedia. Mas a "autoridade expandida" continua a ser um processo ambíguo, portanto, começa a demonstrar pontos que poderiam ser considerados não tão positivos O primeiro questionamento é acerca da possibilidade de prescindir dos chamados especialistas. Sobre, o autor pontua que em qualquer movimento em nossas vidas, o ar que respiramos ou a água que bebemos, o que comemos ou materiais com que nos vestimos ou lavamos, tudo é permeado por toda parte por ciência, de tal forma que se os especialistas não defenderem o bem comum, estamoremos diante de uma crise de ciência política. Isto é, uma crise da democracia, porque temos depositado em especialistas um enorme poder, como, então, viveremos contemporaneamente em um mundo em que os especialistas não serão a solução, mas parte do problema? Para responder o presente questionamento, Lafuente propõe que a crise especialistas destaca a importância da política. É aceitar que o propósito da ciência é o mesmo que a política, o bem comum. Aceitar também na ciência tudo é provisório, hesitante, passível de revisão. E dar-lhe uma chance de segunda ilustração que seria baseada e, como no século XVIII, em uma luta contra superstição, e contra a privatização do conhecimento (sujeito a gestão por parte da corporações multinacionais), que tem distorcido dramaticamente o papel da ciência e da democracia. Nós não sabemos mais para quem trabalham especialistas e por isso as soluções para os problemas que enfrentamos não podem ser tecnocráticas (tomada por juristas e especialistas na tecnologia em questão), mas deve ser acordado entre todos os interessados. Uma transformação que envolve uma maior transparência e participação social na informação e tomada de decisões. Imagina que a relação entre o primeiro setor (público-estatal) e este terceiro setor serão muito conflituosas. Haverá convergências e divergências, a cooperação e conflito. No entanto, para o autor, temos que defender o direito de saber, postulando que o Estado alegou o direito de gerir, para nos dizer quando, quem e onde comunicar o que quer comunicar. Para termos condições do contrário, teríamos de dizer: "nós não queremos qualquer paternalismo, eu vou pensar o que fazer com o meu medo, se eu precisar de um psiquiatra, um ministro, um blog ou uma garrafa de Rioja, ou mesmo, é algo que independe de sua autoridade.


Questionamentos em sala

1- A existência de especialistas nas mais diversas áreas é algo de que podemos prescindir hoje em dia?

2 - Quão confiável é o conhecimento científico (propriamente dito) e a qual interesse este presta serviço?

Antonio Lafuente - El saber, para quien lo necesita[editar | editar código-fonte]

Bruna Galichio

A entrevista ao pesquisador Antonio Lafuente aborda temas como, produção e controle de conhecimento, importância política do terceiro setor, ale O argumento de Antonio Lafuente parte do conceito “autoridade expandida”, o qual coloca em questão a autoridade exercida pelo Estado e pelo setor privado (grandes multinacionais) sobre a produção do conhecimento e o acesso ao mesmo. Antonio Lafuente aponta o terceiro setor como contracorrente ao monopólio de práticas, discurso e produção de verdade das grandes corporações e coloca como exemplos-chave na organização política desse terceiro setor o movimento ambientalista e grupos de pessoas infectadas pela AIDS. No caso do segundo exemplo, Lafuente ressalta a preponderância do poder médico ao diagnosticar a AIDS, com o que o autor chama de “sentença”. Nesse sentido, há todo um discurso de produção de verdade sobre a doença que não apenas implica em um diagnóstico, mas já em consequências dadas e perfis desenhados. Ou seja, o infectado, assim que diagnosticado, passa a ser parte de um perfil de grupo de infectado, os chamados “grupos de riscos”, dotados de determinadas características intrínsecas ao grupo, como por exemplo, no primeiro momento, a doença passa a ser diretamente associada à homossexualidade. Esse discurso médico produz como resultado um tratamento social e político discriminatório. Diante disso, esses grupos para construir sua própria identidade, à despeito do discurso médico. Outras doenças não classificadas, fora do interesse médico mostram a dificuldade da medicina em lidar com corpos não normalizados. Surgimento de novas doenças que são produto da civilização e passam a subverter o paradigma da própria ciência civilizatória. A autoridade expandida possibilitaria o compartilhamento de experiências entre esses indivíduos, buscando produzir um conhecimento sobre si diferente da sentença médica. Esse compartilhamento seria possível por meio da internet, que possibilita aos indivíduos serem médicos de si. Outro exemplo é sistema operacional GNU Linux (tema já tratado em aula) como exemplo de luta sobre mecanismos de controle e contra o discurso científico. O movimento ambientalista é caracterizado como anti-sistema, pois acaba expondo diversos discursos (biólogos, físicos, ecólogos), e, consequentemente, diversas verdades sobre o meio ambiente. Os ambientalistas mostram que esses discursos, apesar de parte deles se dizerem científicos, podem não dialogar, colocando em cheque a chamada “República da Ciência”. Ou seja, constroem seu discurso a partir do colapso de verdades estabelecidas. Exemplo importante no que diz respeito ao conhecimento informa, a Wikipédia é objeto de pesquisa científica reveladora. Os resultados mostram que o índice de erros da ferramenta é baixíssimo, semelhante à enciclopédia britânica. No entanto, a chamada “autoridade expandida” carrega algumas ambiguidades que, para Lafuente são negativas, como por exemplo, o que Lafuente chamou de “produção de incertezas”. Segundo ele, a internet também abre espaço para a veiculação discursos qeu visam promover incertezas sobre temas “inquestionáveis” em prol de interesses econômicos ou políticos. Outro termo importante na argumentação de Lafuente é o conceito de “bem comum”. A entrevista problematiza o que deveria ser considerado bem comum, em detrimento da posse do setor privado, do interesse econômico das multinacionais e do controle do Estado. Como exemplo, Lafuente cita o patrimônio genético, dados de hospitais públicos, além dos livros reorganizados pelo Google (e-books). Crise dos especialistas e problemática do sigilo dos cientistas: a que interesses estão servindo? Soluções não devem ser tecnocráticas, pois não sabemos para quem os cientistas trabalham. Antonio Lafuente propõe a luta política do terceiro setor contra a privatização do conhecimento, pois essa privatização distorce o papel da ciência e da democracia. O terceiro setor representa 7% do PIB mundial e deve ter consciência de sua importância e apostar em um modelo político baseado em convergências e no bem comum, porém sem suprimir as heterogeneidades e contexto locais.


Gilles Deleuze - Post-Scriptum sobre as Sociedades de Controle[editar | editar código-fonte]

Autora Resumo: Tatiana

Em seu texto Post-Scriptum sobre as sociedades de controle, Deleuze faz uma abordagem da teoria desenvolvida por Michael Foucault acerca dos modos de organização das sociedades através dos dispositivos de dominação que os caracterizam. Deleuze nos fala de uma transição das sociedades de soberania às disciplinares e desta para as sociedades de controle. Tendo como referência a obra de Foucault, Deleuze irá basicamente reter sua análise nas diferenças e mudanças ocorridas na transição das sociedades disciplinares para as de controle.

Com base na teoria de Foucault, Deleuze afirma que as sociedades disciplinares:

  • remetem aos séculos XVIII e XIX tendo seu apogeu no início do século XX;
  • são organizadas segundo os grandes meios de confinamento como escola, hospitais, fábricas, prisões, família;
  • constituem meios de confinamento análogos e independentes onde os indivíduos sempre começam do zero, ou seja, transitam de um espaço fechado para outro, cada um com suas próprias leis;
  • possuem um molde fixo que era aplicado às mais diversas instituições a fim de moldar os corpos dos indivíduos;
  • tais sociedades possuem dois pólos: a assinatura que indica o indivíduo e seu número de matrícula que indica sua posição na massa;
  • são sociedades marcadas por máquinas energéticas;
  • sistema de fábricas onde a base é a produção com salários baixos e indivíduos constituindo um só corpo;
  • disciplina era de longa duração, infinita e descontínua;
  • em analogia, os indivíduos comportam-se como toupeiras;

Foucault estaria consciente da crise generalizada das instituições e a partir da Segunda Guerra Mundial os meios de confinamento como escola, hospitais, família, fábricas e prisões nos quais moldavam e se produzia os indivíduos sofreriam diversas mudanças para atender as necessidades de adaptação a um mercado desestabilizado pelas inovações tecnológicas.

Dessa forma, houve uma transição das sociedades disciplinares para a sociedade de controle, que diferentemente da primeira que depende das instituições para agirem sobre os indivíduos, as sociedades de controle abrangem seu domínio sobre os grandes grupos sociais e não mais apenas ao indivíduo.

As principais características das sociedades de controle são:

  • apogeu a partir dos meados do século XX;
  • modos de controle ou controlatos são variações inseparáveis, ou seja, passa-se da família à escola e desta à empresa pela formação permanente; há uma interpenetração dos espaços;
  • possuem modulações auto deformantes e que mudam continuamente;
  • se nas sociedades disciplinares não se parava de recomeçar, aqui nunca se termina nada devido a constante formação que faz desaparecer as fronteiras entre começo, meio e fim sendo que o sujeito encontra-se em um interminável processo;
  • o essencial não é mais uma assinatura ou número de matrícula e sim uma cifra/senha que marcam o acesso ou rejeição à informação;
  • sociedades marcadas por máquinas de informática e computadores;
  • a fábrica é substituída pela empresa que introduz rivalidade entre os sujeitos, e salários de acordo com o desempenho dos mesmos;
  • indivíduos tornaram-se individualista e divisíveis;
  • se antes a base do sistema econômico era voltado para a produção, agora é voltado para a venda ou para o mercado, os serviços de vendas tornaram-se a alma das empresas; marketing como instrumento de controle social;
  • homem passa de confinado a endividado pois, os sujeitos encontram-se dentro de um controle contínuo sem delimitações de começo e fim;
  • controle é de curto prazo, rotação rápida, contínuo e ilimitado;
  • por analogia o indivíduo não é mais a toupeira e sim a serpente

Deleuze afirma que tal transformação é antes de tudo uma mutação do capitalismo, pois o capitalismo do século XIX era voltado para a concentração, produção e propriedade dos meios de produção; passa-se a um capitalismo de sobre-produção, não mais voltado para a produção e sim para o produto, para sua venda ou para o mercado. Não caberia a nós indagar qual seria o modelo de sociedade mais tolerável, e sim a criação de diferentes armas a fim de resistir aos novos dispositivos de dominação, pois, em cada um deles cria-se forma de sujeição assim como formas de liberação.



Rogerio da Costa - Sociedade de controle[editar | editar código-fonte]

Autor resumo: Felipe Rolin de Moura

Rogério da Costa começa o texto introduzindo as diferenças entre as sociedades disciplinares (Michel Foucault) e a sociedade de controle (Gilles Deleuze), das quais podemos destacar:

Sociedade disciplinar: situa-se do século XVIII até a 2ª Guerra Mundial. Caracteriza-se por ser de longa duração, infinita e descontinua. O elemento central deste tipo de sociedade é a fábrica, que tem por meta a produção. As instituições buscam disciplinar os indivíduos desde que estes nascem, prisão, escola, fábrica, exército, hospital, entre outros exemplos.

Sociedade de controle: surge na metade do século XX. Caracteriza-se por ser de curto prazo, ilimitada, contínua e de comunicação instantânea. O elemento central deste tipo de sociedade é a empresa, que tem por meta o consumo. Através do marketing, televisão, internet, uso da senha, entre outros exemplos podemos ver “prisões ao ar livre”, já que não possui um espaço definido como na disciplinar, podendo o controle ser exercido em qualquer lugar.

O autor nos mostra que diferentemente das sociedades disciplinares, as sociedades de controle voltam-se para os elementos imateriais da sociedade, existe uma modulação analógica. Como coloca o autor: “Na sociedade de controle, estaríamos passando das estratégias de interceptação de mensagens ao rastreamento de padrões de comportamento” (p.163). Nitidamente na sociedade de controle o que temos dominante é o controle permanente sobre os padrões de comportamento dos indivíduos, sobre os fluxos de informação, resultando em relações de poder descentradas, mas mesmo assim, mais eficientes nas formas de regulação social.

Na sociedade disciplinar a vigilância era exercida conforme o movimento físico dos indivíduos e seu deslocamento espacial, vigiar era regular os passos das pessoas. Com a inserção de novos meios tecnológicos e da forma como estão dispostas as informações, passa-se a vigiar as interações cibermediadas, o trânsito das comunicações, o importante é analisar como cada um se movimenta no espaço informacional, muito mais do que os próprios movimentos físicos. Segundo o autor “vigiar” ganha um novo sentido, significa agora, interceptar, ouvir, interpretar. O autor nos mostra que a nova forma de vigilância gerada “se preocupa em saber de que modo essas informações estão sendo acessadas pelos indivíduos” (p.164). Costa traz como exemplo o Sistema Echelon, que seria a “base” de toda nossa sociedade do controle e um sobrevivente da sociedade disciplinar.

Este sistema serve para interceptar mensagens originadas da internet, telefone, fax, entre outros meios de comunicação modernos. No texto podemos ver exemplos de fins para os quais este sistema foi utilizado, desde espionagem diplomática e militar até planos comerciais como, por exemplo, no Brasil, ao interceptar as negociações entre FHC e a empresa francesa Thomson, para compra de equipamentos para serem utilizados no projeto Sivam. Com o surgimento de novas tecnologias de comunicação, fibras ópticas de alta capacidade, por exemplo, o Sistema Echelon têm dificuldades de cumprir seu objetivo.

Com isso passa-se a construir padrões de comportamento, como podemos observar em sites de compra como Submarino, Amazon, Fnac, entre outros, que através dos produtos que você seleciona no site, são indicados outros que usuários com padrões de “clique do mouse” semelhante ao seu compraram ou apenas observaram. Dessa forma constroem-se grupos com gostos e hábitos muito semelhantes. Outro aspecto que estes sites utilizam é o fato de que ao visitar o mesmo produto constantemente, o consumidor, muita vezes, acaba sendo direcionado a uma oferta exclusiva para aquele produto, para que se efetue o consumo.

Através de toda essa tecnologia de “rastreamento”, um novo projeto vem à tona: Total Terrorism Information Awareness, que segundo o autor: “aquilo que na web é a construção de um perfil dinâmico de usuários com fins comerciais, que serve para alimentar a sociedade de controle light do marketing, agora no TIA passa a ser a construção do perfil total, que será o resultado do cruzamento das ligações telefônicas de um indivíduo (sua origem, destino, data e duração), as despesas efetuadas em cartões de crédito (quanto, onde, quando) e, a partir destas, as operações comerciais mais diversas. O que o projeto almeja, com esse esforço, é a produção de uma visão dos padrões de comportamento de amostras da população. O objetivo básico do projeto é auxiliar analistas a compreender e mesmo prever uma ação futura, no caso, uma ação terrorista. (p.166)”

Dessa forma saímos de uma identidade para o código, onde o poder não é mais absoluto como nas sociedades disciplinares. A vigilância na qual estamos sujeitos atualmente não é dada apenas pelas senhas que possamos utilizar ou o CPF onde podemos ver todas as nossas movimentações financeiras. O computador aparece como um dos principais meios de controle ao utilizarmos o IP para rastrear tudo que foi feito, já que praticamente tudo que antigamente tínhamos de nos deslocar para realizar, hoje fazemos em qualquer lugar utilizando nossos computadores, smartphones, tablets, entre outros. Mas não podemos esquecer é claro, dos caixas de banco, as inúmeras câmeras de segurança localizadas em praticamente todos os lugares, onde tudo que fazemos pode ser rastreado.


Sergio Amadeu da Silveira: Redes cibernéticas e tecnologias do anonimato[editar | editar código-fonte]

Autor Resumo: Francisco Werton Cortez

No texto sobre ‘redes cibernéticas e tecnologias do anonimato’ o autor Sergio Amadeu discute a questão do anonimato na modernidade inserido no campo da cibercultura. Anonimato entendido como ‘uma série de relações sociais que dizem respeito à identidade, à subjetividade, ao controle, à segurança e aos direitos civis’ ( pag115) e que a internet – com a sua arquitetura e seus protocolos – é entendida como um mecanismo ativo de transmitir informação.

Utiliza do termo cibernética, que segundo ele é uma ‘ciência da organização que enfatiza a dinâmica da natureza e dos modelos da organização e auto-organização dos sistemas’ ( pag. 117), para evidenciar a dualidade existente entre os agentes organizadores da internet ( protocolos ) e como os protocolos servem ao mesmo tempo de ferramenta de comunicação e de controle. Protocolos são regras, convenções, para a comunicação entre os dispositivos da rede.

Uma dialética na qual pode-se obter o anonimato, principalmente através do protocolo tcp/ip, onde verifica-se realizar a comunicação na rede sem necessariamente expor a nossa identidade física, e ao mesmo tempo restringir, através de cadastros feitos pelos provedores de acesso a rede, o anonimato.

Partindo do embate entre liberais e utilitaristas no que cerne a questão do anonimato, o autor discute as visões desses dois tipos de pensamentos

A visão utilitarista, apoiada pelo autor Jeremy Bentham, tem como solução o desaparecimento do ser anônimo ‘uma vez que isso obscurecia a classificação e o correspondente cálculo geral necessário a estruturar o bem-estar social’ ( pag. 123 )

No que tange a visão liberal sobre o anonimato e apoiado por Benjamim Constant os autores dessa corrente de pensamento acreditavam que o anonimato era de fundamental importância para a preservação da privacidade. ‘O pretexto de prevenção do crime tem as maiores e mais incalculáveis consequências. A criminalidade potencial é inseparável da liberdade de todos, das vidas de todas as classes, do crescimento de todas as faculdades humanas. Os que detém a autoridade, alegando interminavelmente o receio de que um crime possa ser cometido, podem tecer uma vasta teia que envolva todos os inocentes’ ( pag. 124 )

A favor do anonimato, verifica-se que a livre expressão dos usuários tem que ser mantida, protegida, de qualquer embate político, religioso, econômico. ‘O argumento hacker sobre a verdade e a verificação dos conteúdos anônimos passa pelos mecanismos de reputação, de denúncia colaborativa e pelas redes de confiança’. O usuário anônimo compreende um participante regulador sobre as emissões de opiniões que comumente se verifica na rede. Ele participa ativamente na construção do cotidiano mesmo contido no anonimato. Ajuda na distribuição dos conteúdos e não limita essa fonte do saber.

Já contra o anonimato o que se observa é o fator de ausência de responsabilidade sobre a emissão de uma notícia, por exemplo. ‘Um efeito nefasto do argumento anônimo irresponsável e moralmente repreensível, inverídico, mas apresentado como verdadeiro e correto, é o de gerar uma rápida ação injusta, cujos efeitos não podem ser reparados’ ( pag 128 )

Por fim, utilizando um exemplo do Google, o autor demostra o caráter restritivo que a internet pode tornar a ser. O controle utilizado pela empresa é radicalmente contra o anonimato. A partir do momento em que o usuário faz o login no correio eletrônico, a empresa Google vincula o IP ao internauta e a partir disso tudo o que foi feito é utilizado pela empresa como informações desse usuário na rede, ou seja, ele perde toda a sua privacidade em nome de alguma segurança que ninguém, de fato, sabe afirmar se é benéfica ou maléfica para a rede de computadores.

Manuel Castells - Comunicação Poder e Contrapoder: Os meios e a Política[editar | editar código-fonte]

Autor Resumo: Matheus Valentim Gritti

No seguinte artigo o sociólogo espanhol Manuel Castells (Hellín, 1942), analisa o papel dos meios de comunicação de massa na política, através dos mais diversos meios de comunicação, colocando a comunicação em si, entre os membros da sociedade, como tendo um papel importante na construção da opinião pública (analisando conjuntamente o significado dessa opinião) e aponta qual a transformação visível a partir do uso da internet sobre o mesmo, afirmando, ainda na introdução ao artigo, que “en nuestra sociedad, el poder es el poder de la comunicación” (Castells, ano). O artigo está dividido em quatro pontos de análise.

O Exercício do poder através da construção da opinião pública. Ao iniciar essa primeira parte do artigo, Castlles aponta que, historicamente, tanto comunicação quanto informação se constituíram, e ainda se constituem, como fontes fundamentais das ambivalências poder e contrapoder, dominação e transformação social. A opinião pública se constitui nesse sentido fator decisivo para a manutenção de um determinado poder, o papel dado, então, a comunicação é a de modelação desse aspecto. Para o autor a produção de significações ocorre no âmbito da comunicação pública, onde a mesma é apropriada por diversos agentes. A apreciação desse sentido da comunicação e suas consequências se dão ainda de forma mais presente a partir da transformação e avanço das novas tecnologias digitais, que permitem, por sua vez, o avanço e um mais elevado alcance da comunicação, que atravessa todos os aspectos da vida social e que, na rede, a comunicação é ao mesmo tempo global e local; impactando, assim, na relevância que assume o campo da comunicação no campo da esfera de poder. Poder e contrapoder, no artigo, se revelam como importantes fontes de estruturação no campo da comunicação. Nas palavras do autor: “poder como la capacidad estructural del actor social para imponer su voluntad sobre outro(s) actor(es) social(es)” e “contrapoder... es la capacidad de um actor social de resistirse y desafiar a lãs relaciones de poder institucionalizadas” (Castells, ano); entendendo que por serem relações conflituosas, no campo da comunicação, da tecnologia, refletem valores e interesses também conflituosos sobre os mais diversos agentes sociais. Castells aponta quais hipóteses trabalhará para a explicação da relação dos grandes meios de comunicação e dos “projetos” de contrapoder com a nova estrutura tecnológica, são elas: o papel da política midiática e sua relação com as crises de legitimidade política; o papel chave dos meios de comunicação segmentados, personalizados e a produção cultural; o surgimento de uma nova forma de comunicação relativo à cultura e tecnologias de rede e baseadas nas redes de comunicação horizontais (autocomunicação de massa); e os usos dados aos meios de comunicação de massa unidirecionais como a autocomunicação de massa na relação de poder e contrapoder, na política formal, na política insurgente e nas novas manifestações dos movimentos sociais (Castells, ano). Salienta que o entendimento da transformação ocorrida no meios de comunicação situam-se num complexo contexto cultural onde: o Estado, principal centro de poder, passa por um forte questionamento; a competição pela concentração empresarial e segmentação do mercado que caracterizam o atual cenário da indústria cultural e dos meios corporativos; e a oposição mundial entre o individual e o coletivo na concepção da cultura ao mesmo tempo que as identidades funcionam, ainda, como materiais herdados historicamente (Castells, ano).


Comunicação de massa e política midiática. Para o autor o canal de comunicação mais importante entre o sistema político e os cidadãos se faz nos meios de comunicação de massa, considerando que a política, em nossa sociedade, é basicamente uma política midiática, e que, através da relação existente entre o poder político e o poder midiático, os cidadãos convertem-se em “consumidores de um mercado político” (Castells, ano). O autor considera a forte ação dos sujeitos políticos sobe os meios de comunicação, porém não desconsidera as ações de livre escolha, coloquemos assim, do público em questão. Além desses fatores entende que os meios de comunicação também contam com seus próprios meios e formas de controle frente ao público, uma vez que são empresas, e que um de seus objetivos é a audiência que possui, como consequência, investimento financeiro. Castells não deixa de apontar a crescente onda de um jornalismo cada vez mais ideológico e militante, e de como está intrinsecamente relacionado com os interesses das corporações desses meios de comunicação e dos governos. Um dos problemas principais problemas referentes à formação da opinião pública não é a modelação da mensagem veiculada, mas antes a omissão de conteúdos, pois, segundo o autor, o que inexiste nos meios de comunicação, inexiste igualmente na opinião pública. A relação entre as mensagens que intentam transmitir os políticos e os meios de comunicação é de uma determinada sujeição da mensagem com seu conteúdo ao formato da mídia, assim o efeito que terá dependerá justamente do formato que assumirá. Nesse sentido o que é analisado não é a relação de poder em si que apresentam os meios de comunicação, mas como em seu meio é que se decide o poder, isso porque ao dependerem desses mesmos meios, os políticos devem sujeitar seus interesses às “regras próprias” desse segmento, pautadas, principalmente, por uma comunicação simbólica, de imagens. Sendo assim, as mensagens transmitidas assumes um caráter de uma “mensagem simples adjunta de uma imagem” (Castells, ano); e a principal característica proposta é a de ligar a pessoa de um determinado político a uma determinada “imagem” que do mesmo se construirá, na maioria dos casos pautadas em ideias de moralidade e honradez. O que passa a ser determinante no campo de relação de forças políticas, já não são mais os programas ou propostas partidárias, mas antes a postura de tal ou qual candidato, diretamente ligado aos meios de comunicação de massa que será quem constituirá e difundirá essa mesma imagem.”Los poíticos son los rostros de lãs políticas” (Castells, ano). À partir desse ponto de estruturação da relação de forças políticas ligadas a imagem “montada” pelos meios de comunicação, as formas de enfrentamento passam a se dar segundo o ordenamento proposto pelo mesmo, não são mais propostas e programas, mas passa-se a um confronto direto com tal ou qual “personagem” político, passa-se, pois, a personalização das relações de forças.

Política mediática, política de escândalos e as crises de legitimidade política. Aqui são apontados os dois possíveis efeitos que têm sobre a política os escândalos políticos. O primeiro efeito considerado é da capacidade de afetar no processo de eleição e decisão política, “debilitando la credibilidad de aquellos sujetos afectados por el escândalo” (Castells, ano). Podendo ser numa reação de indiferença pública ou ainda na escolha daquele que mais se aproxima do interesse particular de cada eleitor. O segundo efeito considerado é um que pode assumir, segundo Castells, consequências duradouras no exercício da democracia. Esse efeito se dá pelo fato de que, frente ao senso comum, uma injúria, uma “falha” moral faz com que a população “jogue”, por assim dizer, todos os agentes referentes a política num mesmo saco (a ideia de que todo político é corrupto, safado etc.). Claro que a crise de legitimidade política não deve ser entendida fundamentalmente pelo papel de escândalo de que dela faz os meios de comunicação, mas há de se considerar que os mesmos funcionam como um desencadeador de transformações políticas a curto prazo e de ceticismo em relação à política formal a longo prazo. Nesse sentido parece que os meios de comunicação são responsáveis pelo descrédito político, no entanto o autor chama a atenção que quem financia e estimula muitas a política midiática não são propriamente agentes do meio, mas sim os próprio agentes políticos envolvidos nesse jogo de correlações de forças. “De nuevo, los médios de comunicación conforman el espacio em el que se ejerce El poder, no la fuente que lo sostiene” (Castells, ano). Nessa crise do modelo político o autor mostra que os cidadãos continuam acreditando que podem influir na política de sua sociedade, porém não através dos partidos; nesse ponto é que pode-se entender a aparição de “políticos insurgentes” correlatos ao surgimento de novos espaços midiáticos.

A emergência da autocomunicação de massa. A difusão da internet, os aparelhos de comunicação moveis, os meios digitais e uma gama de ferramentas de software social são, segundo o autor, características que propiciaram e impulsionaram uma rede global de comunicação horizontal, que permite uma comunicação multimodal e onde a comunicação é realizada de mitos para muitos, o que leva a uma quebra na hegemonia dos meio que trabalhavam de forma comunicativa de um para muitos e de forma verticalizada. Isso influi na forma que assumirá a mensagem transmitida, não somente no seu formato, como também na sua circulação. A rede como um todo torna-se um espaço de comunicação multilingual, onde a língua inglesa não tem, de forma impositiva, todo o domínio, havendo, pois, espaço para a criação e circulação nas mais diferentes formas linguísticas. Outro aspecto é que a comunicação presente na rede apresenta, em muitos aspectos, uma característica personalista, até mesmo individualista, no entanto o controle sobre o acesso, sua difusão, qual a reinterpretação poderá haver, não se faz presente, como o autor diz, torna-se uma garrafa navegando num oceano. É fundamental destacar que o acesso facilitado a diversas ferramentas, das mais diversas variedades, possibilitam a criação de canais de comunicação independentes, como canais de rádio e TV, produção e distribuição de vídeos e áudios etc. Outro fator é que os grandes meio de comunicação também se utilizam de tais espaços, inclusive para os meios mais vinculados a usos de contrapoder, de forma não somente a mesclar a comunicação possível de horizontalidade e verticalidade, mas, e em grande medida assume cada vez mais espaço fazendo frente junto as grandes corporações dos meios de comunicação e a indústria cultural, como um campo de disputa na produção da informação. Esse aspecto é determinante num processo que surge no cenário desse campo de comunicação midiática, de disputa política e empresarial para o controle do que é criado, processado e veiculado nesse meio. Concluindo, há nesse processo de expansão e criação desses novos espaços midiáticos de comunicação onde a mesma se dá de forma autônoma, horizontal, de caráter livre e autogerado, cujos alcances e consequências são incalculáveis, sendo assim e por isso, nesses meios, principalmente da rede global de comunicação (ou na internet), a construção e a produção da significação da opinião pública faz-se de forma cujas possibilidades são, praticamente, ilimitadas (Castells, ano).

Manuel Castells - Comunicação Poder e Contrapoder: Os novos espaços da comunicação[editar | editar código-fonte]

Autor Resumo: Luana de Paula Perez

O poder e a política estão intimamente ligados ao processo de construção da mente humana, esse processo se dá através da comunicação. Nesta sociedade os meios de comunicação de massa são decisivos para a formação da opinião pública e condiciona as decisões políticas. Isso causa consequências importantes, sobretudo à política do escândalo. Com o advento da internet e das redes sociais a comunicação de massa vem sofrendo transformações, pela necessidade da comunicação desmedida. Essas transformações foram positivas, pois permitiram que movimentos sociais e políticas alternativas fossem divulgados e tomassem maior proporção. Porém ao mesmo tempo esse espaço sofre intervenções de empresas, do governo e dos políticos, por isso é possível afirmar que o poder está na comunicação. Autocomunicação de massa e contrapoder Entende-se por contrapoder toda a capacidade dos atores sociais de desafiar e modificar as relações de poder institucionalizadas na sociedade. Em toda sociedade, aonde existe dominação existe resistência. O exemplo disso, podemos observar nos últimos acontecimentos o crescimento de movimentos sociais que lutam pelo direito das minorias assim como aqueles que aproveitam o momento da crise política para defenderem seus ideais políticos. Os movimentos sendo eles revolucionários, reacionários, ou nenhum dos dois nada mais são do que uma ação coletivas que tem um propósito determinado que reflitam na mudança de valores e interesses institucionalizados na sociedade, que venha a mudar a relações de poder. Esses movimentos constituem um risco permanente à sociedade, mas mesmo assim adotam valores e assumem as formas de organização específicas da sociedade em que vivem. Estes atuam e se estruturam na rede global de comunicação intervindo no processo de comunicação e se fortalecendo por meio das grandes redes. Isso advém do surgimento da autocomunicação de massa que são um meio para que grupos e indivíduos construam sua autonomia e façam frente às instituições da sociedade para a concretude de seus projetos. Hoje se um movimento social não nasce por meio das redes ele a utiliza para sua propagação, e esse espaço torna-se a ferramenta e o espaço para a repercussão de ideias. Ademais o progresso da tecnologia de comunicação individual é acentuado pela cultura individual, quanto mais autonomia de uma pessoa e quanto mais sólido for seu projeto, mais essa pessoa usará a internet. Por conta desta cultura é que os movimentos sociais utilizam-se desses novos meios e formas de mobilização, tano dos meios de comunicação individual quanto dos meios de comunicação de massa. Desta forma é notável que essas formas de organização são totalmente diferentes dos sindicatos, partidos ou movimentos populares organizados anteriormente, mas hoje os meios de comunicação constituem uma forma organizativa mais decisiva, mostrando a clara ruptura com as formas tradicionais de organização. Os novos atores sociais estão revolucionando as novas formas de comunicação através das redes, para esses novos movimentos sociais a internet oferece uma plataforma para atuar sobre a opinião pública de maneira mais potente. Contando também com rádios e canais de televisão local, grupos autônomos, distribuição de vídeo, rede p2p, blogs e podcasts, que atuam em conjunto sobre as esferas das manifestações culturais. Além disso, os Movimentos sociais deixam marcas na comunicação face a face, pois atuam em lugares específicos de mobilização, como sedes do poder local, nas reuniões da Organização Mundial do Comércio, etc. Assim o espaço dos novos movimentos sociais é tanto nas redes quanto em lugares físicos de manifestação, ou seja, esses movimentos ganharam um novo espaço de comunicação com um restabelecimento do significado espaço/tempo composto da interação entre ambos. A construção de redes de comunicação autônoma tem o intento de desafiar o poder da indústria da comunicação e os meios controlados pelo governo e empresas, como é o caso das emissoras piratas. O desenvolvimento dessas redes autônomas de comunicação juntamente com o desenvolvimento de organizações políticas autônomas em campanhas políticas é um exemplo de como é possível utilizar as redes para aproximar e traduzir afinidades entre as pessoas. No entanto, ainda sim há uma grande competição com os grandes meios de comunicação de massa. Com o avanço das tecnologias é muito mais complicado para o governo esconder suas peripécias, pois as mobilizações políticas via rede estão mudando o panorama político. Um exemplo dessa mobilização foi o não acontecimento do Massacre de Madrid em 2004 que não aconteceu por que houve uma mobilização espontânea da juventude espanhola organizada através dos celulares móveis. Esse é o efeito da capacidade das redes em distribuírem mensagens que atinjam a consciência pública e reúnam pessoas para compartilhar experiências, habilidades, ferramentas e táticas sobre a ação política. A Convergência: as relações de poder no novo espaço da comunicação É possível observar que há uma distinção de valor analítico entre meios de comunicação de massa e autocomunicação de massa no que diz respeito à comunicação. Tanto empresa, quanto o governo, e as pessoas de forma geral utilizam-se das redes para atuarem em diversos campos de seu interesse. Portanto o estudo da transformação das relações de poder no novo espaço da comunicação tem que considerar a interação existente entre atores políticos, atores sociais e as empresas dos meios de comunicação de massa e de redes e como a interconexão entre eles está reconfigurando o sistema dos meios de comunicação. Para isso é preciso analisá-los de acordo com as tendências. Estratégias das empresas de meios de comunicação Fica claro que as empresas estão redigindo uma estratégia básica de comunicação através das redes sociais, no texto há alguns exemplos de empresas que “alugam” espaço em suas redes sociais para propagandas, abarcando assim um mercado publicitário em potencial. Além do exemplo do MySpace, que o autor dá no texto, outro exemplo de grandes acordos empresarias é a venda do youtube para o Google e a hospedagem de várias empresas fazendo propagandas através de vídeos. A empresa Burguer King inaugurou seu próprio canal no youtube. Tomando como partido esse site outras empresas de grande porte, como a Microsoft, estão trabalhando em projetos para entrar no ar sites de compartilhamentos de vídeos baseada na tecnologia P2P. O que se pode observar é que as intenções em controlar financeiramente estas redes contribuem para garantir o êxito dos principais meios de comunicação, como por exemplo, canais de televisão que fizeram grandes parcerias com o youtube a fim de terem sua publicidade incorporada nos vídeos assistidos através deste canal. O que se vê é a coexistência e interconexão dos principais meios de comunicação, dos novos meios de comunicação e dos sítios autônomos, que pressupõem uma competição com os principais meios de comunicação. Uma razão pertinente para a existência das redes sociais, relativamente autônomas, é que as grandes empresas podem pensar em novas estratégias para que as campanhas publicitárias estejam nos meios de comunicação social, mas que haja com discrição, de forma mais sutil, fazendo com que o usuário não perceba que está exposto a anúncios publicitários e não queira utilizar outro site. Política eleitoral na era da Internet multimodal Na teoria da comunicação política tradicional a influência dos meios de comunicação vem determinando a interação entre a elite política e os jornalistas profissionais. Esses meios de comunicação são guardiães dos fluxos de informação que acabam dando forma à opinião pública. Justifica-se no papel cada vez mais importante das redes sociais que acelera a transformação. Os novos meios de comunicação fazem com que a comunicação deixei d éter um eixo único e passe a ser multiaxial, que acaba flexibilizando o poder por três motivos: 1) a expansão desses meio de comunicação e entretenimento conduzem uma luta pelo papel de guardião autorizado pelos possíveis escândalos; 2) A difusão de canais 24 horas torna possível que novos atores políticos secundários tenham influência sobre a agenda política e também cumprem o papel dos redatores no que diz respeito à produção de notícias, já que as notícias são expostas em tempo real a todo momento; 3) esta inclinação está deixando espaço para que o público penetre e interprete o mundo político. Ou seja, o surgimento de aparelhos móveis, ipods, e outras tecnologias permitiram a comunicação entre a vida política e a vida cotidiana. Com esse advento as tendências mais recentes mostram que o uso político da internet tem aumentando substancialmente, muitas vezes com o intuito dos atores em distribuir mais rapidamente uma mensagem, fazendo com que seja veiculada o mais rápido possível e seja vista por uma maioria de pessoas. A internet está sendo cada vez mais usada por partidos e políticos para a difusão de sua campanha e principalmente para promover escândalos para seus oponentes, utilizando as redes como ferramenta. Essa nova política mediática mostra a capacidade de inovação através dos novos meios de comunicação que modificam a dinâmica, as formas os conteúdos da política nos meios de comunicação. A Política de bases e os novos meios de comunicação É perceptível e possível identificar mudanças que facilitaram a comunicação no meio político, há um surgimento de novas possibilidades de informação política de alta qualidade, isso devido às várias tecnologias e plataformas de informação existentes hoje. Está em desenvolvimento um novo software que permite a publicação e edição automática e democratizada de dados que eleva os valores e qualidade das informações, pode - se falar em uma revolução tecnológica. Porém esta revolução parece atingir formatos inesperados, que não necessariamente são respeitosos e não correspondem ao elevado padrão da qualidade informativa. Esse é o caso de sites que hospedam fofocas a respeito de personagens políticos e até os sites paródicos que usam de uma infopolítica humorística contra os oponentes políticos. A interação entre atores políticos no âmbito dos novos meios de comunicação As informações apresentadas acima mostram a interação entre empresas, atores políticos e ativistas em base das novas formas de comunicação. Assim é possível notar a interligação e convergência entre tecnologia e política, pois, todos os atores políticos estão presentes tanto nos meios de comunicação de massa quanto nos novos meios de comunicação e todos querendo influenciar a opinião pública. É perceptível que os meios de comunicação corporativos estão presentes nas redes de comunicação e os ativistas e movimentos sociais não estão sozinhos no uso das redes e no ato de comunicar-se entre si e com a sociedade, sem esquecer que as estruturas de poder são reproduzidas na estrutura da sociedade. No entanto, é possível travar uma batalha através destes novos meios de comunicação que permitem que os atores políticos estabeleçam de forma autônoma sua agenda política através das redes sociais, já que seria muito difícil fazer isso através dos meios de comunicação tradicionais de massa, mas é possível ver a luta entre dominação e contradominação social continua através dos novos meios de comunicação social. Conclusão: a comunicação como espaço público da sociedade de rede As sociedades evoluíram e se modificaram desconstruindo instituições por conta da pressão das novas relações de poder que constroem novos modelos institucionais que permitem os seres humanos a conviverem sem autodestruir-se apesar de suas divergências, construindo assim um espaço público comum em que interesses e projetos individuais podem ser negociados para alcançarem o bem comum. Finalmente se cria um novo espaço público, novas formas de mudança social e políticas alternativas podem ser apresentadas por conta do novo espaço das redes. Apesar de sempre aqueles detentores do poder em querer afirmar e reafirmar seu poder através de todos os meios de comunicação, os outros atores políticos encontram um maior espaço nas redes de autocomunicação de massa. É por esse motivo que alguns países tentam implementar formas de por sua população sob vigilância para que determinadas informações não chegue a seu país limitando os espaços da nova forma de comunicação. Assim pode-se dizer que a luta pelo espaço público, qualquer que seja ele, não está pautado por nenhum destino histórico ou necessidade tecnológica, é resultado da etapa mais antiga da humanidade: a luta para ter uma opinião livre.


Esta página é somente um esboço. Ampliando-a você ajudará a melhorar a Wikiversidade.

Henrique Parra - Controle Social e Prática Hacker: tecnopolítica e ciberpolítica em redes digitais

Autor Resumo: Leonardo Bruno da Silva


- Problemática central: pensar o impacto das tecnologias digitais da informação na relações sociais e de poder

- Tecnopolítica como a política das tecnologias digitais

- Ciberpolítica como política ciberneticamente mediada

- Desterritorialização do espaço via comunicação, implicando uma produção de informação.

- Interação digital resulta em vigilância e controle social pelo Estado.

- "[...] A internet, em sua configuração sociotécnica, é uma cibernética em que uma forma específica de controle está inscrita em seu funcionamento básico" pág 112

- Liberdade e controle social nas redes digitais

- O Estado terceirizando a coleta dos dados civis.

- A vigilância e a coleta dos dados dos internautas serviria aos interesses das empresas privadas ( comercialização) e para o Estado ( controle social)

- Tecnologias digitais como mediadoras das relações sociais e de poder

- A arte de Heath como como resistência ao controle social das tecnologias digitais

- O ativismo hacker como fonte de dados e informações extra-oficiais.

"[...] quais são os horizontes políticos e culturais sob disputa dentro dos quais as tecnologias de comunicação estão sendo desenvolvidas e implementadas ? " pág 119