Editar vídeo com software Free Open Source

Blender - Blender is Free Software, free to use for any purpose

Blender – Blender is Free Software, free to use for any purpose

A ideia que uma solução com tudo incluído para editar vídeo pode não ser a melhor. Uma solução com tudo junto transforma a edição de vídeo num atividade artesanal, o que só faz com que o produto final se torne em algo com maior significado para o autor do que para quem o vê.

Dependente do objetivo final do vídeo que estejam a fazer podem optar por uma de duas maneira de iniciar a vossa montagem. Ou começam pela imagem e adaptam o som ao resultado final, ou o contrário. A segunda opção, fazer o vídeo conformar-se à música foi uma das técnicas utilizada por Walt Disney em alguns dos seus filmes mais famosos, como Fantasia.

Já aqui tínhamos dado nota da maior borla do mundo com a oferta da Pixar, mas já haviam outras ofertas disponíveis na lista de Free Open Source Software (FOSS) com Gnu Public License (GPL):

Blender: Geração de imagens 3D animadas e Edição e montagem vídeo de alta qualidade;

Camstudio: Captura de ecrã;

Audacity: Edição de áudio.

Uma atenção especial para o último item da lista, o Audacity, que é a ferramenta que usamos aqui para a produção do nosso Podcast. Este software simplifica-nos substancialmente o esforço de produção do produto final.

Capturar informação da Internet para o Excel

iMacros add on

iMacros add on

Já aqui vos tinha contado o que ando a tentar capturar páginas da Internet com o Automator, mas não vos tinha dito que o estava a capturar as páginas para analisar os dados que lá têm. Por causa das questões que trato ali naquele outro site, quero capturar informação da Internet que me serve para outras análises.

Estou a recolher informação no site do Parlamento português, mas porque o site do Parlamento é mesmo muito mauzinho em termos de eficiência, cada recolha demora bastante tempo para obter qualquer coisa apreciável. Tive de abandonar a tentativa de recolher primeiro todas as páginas, e executar a extração dos dados depois. O código html e javascript nas páginas do Parlamento é mesmo muito mau, contendo colocação de objetos por tabelas, algo equivalente a paginar um romance com Excel. O site tem também links que só funcionam com Javascript, mais ou menos o equivalente a ligar o motor do carro para irem a pé.

Estou a usar o add on iMacros para Firefox, Chrome e Internet Explorer para resolver todas estas dificuldades. Embora este add on tenha uma linguagem de scripting crua, foi com recurso à utilização deste add on e com o script em Javascript que foi possível iniciar a tarefa com alguma possibilidades mínimas de sucesso.

As tentativas de recolha de todo o site que iniciei com o Httrack e continuei com o Automator, mas os links do site do Parlamento, contrariamente às normas de acessibilidade, normas das tecnologias utilizadas e melhores práticas propostas pelo World Wide Web Consortium para a world wide web, são em Javascript e sem possibilidade de navegar até aos links sem um rato. Este facto impede a sua utilização sem realmente se clicar com um rato, não respeita a obrigatoriedade dos organismos do Estado de fazer sites acessíveis a pessoas com necessidades especiais, dificultando a vida a indexadores web como o Google e outros motores de busca.

Por agora só vou recolher todos os links de todas as iniciativas de todas as legislaturas que é possível obter através do site da Assembleia da república para depois processar cada link de forma mais rápida. O script adapta-se às fraquezas do site através, mas não separa logo a informação ao mesmo tempo que a recolhe, guardando apenas os dados da tabela de resultados de pesquisa. O script é um composto de instruções de iMacros executadas em pilha pelo Javascript. O resultado  é repetível e, com algumas modificações, também pode ser repetido noutras secções do mesmo site ou mesmo de outros sites.

Cada pedido de dados ao site do Parlamento teve de ser afinado com esperas de cerca de 20 segundos entre cada pedido para evitar os problemas criados pela lentidão do servidor. 8 horas de execução decorridas e vou em 282 de 832 tabelas de resumo prevista recolher. Cada tabela contem cerca de 20 iniciativas. O script tal como está preparado permitirá a recolha apenas da última legislatura para atualização dos dados no final desta legislatura.

window.open(‘http://www.parlamento.pt/ActividadeParlamentar/Paginas/IniciativasLegislativas.aspx’);

var Capturas = 0;
var LEGISLATURAX = [ “II”, “III”, “IV”, “V”, “VI”, “VII”, “VIII”, “IX”, “X”, “XI”, “XII” ]
var PAGINASN = [ 41, 48, 37, 77, 66, 74, 51, 62, 105, 73, 134 ]
var RETICENCIAS = [11, 21, 31, 41, 51, 61, 71, 81, 91, 101, 111, 121, 131, 141]
var LEGISN = LEGISLATURAX.length;
var RETICENCIASN = RETICENCIAS.length;
var POSICAO = 1;

// Selecionar Legislatura
for (LEGISLATURAS = 0; LEGISLATURAS < = LEGISN; LEGISLATURAS++)
{
var EXTRACT1 =”CODE:”;
// Usar o form de pesquisa para navergar para a legislatura
EXTRACT1 +=”VERSION BUILD=8890130 RECORDER=FX” + “\n”;
EXTRACT1 +=”TAB T=1″ + “\n”;
EXTRACT1 +=”URL GOTO=http://www.parlamento.pt/ActividadeParlamentar/Paginas/IniciativasLegislativas.aspx?back=5ccfbfca-beea-4a13-82ab-8a8260de645539045″ + “\n”;
EXTRACT1 +=”WAIT SECONDS=20″ + “\n”;
EXTRACT1 +=”TAG POS=1 TYPE=SELECT FORM=ID:aspnetForm ATTR=ID:ctl00_ctl43_g_889e27d8_462c_47cc_afea_c4a07765d8c7_ctl00_ddlLeg CONTENT=%” + LEGISLATURAX[LEGISLATURAS] + ” ” + “\n”;
EXTRACT1 +=”WAIT SECONDS=20″ + “\n”;
EXTRACT1 +=”TAG POS=1 TYPE=INPUT:SUBMIT FORM=ID:aspnetForm ATTR=ID:ctl00_ctl43_g_889e27d8_462c_47cc_afea_c4a07765d8c7_ctl00_btnPesquisar” + “\n”;
EXTRACT1 +=”WAIT SECONDS=20″ + “\n”;
iimPlay(EXTRACT1);
EXTRACT1 = “”;
// Navegar pelas páginas da legislatura para capturar tabelas
// alert(“legislatura ” + LEGISLATURAX[LEGISLATURAS] + ” Paginas ” + PAGINASN[LEGISLATURAS]);
for (PAGINAS = 1; PAGINAS <= PAGINASN[LEGISLATURAS]; PAGINAS++) { CARREGAR = PAGINAS + 1 // Copiar tabela com resultados da página PAGINAS // alert(“Copiar tabela ” + LEGISLATURAX[LEGISLATURAS] + ” página ” + PAGINAS ); var EXTRACT2 =”CODE:”; EXTRACT2 +=”VERSION BUILD=8890130 RECORDER=FX”+”\n”; EXTRACT2 +=”SET !EXTRACT_TEST_POPUP NO”+”\n”; EXTRACT2 +=”TAB T=1″+”\n”; EXTRACT2 +=”WAIT SECONDS=20″ + “\n”; EXTRACT2 +=”TAG POS=52 TYPE=TABLE ATTR=TXT:* EXTRACT=HTM”+”\n”; EXTRACT2 +=”SAVEAS TYPE=EXTRACT FOLDER=* FILE=resumo_” + LEGISLATURAX[LEGISLATURAS] + “_” + PAGINAS + “.html”+”\n”; Capturas = Capturas + 1 // Antes de carregar no link, // verficar se a página do link corresponde a um link com reticencias no texto ou a um número if ( RETICENCIAS.indexOf(CARREGAR) > -1 )
{
if (CARREGAR == 11)
{
CARREGAR=’…’;
POSICAO = 1; }
else
{
CARREGAR=’…’;
POSICAO = 2;
}
}
// alert(“Legislatura: ” + LEGISLATURAX[LEGISLATURAS] + ” Total Páginas: ” + PAGINASN[LEGISLATURAS] + “\n” + “Página: ” + PAGINAS + ” Carregar: ” + CARREGAR + ” POS: ” + POSICAO );
EXTRACT2 +=”REFRESH” + “\n”;
EXTRACT2 +=”WAIT SECONDS=20″ + “\n”;
EXTRACT2 +=”TAG POS=” + POSICAO + ” TYPE=A ATTR=TXT:” + CARREGAR + “\n”;
EXTRACT2 +=”WAIT SECONDS=20″ + “\n”;
iimPlay(EXTRACT2);
EXTRACT2 = “”;
POSICAO = 1;
}
}
alert(“Tabelas de resumo capturadas ” + Capturas);

Saga da Via Livre chegou ao fim

Extrato Via Verde

Extrato Via Verde

A saga com a Via Livre pode ter chegado ao fim. Depois de publicar a continuação desta história onde conto como não havia noticia de dividas de portagens dos meus veículos na app dos CTT e o estrato da Via Verde permitia ver que algo tinha corrido mal, decidi enviar  a informação para a Via Livre, mas não sem dar disso nota à Via Verde e às Estradas de Portugal. Alguns dias depois lá recebi um email com o que parece um texto genérico.

Exmo.(a)(s) Senhor(a)(es),

Acusamos a recepção da solicitação de V/ Exa(s). que mereceu a nossa melhor atenção.

De facto, verificámos a existência de contrato activo de adesão a sistema de pagamento automático de taxas de portagem, contudo verificámos que existiu falha na leitura do dispositivo, pelo que lamentamos o sucedido e apresentamos as nossas sinceras desculpas.

Não obstante tal circunstancialismo, informamos que tentaremos proceder ao seu débito através ao abrigo do supracitado contrato, debitando apenas a(s) taxa(s) de portagem em dívida.

Para qualquer esclarecimento adicional, contacte-nos através do número 707 201 292 ou do endereço electrónico apoioutente@vialivre.pt

Sem mais de momento, atentamente,

A realidade é que esta era a resposta que eu queria ter recebido logo no dia em que lhes telefonei. Bastava-lhes ter dito que poderia ter havido um engano e que iriam averiguar para terem removido grande parte da ansiedade criada pela carta em legalês.

136ª análise: a do colesterol e do fim da saga da Via Livre

Podcast do Poupar Melhor

Esta semana estivemos a rever o que sabemos sobre o colesterol e de como o conhecimento sobre a sua origem vem do tempo de encher animais indefesos com isto em laboratórios.

Acabamos a falar no final da saga com a Via Livre, empresa que explora a ex-scut da Via do Infante e que finalmente lá veio pedir desculpas porque tudo não terá passado de um engano.

Podem aceder aqui à lista completa de episódios do Podcast. O Podcast do Poupar melhor está também no iTunes

Play

O que aconteceu ao diretório de links do Sapo

Sapo a 8 de outubro de 1997

Sapo a 8 de outubro de 1997

O Sapo era o Servidor de Apontadores Português. Servia de porta de entrada na Internet para grande parte dos portugueses que em 1997, data da imagem que fui buscar ao Web Archive. Tinha um motor de pesquisa, que não era o que é hoje o Google, e um diretório de links cuidado e para o qual tínhamos de cumprir requisitos mínimos para entrar.

Hoje já não há o diretório do Sapo, como não outros tantos recursos que tínhamos portugalizados. Passamos a ter apenas aquilo que nos é oferecido do estrangeiro. Isto parece-me um bom princípio quando se trata de Internet, desde que não impeçam o registo dos links referentes ao que se vai fazendo neste retângulo à beira mar plantado.

Se ficámos a perder, não sei. Só perdemos aquilo que sentimos falta, e não consegui encontrar um registo de queixume que fosse sobre este desaparecimento. A realidade é que hoje em dia nos habituámos a perguntar tudo aos motores de busca. Se um dia estes serviços passarem a ser pagos ou desaparecerem, vamos procurar a informação a onde?

 

Como capturar páginas HTML com o OS X Automator


O OS X trás com ele desde a versão 10 a ferramenta Automator que nos permite automatizar muitas tarefas. Coisas que eu tipicamente fazia com o scripts que demoram tempo e necessitam de aprendizagem prolongada para serem executadas com eficácia e eficiência, são possíveis fazer com alguns cliques.

O meu objetivo era capturar para recolher a informação das páginas sobre as iniciativas privadas do Parlamento português para aquele outro site que tenho ali ao lado. Pretendia fazer um teste técnico que me garantisse que conseguia recolher e analisar os dados sobre as iniciativas parlamentares com um custo de tempo mínimo e a possibilidade de repetir a geração de gráficos e quadros com o clique de um botão.

O que o filme acima mostra serve para recolher os ficheirinhos de música para o seu autor, mas para eu recolher os ficheiros HTML contendo a descrição das iniciativas parlamentares era exatamente a mesma lógica. Resumidamente, para executar esta tarefa simples deve:

  1. Abrir o Automator;
  2. Criar um novo Workflow;
  3. Utilizar a ação “Get current Webpage from Safari”;
  4. Ligar à tarefa “Get Link URL from Webpages”;
  5. Usar o “Filter URL” no resultado; e
  6. Fazer “Download URL” das páginas resultantes para uma pasta.

O que andei dias a tentar fazer com um Phyton, Bash, Curl e outros já estava feito e era só usar. Se não tivesse conhecimentos de scripting não teria tentado fazer o script eu próprio.