соотношение сторон fluent-ffmpeg с культурой - PullRequest
0 голосов
/ 24 марта 2020

У меня проблемы с изменением соотношения сторон между 16: 9, 1: 1 и 9:16 с использованием fluent-ffmpeg Когда я пытаюсь изменить значение с 16: 9 на 9:16, я получаю сжатое видео, но на самом деле я хочу удалить лишнюю часть.

Я пробовал это со многими комбинациями:

FFmpeg() .input(video) .size("608x?") .aspect("9:16") .output(tempFile) .run();

Мой ввод 16: 9 видео 1920x1080 My input 16:9 video 1920x1080

.

Мой ожидаемый результат 9:16 видео 608x1080

My Expected result 9:16 video 608x1080

1 Ответ

0 голосов
/ 27 апреля 2020

Самое оптимальное решение, с которым я пришел:
Поскольку fluent-ffmpeg не предоставляют встроенного метода для обрезки и масштабирования видео, поэтому мы должны реализовать его самостоятельно.

Шаг 1:
Нам необходимо рассчитать промежуточное разрешение кадрирования, чтобы достичь целевого соотношения сторон, либо обрезав лишнее (пейзаж в портрет), либо добавив черные полосы (портрет в пейзаж), чтобы избежать сжатия или растяжение видео).

Примечание:
Мы также можем добавить хороший эффект размытия в случае портрета к ландшафту, но это добавит дополнительный шаг (требуется фильтр размытия ffmpeg).

Шаг 2:
Мы просто увеличим или уменьшим до нашего целевого разрешения.

Код кажется слишком длинным, но поверьте мне, это простой и разделенный на методы. Начните снизу, чтобы понять это.
Игнорируйте types, если вы хотите JavaScript версию.

Просто запустите этот код, и он будет обрезать / масштабировать одно видео для вас.

import * as FFmpeg from "fluent-ffmpeg";

function resizingFFmpeg(
  video: string,
  width: number,
  height: number,
  tempFile: string,
  autoPad?: boolean,
  padColor?: string
): Promise<string> {
  return new Promise((res, rej) => {
    let ff = FFmpeg().input(video).size(`${width}x${height}`);
    autoPad ? (ff = ff.autoPad(autoPad, padColor)) : null;
    ff.output(tempFile)
      .on("start", function (commandLine) {
        console.log("Spawned FFmpeg with command: " + commandLine);
        console.log("Start resizingFFmpeg:", video);
      })
      // .on("progress", function(progress) {
      //   console.log(progress);
      // })
      .on("error", function (err) {
        console.log("Problem performing ffmpeg function");
        rej(err);
      })
      .on("end", function () {
        console.log("End resizingFFmpeg:", tempFile);
        res(tempFile);
      })
      .run();
  });
}

function videoCropCenterFFmpeg(
  video: string,
  w: number,
  h: number,
  tempFile: string
): Promise<string> {
  return new Promise((res, rej) => {
    FFmpeg()
      .input(video)
      .videoFilters([
        {
          filter: "crop",
          options: {
            w,
            h,
          },
        },
      ])
      .output(tempFile)
      .on("start", function (commandLine) {
        console.log("Spawned FFmpeg with command: " + commandLine);
        console.log("Start videoCropCenterFFmpeg:", video);
      })
      // .on("progress", function(progress) {
      //   console.log(progress);
      // })
      .on("error", function (err) {
        console.log("Problem performing ffmpeg function");
        rej(err);
      })
      .on("end", function () {
        console.log("End videoCropCenterFFmpeg:", tempFile);
        res(tempFile);
      })
      .run();
  });
}

function getDimentions(media: string) {
  console.log("Getting Dimentions from:", media);
  return new Promise<{ width: number; height: number }>((res, rej) => {
    FFmpeg.ffprobe(media, async function (err, metadata) {
      if (err) {
        console.log("Error occured while getting dimensions of:", media);
        rej(err);
      }
      res({
        width: metadata.streams[0].width,
        height: metadata.streams[0].height,
      });
    });
  });
}

async function videoScale(video: string, newWidth: number, newHeight: number) {
  const output = "scaledOutput.mp4";
  const { width, height } = await getDimentions(video);
  if ((width / height).toFixed(2) > (newWidth / newHeight).toFixed(2)) {
    // y=0 case
    // landscape to potrait case
    const x = width - (newWidth / newHeight) * height;
    console.log(`New Intrim Res: ${width - x}x${height}`);
    const cropping = "tempCropped-" + output;
    let cropped = await videoCropCenterFFmpeg(
      video,
      width - x,
      height,
      cropping
    );
    let resized = await resizingFFmpeg(cropped, newWidth, newHeight, output);
    // unlink temp cropping file
    // fs.unlink(cropping, (err) => {
    //   if (err) console.log(err);
    //   console.log(`Temp file ${cropping} deleted Successfuly...`);
    // });
    return resized;
  } else if ((width / height).toFixed(2) < (newWidth / newHeight).toFixed(2)) {
    // x=0 case
    // potrait to landscape case
    // calculate crop or resize with padding or blur sides
    // or just return with black bars on the side
    return await resizingFFmpeg(video, newWidth, newHeight, output, true);
  } else {
    console.log("Same Aspect Ratio forward for resizing");
    return await resizingFFmpeg(video, newWidth, newHeight, output);
  }
}

videoScale("./path-to-some-video.mp4", 270, 480);
...